久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

或許是全網最全的 DeepSeek 使用指南,,90% 的人都不知道的使用技巧(建議收藏)

 順其自然h 2025-02-01

從 DeepSeek R1 發(fā)布那天開始,,我就開始寫文章介紹 DeepSeek,沒想到這幾天這么火爆了,。

不過我在翻看評論區(qū)時,,發(fā)現很多朋友并沒有很好的發(fā)揮出 DeepSeek R1 的潛能。

朋友們,,我真是著急啊,。

圖片

心急之下,趕緊寫了這篇文章,,教大家一些有用的技巧,,并提供一些案例,來讓 DeepSeek R1 成為咱們的得力干將,。

在哪使用 DeepSeek

為照顧一些新手朋友,,這里還是先說下在哪使用 DeepSeek,老手跳過這部分就行了,。

目前 DeepSeek 提供了如下使用方式:

1. 網頁版:打開 https://chat./ 直接使用,。

2. App:手機掃碼下載,。

默認情況下,DeepSeek 使用的是 V3 模型,,點擊深度思考才會切換為 R1 模型,,即現在讓“硅谷震驚”的模型。

圖片

深度思考旁邊還有個聯網搜索,,默認情況下 DeepSeek 使用的是好幾個月前的訓練數據,,如果我們想參考最新的新聞,則點擊聯網搜索讓 DeepSeek R1 基于最新的網絡數據來優(yōu)化回答,。

另外 DeepSeek 還提供了服務狀態(tài)的監(jiān)控,,可以打開 https://status. 查看服務狀態(tài)。

一般來說,,當服務狀態(tài)為紅色時,會較頻繁的出現“服務器繁忙,,請稍后再試”的提示,。

圖片

基礎技巧

好了,現在正式進入正題,,看看用什么技巧能讓 DeepSeek R1 成為我們的得力助手,。

直接提需求

首先說下 DeepSeek 相對于 GPT 等主流大模型的區(qū)別。

GPT 等主流大模型是指令型大模型,。

這類大模型需要我們給它說下比較詳細的流程,,它的回答才會讓我們滿意。

比如我們想讓 GPT 4o 扮演中國媽媽讓孩子相親:“請你扮演我媽,,用我媽的口氣來教育我,,批評我,催我結婚,,讓我回家,。給我講七大姑八大姨家的孩子都結婚了,為啥就我單身,,再給我安排幾個相親對象,。”

演示效果如下:

圖片

上面的提示詞不僅交代了需求背景(“用我媽的口氣來教育我”),,還交代了一些額外的流程(“七大姑八大姨家的孩子都結婚了”,,“再安排幾個相親對象”)等。

因此去年在 ChatGPT 這類指令型大模型很火的時候,,出現了很多提示詞模板,,甚至誕生了“提示詞工程師”這一崗位。

圖片

而 DeepSeek R1 屬于推理型大模型,。

這類模型不需要我們列出太詳細的流程,,太詳細的流程反而會降低它們的性能,,限制它們的發(fā)揮。

DeepSeek R1 在發(fā)表的論文中也提到:DeepSeek R1對提示詞很敏感,。為獲得最佳效果,,建議用戶直接描述問題。

圖片

我們用問題 “當老黃看到英偉達的股價因為 DeepSeek R1 暴跌 17% 時,,寫出他的內心獨白” 為例,,對比下幾個主流大模型,就能看出一些區(qū)別,。

先看看豆包的回答:

圖片

豆包的輸出只有心理描述,,略顯空洞乏味。

接著看看 GPT-4o 的回答:

圖片

GPT-4o 加了點人物動作,,回答相對于豆包豐富了一些,,不過仍然比較空洞。

再看看 Claude 3.5 Sonnet 的回答:

圖片

Claude 不僅說之前英偉達也大跌過,,還提到了英偉達的生態(tài)系統(tǒng),,整個回答會讓人有信服感。

最后看看 DeepSeek R1 的答案:

圖片

相對于前幾個大模型,,DeepSeek 自己“加了很多戲”,,不過讀起來更形象也更有畫面感。

所以對于 DeepSeek R1 而言,,我們完全可以把自己想象成老板,,DeepSeek R1 是我們請的一位專業(yè)助手。

這位專業(yè)助手不需要我們告訴它應該怎么做,,我們只管“當大爺”提需求,,讓助手干活就行了。

可能幾次交流之后,,你會得出這樣的結論:我們是真不如 AI 那樣博學啊,。

下面再介紹一些技巧,讓你的 DeepSeek 好用到爆,。

萬能提問模板

雖然直接提問題已經能得到不錯的答案,,但如果再加上“背景描述”這個簡單的優(yōu)化,還能讓回答更上一層樓,。

背景描述指的是向 DeepSeek R1 說清楚我是誰(如我一個互聯網打工人),、我當前的水平(如我是自媒體小白)、我想讓 DeepSeek 充當的角色(如你是一名自媒體運營專家)等,。

有時 DeepSeek 回答的內容可能不是你想要的,,這時我們可以增加約束條件,來限制,、優(yōu)化它回答的內容,。

所以可總結成這個簡單,、萬能的 DeepSeek 提問模板,即:  

背景 需求 約束條件可選),。

如:我家小孩讀初一(交待背景),,怎樣提高他的英語水平(提出需求),不需要考慮口語問題 (約束條件,,可選),。

圖片

可以看到 DeepSeek 這位助手十分貼心,不僅列了如何高效學習單詞,、語法,、閱讀和寫作,還提供了一些應試技巧和日常訓練的方法,。

如果我們覺得這位助手的回答還不夠深入,,完全可以讓它針對某一點再展開詳細說說。

用好這個簡單的模板,,能解決 90% 的日常問題,,讓 DeepSeek 瞬間成為我們工作、學習,、生活的好幫手。

讓 DeepSeek “說人話”

模板雖好用,,但是當我們問到一些專業(yè)領域的問題時,,DeepSeek 的回答會摻雜很多專業(yè)名詞來解釋問題。

如果我們是行業(yè)內的人,,專業(yè)名詞能幫我們快速清楚的解釋明白問題,。

但如果這個領域剛好不是我們擅長的話,通常都會覺得這些專業(yè)名詞晦澀難懂,,不知所云,。

碰到這種情況,我們只需要在提示詞中加上“說人話”,、“大白話”,、“通俗易懂” 等,DeepSeek 給我們的用戶體驗會立馬提升一個檔次,。

比如我問他“DeepSeek 成本這低的原因是什么”,。

圖片

上面的回答并沒有什么問題,如果我們是業(yè)內人士,,自然知道 MoE 架構,、蒸餾和 FP8 是什么意思。

遺憾的是,,可能 99% 的人根本不明白上述回答到底說的是什么意思,。

這時我們只需要簡單的加上“說人話”三個字,,就能得到一個通俗易懂的答案了。

圖片

這里 DeepSeek 會用“100 個員工中只讓 10 個員工干活”解釋 MoE 架構,,用“高清電影轉 MP4 格式”來解決 FP8,。

是不是一下就懂了!

模仿回答

我們還可以用“模仿 X”,、“以 X 的口吻/語氣”,,“以 X 的內心獨白”等等提示詞,把 DeepSeek 的使用體驗拉滿,。

比如我們可以用知乎常用格式回應 DeepSeek 導致英偉達股價暴跌的問題,。

圖片

用貼吧暴躁老哥的語氣回應美國多名官員稱 DeepSeek 偷竊了他們的技術。

圖片

好家伙,,我都能感覺它的唾沫星子快飛到我臉上了,。貼吧 10 級的噴人水平也自愧不如吧。,。,。

我們還可以讓 DeepSeek 模仿李白給我們寫春聯。

圖片

讓《雪中悍刀行》的作者烽火戲諸侯,,寫短篇小說給我們看,。

圖片

有網友分享了“哲學大師”,看大師說的話,,是不是頗有哲理,?

圖片

可以看到,使用模仿人物的方法,,能達到意想不到的結果,。

高級技巧

這里再提供幾個比較繁瑣但高級的用法。

多模型組合

對于復雜場景,,通常一個 AI 模型并不能得到很好的效果,,此時我們可以將 DeepSeek R1 與 GPT-4o 或 Claude 3.5 Sonnet 組合使用。

一般來說,,可以先讓 DeepSeek R1 告訴我們應該怎么處理問題,,然后根據它給的答案讓指令型大模型去生成結果。

業(yè)務分析

如果我們想分析業(yè)務,,可以開啟“聯網搜索”實時搜索內容,,還能上傳附件來精準分析。

比如我們想在小紅書上起號,,可以直接“聯網搜索”對標賬號,,讓 DeepSeek R1 給我們一個起號流程。

對于不能搜索的地址,先手動下載資料后,,再上傳給 DeepSeek R1 幫助分析,。

DeepSeek R1 不僅能給出具體流程,還會生成一些 mermaid 圖表,,非常好用,。

以我測試的結果看,一波策劃和數據分析師要失業(yè)了,。

DeepSeek 不適合做什么

DeepSeek 碰到一些問題類型時會提示“無法思考這類問題”,。

圖片

一般來說,主要是如下幾類問題:  

1. 敏感內容:國產審核比較嚴,,這里不說多了,,懂得也懂。

2. 長文本內容:現在 DeepSeek 模型上下文長度最長為 6 萬 4 千個 token,,最大輸出長度為 8 千個 token,,默認輸出長度為 4 千個 token。

圖片

這里科普下,,一個 token 指的是一個語義單元,,如一個單詞或單詞的一部分結構(詞根或后綴)或標點符號等。

而上下文長度包括輸入長度(如用戶問題,、對話歷史等)和輸出長度,。

目前主流大模型服務商提供的最大上下文長度如下:

1. 豆包:25.6 萬 token

2. GPT-4o、GPT-o1:12.8 萬個 token

3. Claude Pro:20 萬個 token (約500頁文本或100張圖片)

4. Gemini 1.5 Flash:100 萬個 token

5. Gemini 1.5 Pro:200 萬個 token

不知不覺寫了這么多,,由于篇幅有限,,這里就先聊到這。

其實還有很多內容還沒寫出來,,大家可以先關注我,后續(xù)會持續(xù)給大家?guī)硪恍└韶洝?/span>

最后再說一句,,從去年 ChatGPT 的爆火到現在的 DeepSeek R1 的轟動,,AI 就像當年的智能手機一樣,開始慢慢滲透進我們的生活,,以后肯定會成為你我日常生活中的一部分,。

大家應該很難相信,人類現在沒有手機會變成什么樣,。

同樣的,,我相信再過 10 年,我們也離不開 AI,。

所以,,如果你覺得本文對你有幫助,請轉給你身邊需要使用 AI 的家人朋友,,讓他們也能像你一樣,,更好地使用 AI 工具,。


    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,,不代表本站觀點,。請注意甄別內容中的聯系方式、誘導購買等信息,,謹防詐騙,。如發(fā)現有害或侵權內容,請點擊一鍵舉報,。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多