久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

或許是全網(wǎng)最全的 DeepSeek 使用指南,,90% 的人都不知道的使用技巧(建議收藏)

 徐徐見之 2025-01-31

從 DeepSeek R1 發(fā)布那天開始,,我就開始寫文章介紹 DeepSeek,沒想到這幾天這么火爆了,。

不過我在翻看評論區(qū)時,,發(fā)現(xiàn)很多朋友并沒有很好的發(fā)揮出 DeepSeek R1 的潛能。

朋友們,,我真是著急啊,。

圖片

心急之下,趕緊寫了這篇文章,,教大家一些有用的技巧,,并提供一些案例,來讓 DeepSeek R1 成為咱們的得力干將,。

在哪使用 DeepSeek

為照顧一些新手朋友,,這里還是先說下在哪使用 DeepSeek,老手跳過這部分就行了,。

目前 DeepSeek 提供了如下使用方式:

1. 網(wǎng)頁版:打開 https://chat./ 直接使用,。

2. App:手機掃碼下載。

默認情況下,,DeepSeek 使用的是 V3 模型,,點擊深度思考才會切換為 R1 模型,即現(xiàn)在讓“硅谷震驚”的模型,。

圖片

深度思考旁邊還有個聯(lián)網(wǎng)搜索,,默認情況下 DeepSeek 使用的是好幾個月前的訓練數(shù)據(jù),如果我們想?yún)⒖甲钚碌男侣?,則點擊聯(lián)網(wǎng)搜索讓 DeepSeek R1 基于最新的網(wǎng)絡數(shù)據(jù)來優(yōu)化回答,。

另外 DeepSeek 還提供了服務狀態(tài)的監(jiān)控,可以打開 https://status. 查看服務狀態(tài),。

一般來說,,當服務狀態(tài)為紅色時,會較頻繁的出現(xiàn)“服務器繁忙,,請稍后再試”的提示,。

圖片

基礎技巧

好了,現(xiàn)在正式進入正題,,看看用什么技巧能讓 DeepSeek R1 成為我們的得力助手,。

直接提需求

首先說下 DeepSeek 相對于 GPT 等主流大模型的區(qū)別。

GPT 等主流大模型是指令型大模型,。

這類大模型需要我們給它說下比較詳細的流程,,它的回答才會讓我們滿意。

比如我們想讓 GPT 4o 扮演中國媽媽讓孩子相親:“請你扮演我媽,,用我媽的口氣來教育我,,批評我,,催我結婚,讓我回家,。給我講七大姑八大姨家的孩子都結婚了,,為啥就我單身,再給我安排幾個相親對象,?!?/span>

演示效果如下:

圖片

上面的提示詞不僅交代了需求背景(“用我媽的口氣來教育我”),還交代了一些額外的流程(“七大姑八大姨家的孩子都結婚了”,,“再安排幾個相親對象”)等,。

因此去年在 ChatGPT 這類指令型大模型很火的時候,出現(xiàn)了很多提示詞模板,,甚至誕生了“提示詞工程師”這一崗位,。

圖片

而 DeepSeek R1 屬于推理型大模型。

這類模型不需要我們列出太詳細的流程,,太詳細的流程反而會降低它們的性能,,限制它們的發(fā)揮,。

DeepSeek R1 在發(fā)表的論文中也提到:DeepSeek R1對提示詞很敏感。為獲得最佳效果,建議用戶直接描述問題,。

圖片

我們用問題 “當老黃看到英偉達的股價因為 DeepSeek R1 暴跌 17% 時,,寫出他的內心獨白” 為例,,對比下幾個主流大模型,,就能看出一些區(qū)別。

先看看豆包的回答:

圖片

豆包的輸出只有心理描述,,略顯空洞乏味,。

接著看看 GPT-4o 的回答:

圖片

GPT-4o 加了點人物動作,回答相對于豆包豐富了一些,,不過仍然比較空洞,。

再看看 Claude 3.5 Sonnet 的回答:

圖片

Claude 不僅說之前英偉達也大跌過,還提到了英偉達的生態(tài)系統(tǒng),,整個回答會讓人有信服感,。

最后看看 DeepSeek R1 的答案:

圖片

相對于前幾個大模型,DeepSeek 自己“加了很多戲”,,不過讀起來更形象也更有畫面感,。

所以對于 DeepSeek R1 而言,我們完全可以把自己想象成老板,,DeepSeek R1 是我們請的一位專業(yè)助手,。

這位專業(yè)助手不需要我們告訴它應該怎么做,我們只管“當大爺”提需求,,讓助手干活就行了,。

可能幾次交流之后,你會得出這樣的結論:我們是真不如 AI 那樣博學啊,。

下面再介紹一些技巧,,讓你的 DeepSeek 好用到爆。

萬能提問模板

雖然直接提問題已經(jīng)能得到不錯的答案,,但如果再加上“背景描述”這個簡單的優(yōu)化,,還能讓回答更上一層樓。

背景描述指的是向 DeepSeek R1 說清楚我是誰(如我一個互聯(lián)網(wǎng)打工人),、我當前的水平(如我是自媒體小白),、我想讓 DeepSeek 充當?shù)慕巧ㄈ缒闶且幻悦襟w運營專家)等。

有時 DeepSeek 回答的內容可能不是你想要的,,這時我們可以增加約束條件,,來限制、優(yōu)化它回答的內容,。

所以可總結成這個簡單,、萬能的 DeepSeek 提問模板,即:  

背景+需求+約束條件可選),。

如:我家小孩讀初一(交待背景),,怎樣提高他的英語水平(提出需求),不需要考慮口語問題 (約束條件,,可選),。

圖片

可以看到 DeepSeek 這位助手十分貼心,不僅列了如何高效學習單詞,、語法,、閱讀和寫作,還提供了一些應試技巧和日常訓練的方法,。

如果我們覺得這位助手的回答還不夠深入,,完全可以讓它針對某一點再展開詳細說說。

用好這個簡單的模板,,能解決 90% 的日常問題,,讓 DeepSeek 瞬間成為我們工作、學習,、生活的好幫手,。

讓 DeepSeek “說人話”

模板雖好用,但是當我們問到一些專業(yè)領域的問題時,,DeepSeek 的回答會摻雜很多專業(yè)名詞來解釋問題,。

如果我們是行業(yè)內的人,專業(yè)名詞能幫我們快速清楚的解釋明白問題,。

但如果這個領域剛好不是我們擅長的話,,通常都會覺得這些專業(yè)名詞晦澀難懂,,不知所云。

碰到這種情況,,我們只需要在提示詞中加上“說人話”,、“大白話”、“通俗易懂” 等,,DeepSeek 給我們的用戶體驗會立馬提升一個檔次,。

比如我問他“DeepSeek 成本這低的原因是什么”。

圖片

上面的回答并沒有什么問題,,如果我們是業(yè)內人士,,自然知道 MoE 架構、蒸餾和 FP8 是什么意思,。

遺憾的是,,可能 99% 的人根本不明白上述回答到底說的是什么意思。

這時我們只需要簡單的加上“說人話”三個字,,就能得到一個通俗易懂的答案了,。

圖片

這里 DeepSeek 會用“100 個員工中只讓 10 個員工干活”解釋 MoE 架構,用“高清電影轉 MP4 格式”來解決 FP8,。

是不是一下就懂了,!

模仿回答

我們還可以用“模仿 X”、“以 X 的口吻/語氣”,,“以 X 的內心獨白”等等提示詞,,把 DeepSeek 的使用體驗拉滿。

比如我們可以用知乎常用格式回應 DeepSeek 導致英偉達股價暴跌的問題,。

圖片

用貼吧暴躁老哥的語氣回應美國多名官員稱 DeepSeek 偷竊了他們的技術,。

圖片

好家伙,我都能感覺它的唾沫星子快飛到我臉上了,。貼吧 10 級的噴人水平也自愧不如吧,。。,。

我們還可以讓 DeepSeek 模仿李白給我們寫春聯(lián),。

圖片

讓《雪中悍刀行》的作者烽火戲諸侯,寫短篇小說給我們看,。

圖片

有網(wǎng)友分享了“哲學大師”,,看大師說的話,是不是頗有哲理,?

圖片

可以看到,,使用模仿人物的方法,能達到意想不到的結果。

高級技巧

這里再提供幾個比較繁瑣但高級的用法,。

多模型組合

對于復雜場景,,通常一個 AI 模型并不能得到很好的效果,此時我們可以將 DeepSeek R1 與 GPT-4o 或 Claude 3.5 Sonnet 組合使用,。

一般來說,,可以先讓 DeepSeek R1 告訴我們應該怎么處理問題,然后根據(jù)它給的答案讓指令型大模型去生成結果,。

業(yè)務分析

如果我們想分析業(yè)務,可以開啟“聯(lián)網(wǎng)搜索”實時搜索內容,,還能上傳附件來精準分析,。

比如我們想在小紅書上起號,可以直接“聯(lián)網(wǎng)搜索”對標賬號,,讓 DeepSeek R1 給我們一個起號流程,。

對于不能搜索的地址,先手動下載資料后,,再上傳給 DeepSeek R1 幫助分析,。

DeepSeek R1 不僅能給出具體流程,還會生成一些 mermaid 圖表,,非常好用,。

以我測試的結果看,一波策劃和數(shù)據(jù)分析師要失業(yè)了,。

DeepSeek 不適合做什么

DeepSeek 碰到一些問題類型時會提示“無法思考這類問題”,。

圖片

一般來說,主要是如下幾類問題:  

1. 敏感內容:國產(chǎn)審核比較嚴,,這里不說多了,,懂得也懂。

2. 長文本內容:現(xiàn)在 DeepSeek 模型上下文長度最長為 6 萬 4 千個 token,,最大輸出長度為 8 千個 token,,默認輸出長度為 4 千個 token。

圖片

這里科普下,,一個 token 指的是一個語義單元,,如一個單詞或單詞的一部分結構(詞根或后綴)或標點符號等。

而上下文長度包括輸入長度(如用戶問題,、對話歷史等)和輸出長度,。

目前主流大模型服務商提供的最大上下文長度如下:

1. 豆包:25.6 萬 token

2. GPT-4o、GPT-o1:12.8 萬個 token

3. Claude Pro:20 萬個 token (約500頁文本或100張圖片)

4. Gemini 1.5 Flash:100 萬個 token

5. Gemini 1.5 Pro:200 萬個 token

不知不覺寫了這么多,,由于篇幅有限,,這里就先聊到這。

其實還有很多內容還沒寫出來,大家可以先關注我,,后續(xù)會持續(xù)給大家?guī)硪恍└韶洝?/span>

最后再說一句,,從去年 ChatGPT 的爆火到現(xiàn)在的 DeepSeek R1 的轟動,AI 就像當年的智能手機一樣,,開始慢慢滲透進我們的生活,,以后肯定會成為你我日常生活中的一部分。

大家應該很難相信,,人類現(xiàn)在沒有手機會變成什么樣,。

同樣的,我相信再過 10 年,,我們也離不開 AI,。

所以,如果你覺得本文對你有幫助,,請轉給你身邊需要使用 AI 的家人朋友,,讓他們也能像你一樣,更好地使用 AI 工具,。

END

關注我,,及時獲取更多有趣資訊

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,,不代表本站觀點,。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,,謹防詐騙,。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報,。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多