久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

或許是全網(wǎng)最全的 DeepSeek 使用指南,90% 的人都不知道的使用技巧(建議收藏)

 慧然 2025-02-01

從 DeepSeek R1 發(fā)布那天開始,,我就開始寫文章介紹 DeepSeek,沒想到這幾天這么火爆了,。

不過我在翻看評論區(qū)時,,發(fā)現(xiàn)很多朋友并沒有很好的發(fā)揮出 DeepSeek R1 的潛能。

朋友們,,我真是著急啊,。

圖片

心急之下,趕緊寫了這篇文章,,教大家一些有用的技巧,,并提供一些案例,,來讓 DeepSeek R1 成為咱們的得力干將。

在哪使用 DeepSeek

為照顧一些新手朋友,,這里還是先說下在哪使用 DeepSeek,,老手跳過這部分就行了。

目前 DeepSeek 提供了如下使用方式:

1. 網(wǎng)頁版:打開 https://chat./ 直接使用,。

2. App:手機掃碼下載,。

默認情況下,,DeepSeek 使用的是 V3 模型,點擊深度思考才會切換為 R1 模型,,即現(xiàn)在讓“硅谷震驚”的模型,。

圖片

深度思考旁邊還有個聯(lián)網(wǎng)搜索,默認情況下 DeepSeek 使用的是好幾個月前的訓(xùn)練數(shù)據(jù),,如果我們想?yún)⒖甲钚碌男侣劊瑒t點擊聯(lián)網(wǎng)搜索讓 DeepSeek R1 基于最新的網(wǎng)絡(luò)數(shù)據(jù)來優(yōu)化回答,。

另外 DeepSeek 還提供了服務(wù)狀態(tài)的監(jiān)控,,可以打開 https://status. 查看服務(wù)狀態(tài),。

一般來說,,當(dāng)服務(wù)狀態(tài)為紅色時,,會較頻繁的出現(xiàn)“服務(wù)器繁忙,,請稍后再試”的提示。

圖片

基礎(chǔ)技巧

好了,,現(xiàn)在正式進入正題,,看看用什么技巧能讓 DeepSeek R1 成為我們的得力助手。

直接提需求

首先說下 DeepSeek 相對于 GPT 等主流大模型的區(qū)別,。

GPT 等主流大模型是指令型大模型。

這類大模型需要我們給它說下比較詳細的流程,,它的回答才會讓我們滿意,。

比如我們想讓 GPT 4o 扮演中國媽媽讓孩子相親:“請你扮演我媽,用我媽的口氣來教育我,,批評我,,催我結(jié)婚,,讓我回家。給我講七大姑八大姨家的孩子都結(jié)婚了,,為啥就我單身,,再給我安排幾個相親對象?!?/span>

演示效果如下:

圖片

上面的提示詞不僅交代了需求背景(“用我媽的口氣來教育我”),,還交代了一些額外的流程(“七大姑八大姨家的孩子都結(jié)婚了”,,“再安排幾個相親對象”)等。

因此去年在 ChatGPT 這類指令型大模型很火的時候,,出現(xiàn)了很多提示詞模板,,甚至誕生了“提示詞工程師”這一崗位。

圖片

而 DeepSeek R1 屬于推理型大模型,。

這類模型不需要我們列出太詳細的流程,太詳細的流程反而會降低它們的性能,,限制它們的發(fā)揮,。

DeepSeek R1 在發(fā)表的論文中也提到:DeepSeek R1對提示詞很敏感,。為獲得最佳效果,建議用戶直接描述問題,。

圖片

我們用問題 “當(dāng)老黃看到英偉達的股價因為 DeepSeek R1 暴跌 17% 時,寫出他的內(nèi)心獨白” 為例,,對比下幾個主流大模型,,就能看出一些區(qū)別,。

先看看豆包的回答:

圖片

豆包的輸出只有心理描述,,略顯空洞乏味,。

接著看看 GPT-4o 的回答:

圖片

GPT-4o 加了點人物動作,回答相對于豆包豐富了一些,,不過仍然比較空洞,。

再看看 Claude 3.5 Sonnet 的回答:

圖片

Claude 不僅說之前英偉達也大跌過,還提到了英偉達的生態(tài)系統(tǒng),,整個回答會讓人有信服感。

最后看看 DeepSeek R1 的答案:

圖片

相對于前幾個大模型,,DeepSeek 自己“加了很多戲”,,不過讀起來更形象也更有畫面感。

所以對于 DeepSeek R1 而言,,我們完全可以把自己想象成老板,,DeepSeek R1 是我們請的一位專業(yè)助手,。

這位專業(yè)助手不需要我們告訴它應(yīng)該怎么做,我們只管“當(dāng)大爺”提需求,,讓助手干活就行了,。

可能幾次交流之后,你會得出這樣的結(jié)論:我們是真不如 AI 那樣博學(xué)啊,。

下面再介紹一些技巧,讓你的 DeepSeek 好用到爆,。

萬能提問模板

雖然直接提問題已經(jīng)能得到不錯的答案,,但如果再加上“背景描述”這個簡單的優(yōu)化,還能讓回答更上一層樓,。

背景描述指的是向 DeepSeek R1 說清楚我是誰(如我一個互聯(lián)網(wǎng)打工人),、我當(dāng)前的水平(如我是自媒體小白)、我想讓 DeepSeek 充當(dāng)?shù)慕巧ㄈ缒闶且幻悦襟w運營專家)等,。

有時 DeepSeek 回答的內(nèi)容可能不是你想要的,這時我們可以增加約束條件,,來限制,、優(yōu)化它回答的內(nèi)容。

所以可總結(jié)成這個簡單,、萬能的 DeepSeek 提問模板,即:  

背景+需求+約束條件可選),。

如:我家小孩讀初一(交待背景),,怎樣提高他的英語水平(提出需求),不需要考慮口語問題 (約束條件,,可選)。

圖片

可以看到 DeepSeek 這位助手十分貼心,,不僅列了如何高效學(xué)習(xí)單詞,、語法,、閱讀和寫作,還提供了一些應(yīng)試技巧和日常訓(xùn)練的方法,。

如果我們覺得這位助手的回答還不夠深入,,完全可以讓它針對某一點再展開詳細說說,。

用好這個簡單的模板,能解決 90% 的日常問題,,讓 DeepSeek 瞬間成為我們工作,、學(xué)習(xí)、生活的好幫手,。

讓 DeepSeek “說人話”

模板雖好用,但是當(dāng)我們問到一些專業(yè)領(lǐng)域的問題時,,DeepSeek 的回答會摻雜很多專業(yè)名詞來解釋問題,。

如果我們是行業(yè)內(nèi)的人,專業(yè)名詞能幫我們快速清楚的解釋明白問題,。

但如果這個領(lǐng)域剛好不是我們擅長的話,,通常都會覺得這些專業(yè)名詞晦澀難懂,不知所云,。

碰到這種情況,,我們只需要在提示詞中加上“說人話”,、“大白話”、“通俗易懂” 等,,DeepSeek 給我們的用戶體驗會立馬提升一個檔次,。

比如我問他“DeepSeek 成本這低的原因是什么”。

圖片

上面的回答并沒有什么問題,,如果我們是業(yè)內(nèi)人士,,自然知道 MoE 架構(gòu),、蒸餾和 FP8 是什么意思。

遺憾的是,,可能 99% 的人根本不明白上述回答到底說的是什么意思。

這時我們只需要簡單的加上“說人話”三個字,,就能得到一個通俗易懂的答案了,。

圖片

這里 DeepSeek 會用“100 個員工中只讓 10 個員工干活”解釋 MoE 架構(gòu),,用“高清電影轉(zhuǎn) MP4 格式”來解決 FP8。

是不是一下就懂了,!

模仿回答

我們還可以用“模仿 X”,、“以 X 的口吻/語氣”,“以 X 的內(nèi)心獨白”等等提示詞,,把 DeepSeek 的使用體驗拉滿。

比如我們可以用知乎常用格式回應(yīng) DeepSeek 導(dǎo)致英偉達股價暴跌的問題,。

圖片

用貼吧暴躁老哥的語氣回應(yīng)美國多名官員稱 DeepSeek 偷竊了他們的技術(shù),。

圖片

好家伙,,我都能感覺它的唾沫星子快飛到我臉上了。貼吧 10 級的噴人水平也自愧不如吧,。,。,。

我們還可以讓 DeepSeek 模仿李白給我們寫春聯(lián),。

圖片

讓《雪中悍刀行》的作者烽火戲諸侯,寫短篇小說給我們看,。

圖片

有網(wǎng)友分享了“哲學(xué)大師”,,看大師說的話,,是不是頗有哲理?

圖片

可以看到,,使用模仿人物的方法,,能達到意想不到的結(jié)果。

高級技巧

這里再提供幾個比較繁瑣但高級的用法,。

多模型組合

對于復(fù)雜場景,通常一個 AI 模型并不能得到很好的效果,,此時我們可以將 DeepSeek R1 與 GPT-4o 或 Claude 3.5 Sonnet 組合使用,。

一般來說,可以先讓 DeepSeek R1 告訴我們應(yīng)該怎么處理問題,,然后根據(jù)它給的答案讓指令型大模型去生成結(jié)果。

業(yè)務(wù)分析

如果我們想分析業(yè)務(wù),,可以開啟“聯(lián)網(wǎng)搜索”實時搜索內(nèi)容,,還能上傳附件來精準分析。

比如我們想在小紅書上起號,,可以直接“聯(lián)網(wǎng)搜索”對標賬號,,讓 DeepSeek R1 給我們一個起號流程,。

對于不能搜索的地址,,先手動下載資料后,,再上傳給 DeepSeek R1 幫助分析,。

DeepSeek R1 不僅能給出具體流程,,還會生成一些 mermaid 圖表,,非常好用。

以我測試的結(jié)果看,,一波策劃和數(shù)據(jù)分析師要失業(yè)了,。

DeepSeek 不適合做什么

DeepSeek 碰到一些問題類型時會提示“無法思考這類問題”,。

圖片

一般來說,主要是如下幾類問題:  

1. 敏感內(nèi)容:國產(chǎn)審核比較嚴,,這里不說多了,,懂得也懂。

2. 長文本內(nèi)容:現(xiàn)在 DeepSeek 模型上下文長度最長為 6 萬 4 千個 token,,最大輸出長度為 8 千個 token,,默認輸出長度為 4 千個 token。

圖片

這里科普下,,一個 token 指的是一個語義單元,如一個單詞或單詞的一部分結(jié)構(gòu)(詞根或后綴)或標點符號等,。

而上下文長度包括輸入長度(如用戶問題,、對話歷史等)和輸出長度。

目前主流大模型服務(wù)商提供的最大上下文長度如下:

1. 豆包:25.6 萬 token

2. GPT-4o,、GPT-o1:12.8 萬個 token

3. Claude Pro:20 萬個 token (約500頁文本或100張圖片)

4. Gemini 1.5 Flash:100 萬個 token

5. Gemini 1.5 Pro:200 萬個 token

不知不覺寫了這么多,由于篇幅有限,,這里就先聊到這。

其實還有很多內(nèi)容還沒寫出來,,大家可以先關(guān)注我,,后續(xù)會持續(xù)給大家?guī)硪恍└韶洝?/span>

最后再說一句,從去年 ChatGPT 的爆火到現(xiàn)在的 DeepSeek R1 的轟動,,AI 就像當(dāng)年的智能手機一樣,,開始慢慢滲透進我們的生活,以后肯定會成為你我日常生活中的一部分,。

大家應(yīng)該很難相信,人類現(xiàn)在沒有手機會變成什么樣,。

同樣的,,我相信再過 10 年,我們也離不開 AI,。

所以,,如果你覺得本文對你有幫助,請轉(zhuǎn)給你身邊需要使用 AI 的家人朋友,讓他們也能像你一樣,,更好地使用 AI 工具,。

END

關(guān)注我,,及時獲取更多有趣資訊

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報,。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多