同志們好呀,,我是五竹。 最近國(guó)產(chǎn)AI文本大模型又冒出一匹黑馬——Deep Seek,。 一個(gè)月不到的時(shí)間可以說被捧上了天,。 連外網(wǎng)也是如此,美區(qū)蘋果應(yīng)用商店免費(fèi)App排行榜上干掉了ChatGPT,,直接登頂?shù)谝弧?/span> 從Kimi,、智譜到豆包,,國(guó)產(chǎn)大模型被吹爆我已經(jīng)見怪不怪了,。對(duì)于國(guó)產(chǎn)大模型的態(tài)度我一直都是聽聽就算了態(tài)度。 我本也沒報(bào)什么希望,,但訓(xùn)練營(yíng)的多個(gè)學(xué)員都推薦我試一下,。 我靠,這次還真不是吹的,。 我被狠狠打臉了,!不過這臉打得開心! 因?yàn)镈eep Seek真的真的很強(qiáng)大,。 先說我的使用結(jié)論吧:在千字文章創(chuàng)作方面,,Claude>Deep Seek>GPT4 這是我第一次感覺國(guó)產(chǎn)大模型在創(chuàng)作方便是真的超過了GPT4! Deep Seek 給我的最大感覺就是,,它很擅長(zhǎng)分析+學(xué)習(xí)+模仿,。 怎么說呢?就是你直接投喂提示詞讓它創(chuàng)作它可能表現(xiàn)很一般,,但是你給它一篇文章讓它分析學(xué)習(xí)再模仿,,效果瞬間就很驚艷! GPT4模仿的可能只是形,,Deep Seek模仿的卻是那個(gè)味,,它的深度思考能力可以甩GPT o1一條街。提示詞那一套可以丟掉了,! 下面用Deep Seek來一個(gè)爆文“洗稿”的實(shí)戰(zhàn),。 在此之前先說說“洗稿”的思路:提取A文章的關(guān)鍵信息,學(xué)習(xí)B文章的寫作風(fēng)格,然后二次創(chuàng)作,。 這個(gè)思路是真香,,目前已經(jīng)在Claude上跑的還算可以,GPT4有點(diǎn)牽強(qiáng),。Deep Seek效果驚艷,。 咱們來看看具體的步驟 1.先打開Deep Seek 官網(wǎng):https://chat./ 默認(rèn)使用的是Deep Seek-V3模型,想用它最牛逼的R1模型,,點(diǎn)擊上圖所示的「深度思考(R1)」即可,。。 2.先提取A文章的關(guān)鍵信息 3.學(xué)習(xí)B文章的寫作風(fēng)格,。 學(xué)習(xí)過程堪稱完美,! 4.根據(jù)關(guān)鍵信息和學(xué)習(xí)的風(fēng)格進(jìn)行二創(chuàng) Deep Seek有一點(diǎn)做的很好!就是對(duì)文章字?jǐn)?shù)的把控能力,。你設(shè)置為900,,它就控制在1000左右。 而GPT4和Claude在這方面就是兩個(gè)極端,。前者寫的太多,,讓GPT4寫500,它能干到1300,。而后者寫的又太少,,讓Claude寫2000,它也是輸出700..... 不過在內(nèi)容創(chuàng)作方面尤其是對(duì)一些反轉(zhuǎn),,爽點(diǎn)等內(nèi)容的創(chuàng)作,,目前還是不如Claude。 5.來看看文章的原創(chuàng)度,。表現(xiàn)很優(yōu)秀,,比GPT強(qiáng)! 6.檢查一下文章的AI味,。用最近較火的騰訊文本檢測(cè)大模型,。一次性就達(dá)標(biāo)。GPT4通常要二次優(yōu)化才能達(dá)標(biāo),。 另外,,目前Coze已經(jīng)支持Deep Seek模型,這兩天基于Deep Seek搭建了一個(gè)'洗稿'的智能體,。 總體效果還是很給力的,! 這個(gè)智能體我已經(jīng)發(fā)布到Coze商店,可以讓大家免費(fèi)試用,,有需要的可以掃碼找我領(lǐng)取,,記得備注(智能體)
|
|