發(fā)文章
發(fā)文工具
撰寫(xiě)
網(wǎng)文摘手
文檔
視頻
思維導(dǎo)圖
隨筆
相冊(cè)
原創(chuàng)同步助手
其他工具
圖片轉(zhuǎn)文字
文件清理
AI助手
留言交流
“200萬(wàn)上下文,!月之暗面Kimi又長(zhǎng)長(zhǎng)長(zhǎng)了,,一次處理500個(gè)文件,還能讀懂甄嬛傳了” 的更多相關(guān)文章
大模型開(kāi)啟「長(zhǎng)」時(shí)代,,楊植麟的新公司把對(duì)話框容量做到了世界第一
月之暗面楊植麟:大模型進(jìn)入長(zhǎng)文本時(shí)代,,無(wú)損壓縮才是有效的規(guī)模化 | WISE2023商業(yè)之王大會(huì)
估值20億的kimi-Chat真香
AI掃盲指南,!什么是大模型?什么prompt,?什么是大模型參數(shù),?
LLaMA2上下文長(zhǎng)度暴漲至100萬(wàn)tokens,,只需調(diào)整1個(gè)超參數(shù)|復(fù)旦邱錫鵬團(tuán)隊(duì)出品
王小川公布最新大模型,,號(hào)稱(chēng)全球最長(zhǎng)上下文,,是GPT-4的14倍|鈦媒體焦點(diǎn)
200萬(wàn)上下文窗口創(chuàng)飛Gemini 1.5,!微軟來(lái)砸谷歌場(chǎng)子了|研究人員
模型上下文長(zhǎng)度越來(lái)越長(zhǎng),,RAG會(huì)被取代嗎,?
公司創(chuàng)立不到一年估值180億,,清華終于出來(lái)了一位真正的AI巨頭
解讀大模型(LLM)的token
第一次見(jiàn)有人把Transformer、BERT和GPT大模型講的這么通俗易懂,!
GPT:Chat的計(jì)算合成與人機(jī)協(xié)同創(chuàng)新
ChatGPT的勝利,,宣告知識(shí)圖譜的消亡,?