大家好,,我是 Jack~ 自從 ChatGPT 發(fā)布以來,,全球大模型技術(shù)蓬勃發(fā)展,各大廠商競相推出了自家的 AI 大模型,。 國內(nèi)的開發(fā)者們或許沒有想到,,有朝一日,,咱自家人開發(fā)的 AI 大模型,竟然讓其他國家的網(wǎng)友感慨萬千,。 這個讓日本和韓國網(wǎng)友感慨萬千的「別人家的孩子」,,就是阿里云的通義千問(英文名為 Qwen),。 而就在 5 月 9 日,,阿里云正式發(fā)布了通義 2.5 大模型,能力升級,、性能卓越,,在 OpenCompass 開源基座大模型排行榜中,中文性能全面趕超 GPT-4 Turbo,。 免費(fèi)使用地址: https://tongyi.aliyun.com/qianwen 同時(shí),,阿里云也正式宣布了“通義千問App”更名為“通義App”,為所有用戶提供免費(fèi)服務(wù),。 在 2.5 版本中,,模型相比上一版本在各個方面都有顯著提升:
可以說,,在中文處理能力上,,通義絕對是保持在行業(yè)的領(lǐng)先地位上。 而在 4 月 26 日,,通義推出的擁有 1100 億參數(shù)的開源模型 Qwen1.5-110B,,更是在多個基準(zhǔn)測試中超過了 Meta 的 Llama-3-70B 模型,直接把國外網(wǎng)友看傻了,。 在 HuggingFace 的開源大模型排行榜 Open LLM Leaderboard 上,,Qwen1.5-110B 榮登榜首。 模型發(fā)布不到 24 小時(shí),,ollama 便火速上線了對 110B 的支持,。這意味著,你現(xiàn)在就可以通過 ollama 將 Qwen1.5-110B 部署到自己的電腦上運(yùn)行,。 阿里云 CTO 周靖人表示:
5 月 13 日,,OpenAI 發(fā)布會上官宣的 GPT-4o 也印證了一點(diǎn),OpenAI 也開始做落地應(yīng)用,,打造了擁有多模態(tài)實(shí)時(shí)交互能力的語音助理,。 通義也在發(fā)力多模態(tài)上的應(yīng)用,像聚焦音視頻領(lǐng)域的通義聽悟,、聚焦長文檔的通義智穩(wěn),、聚焦代碼領(lǐng)域的通義靈碼等,提供了多場景,、多模態(tài)的模型能力,。 除了落地應(yīng)用,通義也早早布局開源,,去年 8 月,,通義宣布加入開源行列,并迅速推出了多款開源模型,。目前,,通義開源模型的下載量已經(jīng)超過 700 萬。 除了常規(guī)的我們知道的不同參數(shù)量的基準(zhǔn)大模型,,通義還開源了視覺理解模型 Qwen-VL,、音頻理解模型 Qwen-Audio、代碼模型 CodeQwen1.5-7B,、混合專家模型 Qwen1.5-MoE 等,。 這些模型也是廣受好評: 自從大模型爆火以來,弱智吧就成了檢測大模型能力的一項(xiàng)重要指標(biāo),,我們來檢測下通義的實(shí)戰(zhàn)能力: 先輸入一個腦筋急轉(zhuǎn):我今天有 3 個蘋果,,昨天吃了一個。現(xiàn)在有幾個蘋果,? 這個問題如果不仔細(xì)想,,很容給出錯誤答案 2,但通義不但給出了準(zhǔn)確的答案,,還分析了原因,。 再問問弱智吧問題: 接下來考察下文本創(chuàng)作能力: 像讀文檔、寫代碼,,這些常見的能力我們就不看了,,我們玩玩視覺理解能力。 生活中遇到問題了,,拍張照片上傳,,它也能給出一些意見。 大模型也給出了請及時(shí)就醫(yī)的指導(dǎo)意見,。 還能根據(jù) emoji 表情猜成語: 我們加大難度,,給它一個經(jīng)典的驗(yàn)證碼圖: 說實(shí)話,,這理解能力真的很強(qiáng)了!,! 以上測試,,只是通義眾多功能中的冰山一角,感興趣的讀者可以前去官方網(wǎng)站一試,。 通義 2.5 大模型進(jìn)步還是挺大的,! 好了,今天的內(nèi)容就是這么多,。 我是 Jack,,我們下期見,! |
|