1,、哈佛大學(xué)CS50小黃鴨網(wǎng)址:https:/// 來自斯坦福大學(xué)的CS50 小黃鴨,一個能夠通過多個平臺回答課程相關(guān)問題的聊天機(jī)器人,。 CS50 小黃鴨的名字來源于小黃鴨調(diào)試法(一種調(diào)試代碼的方法,,耐心地向一只小黃鴨解釋每一行程序的作用,以此來激發(fā)靈感與發(fā)現(xiàn)問題),,它可以類似于ChatGPT聊天,,也可以自動回復(fù)論壇上的學(xué)生提問,還可以作為 VSCode 插件輔助編程,。 CS50 小黃鴨通過一個可視的愛心計(jì)數(shù)器來限制使用頻率,。每位學(xué)生初始有 10 顆愛心,,每隔三分鐘可以恢復(fù)一顆。每次與 CS50 小黃鴨互動都會消耗一顆愛心,,這樣可以防止濫用行為,。 我試了一下,GitHub賬號登陸即可,,支持中文,,效果還行吧 2、大學(xué)考試問題的多模態(tài)數(shù)據(jù)集?? Homepage | ?? Paper | ?? arXiv | ?? Dataset | GitHub 中文LLM評估新基準(zhǔn):CMMMU 中國大規(guī)模多學(xué)科多模態(tài)理解基準(zhǔn),,包含 12k 手動收集的多模態(tài)問題,。 CMMMU 是大學(xué)考試問題的多模態(tài)數(shù)據(jù)集,可通過 @huggingface Hub 獲?。?· ?? 12k 個手動收集的多模式問題 · ?? 涵蓋 30 個主題和 39 種圖像類型 · ?? 學(xué)術(shù)問題理解中人工智能模型的基準(zhǔn) 3,、每周機(jī)器學(xué)習(xí)論文精選網(wǎng)址:https://github.com/dair-ai/ML-Papers-of-the-Week 這個項(xiàng)目每周更新機(jī)器學(xué)習(xí)、人工智能領(lǐng)域最新,、最熱門的論文 附了論文摘要和直達(dá)鏈接 4,、一張圖片,個性化圖像合成代碼:https://github.com/InstantID/InstantID 試玩:https:///#playground 只使用一張圖片,,就可以提取人臉,,用于個性化圖像合成,并支持各種不同的風(fēng)格 我玩了幾下,,感覺蠻有意思的,,效果還算滿意。獲取到GPU資源后大概30-40秒生成一張 5,、OpenAI 重大更新詳情查看:https:///blog/new-embedding-models-and-api-updates OpenAI迎來幾個更新,,要點(diǎn)如下: 1、推出 2,、新版且價(jià)格下調(diào)50%的 3、最新的 GPT-4 Turbo 預(yù)覽版 4,、免費(fèi)、強(qiáng)大的內(nèi)容審核模型 6,、傅盛:我們對做大模型沒有執(zhí)念,,對做好應(yīng)用有執(zhí)念鏈接:https://mp.weixin.qq.com/s/TdP82TDFCWyEZ79FuQKhSw 傅盛在獵戶星空百億大模型發(fā)布會上的演講。 傅盛認(rèn)為,企業(yè)要想真正用好AI,,必須全流程,、全數(shù)據(jù)化,實(shí)現(xiàn)“數(shù)字老板”,。對做大模型沒有執(zhí)念,,對做好應(yīng)用有執(zhí)念,通過AI應(yīng)用把大模型的能力和企業(yè)實(shí)際業(yè)務(wù)相結(jié)合,,從而提供決策支持,,助力企業(yè)達(dá)到王者段位。 傅盛預(yù)測,,到2024年,,千億大模型中過半都會凋零,而百億大模型會百花盛開,。超越OpenAI的機(jī)會,,將來自大模型應(yīng)用公司。 傅盛的獵戶星空發(fā)布了Orion-14B系列 LLM 模型,,模型頁面的測試挺全面的,,主要特點(diǎn)有: 模型整體多語言能力強(qiáng),比如日語和韓語,。 支持超過 200k 的上下文,。 量化版本模型大小縮小70%,推理速度提升30%,,性能損失小于1%,。 Orion-14B系列一共包含了 7 個不同的模型: 基座模型、對話模型,、長上下文模型,、 RAG 模型、插件模型,、兩個量化模型,。 模型介紹頁面:https:///OrionStarAI/Orion-14B-Chat-Int4/blob/main/README_zh.md… 7、Lumiere:一次性生成整個視頻項(xiàng)目及演示:https://lumiere-video. 論文:https:///abs/2401.12945 Google Research團(tuán)隊(duì)開發(fā)的基于空間時(shí)間的文本到視頻擴(kuò)散模型,。 它采用了創(chuàng)新的空間時(shí)間U-Net架構(gòu),能夠一次性生成整個視頻的時(shí)間長度,,不同于其他模型那樣逐幀合成視頻,。 確保了生成視頻的連貫性和逼真度。 支持文本到視頻,、圖像到視頻 ,、風(fēng)格化視頻生成 、視頻編輯等 主要功能特點(diǎn): 1、文本到視頻的擴(kuò)散模型: Lumiere能夠根據(jù)文本提示生成視頻,,實(shí)現(xiàn)了從文本描述到視頻內(nèi)容的直接轉(zhuǎn)換,。 2、空間時(shí)間U-Net架構(gòu): 與其他需要逐步合成視頻的模型不同,,Lumiere能夠一次性完成整個視頻的制作,。這種獨(dú)特的架構(gòu)允許Lumiere一次性生成整個視頻的時(shí)間長度,不同于其他模型那樣逐幀合成視頻,。 3,、全局時(shí)間一致性: 由于其架構(gòu)的特點(diǎn),Lumiere更容易實(shí)現(xiàn)視頻內(nèi)容的全局時(shí)間一致性,,確保視頻的連貫性和逼真度,。 4、多尺度空間時(shí)間處理: Lumiere通過在多個空間時(shí)間尺度上處理視頻來學(xué)習(xí)直接生成視頻,,這是一種先進(jìn)的方法,。 5、風(fēng)格化視頻生成: 使用單個參考圖像,,Lumiere可以按照目標(biāo)風(fēng)格生成視頻,,這種能力在其他視頻生成模型中較為罕見。 6,、廣泛的內(nèi)容創(chuàng)作和視頻編輯應(yīng)用: Lumiere支持多種內(nèi)容創(chuàng)作任務(wù)和視頻編輯應(yīng)用,,如圖像到視頻、視頻修補(bǔ)和風(fēng)格化生成,。 8,、一份詳盡的《英語學(xué)習(xí)指南》,在線閱讀:https://byoungd./English-level-up-tips/ 作者:離譜,,介紹了學(xué)習(xí)英語的“小”技巧,,分為認(rèn)知篇、單詞篇,、聽力篇,、閱讀篇、口語篇等 |
|