2023年9月27日,,Nature對全球1600多名研究人員進(jìn)行的一項(xiàng)調(diào)查顯示,,人工智能工具在科學(xué)領(lǐng)域正變得越來越普遍,許多科學(xué)家預(yù)計(jì)這些工具將很快成為研究實(shí)踐的核心,。其中一半以上的受訪者認(rèn)為人工智能工具“非常重要”或“必不可少”,。但科學(xué)家們也對人工智能如何改變研究方式表示了強(qiáng)烈的擔(dān)憂。 在過去十年中,,每個(gè)領(lǐng)域中提及人工智能術(shù)語的研究論文比例都在上升: Nature調(diào)查了研究人員對人工智能(包括機(jī)器學(xué)習(xí)和生成式人工智能工具)在科學(xué)領(lǐng)域崛起的看法,。 三分之二的人指出,,AI提供了更快的數(shù)據(jù)處理方法,。58%的人覺得AI加快了計(jì)算速度;55%的人認(rèn)為AI節(jié)省了時(shí)間和金錢,。北卡羅來納州達(dá)勒姆杜克大學(xué)的計(jì)算生物學(xué)家Irene Kaplow說:“AI使我能夠在回答生物學(xué)問題方面取得進(jìn)展,,而這在以前是不可行的?!?/span>在可能的負(fù)面影響中,,69%的研究人員表示,AI可能會導(dǎo)致人們更加依賴模式識別而不去理解,;58%的研究人員表示,,AI結(jié)果可能會使數(shù)據(jù)中的偏見或歧視根深蒂固;55%的研究人員認(rèn)為,,AI可能會使造假更容易,;53%的研究人員指出,考慮不周的使用可能會導(dǎo)致研究的不可再現(xiàn)性,。康涅狄格州法明頓杰克遜實(shí)驗(yàn)室研究癌癥圖像分析的Jeffrey Chuang說:“主要問題在于,,AI正在挑戰(zhàn)我們現(xiàn)有的證明和真理標(biāo)準(zhǔn)?!?/span>為了評估活躍研究人員的觀點(diǎn),,Nature向4萬多名在2022年最后4個(gè)月發(fā)表過論文的科學(xué)家發(fā)送了電子郵件,并邀請Nature簡報(bào)的讀者參與調(diào)查,。受訪者分為三類:48%的人自己直接開發(fā)或研究AI,;30%的人在研究中使用了AI;22% 的人在科學(xué)研究中沒有使用AI,。 在研究中使用AI的研究人員中,,超過四分之一的人認(rèn)為AI將在未來十年內(nèi)成為其研究領(lǐng)域的“必需品”,僅有4%認(rèn)為現(xiàn)在AI是必不可少的。另有47%的人認(rèn)為AI將“非常有用”,。不使用AI的研究人員對此并不太感興趣,。即便如此,仍然有9%的人認(rèn)為AI將在未來十年內(nèi)變得“必不可少”,,另有34%的人表示它們將“非常有用”,。在選擇AI可能帶來的負(fù)面影響時(shí),主要有三種:錯(cuò)誤信息泛濫(68%),、使剽竊變得容易(68%),、將錯(cuò)誤或不準(zhǔn)確的信息帶入研究論文中(66%)。 在醫(yī)療診斷上,,受訪者擔(dān)心AI工具如果根據(jù)歷史上有偏見的數(shù)據(jù)訓(xùn)練出來,,會出現(xiàn)偽造研究、虛假信息和長期存在偏見的情況,。企業(yè)家,、軟件工程師Isabella Degen說:“在我看來,我們并不清楚好的使用和濫用之間的邊界在哪里,?!?/span>研究人員認(rèn)為,最明顯的好處是大型語言模型(LLMs)可以幫助非英語母語的研究人員,,改進(jìn)他們研究論文的語法和風(fēng)格,,總結(jié)或翻譯其他工作。在工作中經(jīng)常使用LLMs的研究人員仍然是少數(shù),。在研究AI的人員中,,約有28%的人表示他們每天或每周使用一次以上生成式AI產(chǎn)品,如LLMs,;在只使用AI的研究人員中,,有13%的人表示他們使用過LLMs;而在其他研究人員中,,只有1%的人表示他們使用過LLMs,。在所有調(diào)查群體中,最常用的是與研究無關(guān)的創(chuàng)造性樂趣,;還有一小部分受訪者使用這些工具編寫代碼,、構(gòu)思研究方案以及撰寫研究論文。一些科學(xué)家對LLMs的產(chǎn)出不以為然,。一位使用LLMs幫助編輯論文的研究人員寫道:感覺ChatGPT抄襲了人類所有的寫作陋習(xí):用大量的字來表達(dá)很少的內(nèi)容,。University of Turku的物理學(xué)家Johannes Niskanen則寫道:如果我們使用AI來閱讀和撰寫文章,那么科學(xué)很快就會從'人類為人類服務(wù)'轉(zhuǎn)變?yōu)?機(jī)器為機(jī)器服務(wù)',。約有一半的科學(xué)家在調(diào)查中表示,,有一些障礙阻礙了開發(fā)或使用AI。直接研究AI的研究人員最擔(dān)心的是缺乏計(jì)算資源、工作經(jīng)費(fèi)以及高質(zhì)量數(shù)據(jù),。在其他領(lǐng)域工作但在研究中使用AI的擔(dān)心缺乏技術(shù)熟練的科學(xué)家和培訓(xùn)資源,,他們還提到了安全和隱私方面的考慮。沒有使用AI的研究人員表示,,他們不需要AI,,也不覺得AI有用,或者他們?nèi)狈ρ芯?span style="color: rgb(0, 0, 0);font-size: 15px;letter-spacing: normal;background-color: rgb(255, 255, 255);">AI的經(jīng)驗(yàn)或時(shí)間,。 商業(yè)公司主導(dǎo)著人工智能的計(jì)算資源和人工智能工具的所有權(quán)也是一些受訪者關(guān)心的問題,。研究AI的科學(xué)家中有23%表示他們與開發(fā)這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而僅使用AI的人中只有7%有這樣的經(jīng)歷,。 總體而言,,過半受訪者認(rèn)為使用AI的研究人員與這些公司的科學(xué)家進(jìn)行合作是“非常”或“有些”重要的,。
研究人員曾多次警告,,在科學(xué)中天真地使用AI會導(dǎo)致錯(cuò)誤、假陽性和不可再現(xiàn)的發(fā)現(xiàn),。一些科學(xué)家表示,,他們擔(dān)心使用AI的論文研究質(zhì)量不高,。 曼哈頓堪薩斯州立大學(xué)的計(jì)算機(jī)科學(xué)家Lior Shamir說:“機(jī)器學(xué)習(xí)有時(shí)是有用的,,但人AI造成的損害比它帶來的幫助更大。由于科學(xué)家在不知道自己做什么的情況下使用AI,,導(dǎo)致了錯(cuò)誤的發(fā)現(xiàn),。” 當(dāng)被問及期刊編輯和同行評審人員是否能夠充分評審使用AI的論文時(shí),,在工作中使用了AI但沒有直接開發(fā)AI的科學(xué)家中,,約有一半人表示不知道,四分之一的人認(rèn)為審查是充分的,,四分之一的人認(rèn)為審查不充分,。那些直接開發(fā)AI的科學(xué)家對編輯和審查過程有更積極的看法。 一位從事地球科學(xué)工作但不愿透露姓名的日本受訪者表示,,這可能很難做到,。他寫道:作為編輯,很難找到既熟悉機(jī)器學(xué)習(xí)(ML)方法又熟悉ML所應(yīng)用的科學(xué)的審稿人,。 Nature還調(diào)查了受訪者對AI對社會的七種潛在影響的擔(dān)憂程度,。傳播錯(cuò)誤信息是研究人員最擔(dān)心的。自動AI武器和AI輔助監(jiān)控也名列前茅,。最不令人擔(dān)憂的影響是可能對人類生存構(gòu)成威脅,。馬薩諸塞州波士頓貝斯以色列女執(zhí)事醫(yī)療中心的肝病專家Yury Popov寫道:AI是變革性的。我們現(xiàn)在必須關(guān)注如何確保它帶來的好處多于問題。Nature 621, 672-675 (2023)doi: https:///10.1038/d41586-023-02980-0
|