久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

DeepMind開源Psychlab平臺——搭建AI和認(rèn)知心理學(xué)的橋梁(附論文和代碼下載)

 netouch 2023-05-18 發(fā)布于北京


來源:專知

概要:DeepMind近期開源了Psychlab,,這是一個利用認(rèn)知心理學(xué)等領(lǐng)域知識來研究受控環(huán)境下人工智能體(Artificial Agent)的行為,從而模擬人類的行為,。

DeepMind近期開源了Psychlab,,這是一個利用認(rèn)知心理學(xué)等領(lǐng)域知識來研究受控環(huán)境下人工智能體(Artificial Agent)的行為,從而模擬人類的行為,。Psychlab通過一系列典型的任務(wù)證明其人工智能體(Artificial Agent)的行為的可靠性:包括視覺搜索,、連續(xù)識別、多目標(biāo)搜索等任務(wù),。同時也提供了簡單實用的API,,使其他研究者可以在其基礎(chǔ)上輕松構(gòu)建自己的任務(wù)。DeepMind出品必出精品,!我們在文末附有paper鏈接和代碼地址,,感興趣的讀者可不要錯過。專知內(nèi)容組編輯整理,。

Open-sourcing Psychlab

考慮一下在購物的時候,,如果你沒有把清單上一個商品取出,這告訴我們了什么:“關(guān)于大腦此時的功能?”,。這可能表示在搜索商品列表的時候,,你無法將注意力從一個商品移動到另一個商品;也可能表示記住購物清單是有困難的,,也可能這兩者都有,。

好像單一的任務(wù)取決于多種認(rèn)知能力。 我們在人工智能研究中也面臨類似的問題,,在這種情況下,,任務(wù)的復(fù)雜性往往會使一個取得成功的agent中的個體技能難以分離。 但是了解agent特定的個體技能可能對改善其整體表現(xiàn)有作用,。

為了解決這個問題,,心理學(xué)家花了近150年的時間來設(shè)計嚴(yán)格控制的實驗,目的是隔離特定的認(rèn)知能力,。例如,,他們可能會使用兩個獨立的測試來分析超市的場景——一個“視覺搜索”測試,需要被測者定位圖案中的特定的形狀,可以用來探測注意力,;同時他們可能會要求受測試者回憶列表中的東西來測試他們的記憶力,。

我們相信可以使用類似的實驗方法來更好地理解人工智能體(artificial agents)的行為,。 這就是我們開發(fā)Psychlab的原因,,它能直接運(yùn)用認(rèn)知心理學(xué)等領(lǐng)域的方法來研究受控環(huán)境下人工智能體的行為,Psychlab是在DeepMind實驗室研究基礎(chǔ)上建立的平臺,。 今天,,我們開放這個平臺供其他人使用。

Psychlab對虛擬DeepMindLab環(huán)境(virtual DeepMind Lab environment)中常用的人類心理學(xué)實驗的結(jié)構(gòu)進(jìn)行重構(gòu),。這一般包括一個參與者坐在電腦顯示器前,,用鼠標(biāo)對屏幕上的任務(wù)做出響應(yīng)。類似地,,我們的環(huán)境允許虛擬主體在虛擬計算機(jī)監(jiān)視器上執(zhí)行任務(wù),,利用它的注視方向進(jìn)行響應(yīng)。這允許人類和人工因素都采取相同的實驗設(shè)置,,最大限度地減少實驗差異,。 這使得它更容易與認(rèn)知心理學(xué)的文獻(xiàn)聯(lián)系起來,以便從中獲得思路,。

隨著Psychlab的開源版本的發(fā)布,,我們構(gòu)建了一系列典型實驗任務(wù),并在虛擬計算機(jī)監(jiān)視器上進(jìn)行測試,,我們提供靈活且易于學(xué)習(xí)的API,,使其他人能夠很容易構(gòu)建自己的任務(wù)。

  • 視覺搜索(Visual search)——測試搜索目標(biāo)數(shù)組的能力,。

  • 連續(xù)識別(Continuous recognition)——為不斷增長的物品列表測試內(nèi)存,。

  • 任意的視覺運(yùn)動測試(Arbitrary visuomotor mapping)——測試回憶的刺激,響應(yīng)配對,。

  • 更改檢測(Change detection)——測試當(dāng)數(shù)組中更改檢測對象并經(jīng)過短暫延遲后目標(biāo)重新出現(xiàn)的能力,。

  • 視覺敏銳度和對比敏感度(Visualacuity and contrast sensitivity)——測試識別小對比度和低對比度刺激的能力。

  • 玻璃圖案檢測(Glass pattern detection)——測試全局形式感知,。

  • 隨機(jī)點運(yùn)動判別(Randomdot motion discrimination)——檢測對相關(guān)運(yùn)動的感知能力,。

  • 多目標(biāo)跟蹤(Multipleobject tracking)——測試隨著時間的推移能夠跟蹤移動對象。

上述任務(wù)中的每一個任務(wù)都已被驗證,,表明我們的實驗結(jié)果反映了認(rèn)知心理學(xué)文獻(xiàn)中的標(biāo)準(zhǔn)結(jié)果,。

以“視覺搜索”任務(wù)為例。 這是一種理解人類選擇性注意力的方法,,已經(jīng)研究了在復(fù)雜的刺激陣列中定位目標(biāo)的能力,,如超市貨架上的一個商品。

當(dāng)人們搜索“在水平條塊之間的垂直取向的條塊”和“在其他顏色的條塊之間搜索粉色條塊”的任務(wù)時,其反應(yīng)時間不會根據(jù)屏幕上的條塊數(shù)量改變而改變,。換句話說,,他們的反應(yīng)時間是獨立的“設(shè)定值”。 然而,,當(dāng)任務(wù)是“搜索不同形狀和不同顏色的條塊中的粉色條塊時”,,人的反應(yīng)時間隨著每增加一個條塊就會增加大約50ms。 當(dāng)人類在Psychlab上完成這個任務(wù)時,,我們重現(xiàn)了這個結(jié)果,。

這張圖片說明了在Psychlab的視覺搜索任務(wù)上人類和人工代理之間反應(yīng)時間的差異。

當(dāng)我們對一個最先進(jìn)的人工智能體進(jìn)行同樣的測試時,,我們發(fā)現(xiàn)它雖然可以執(zhí)行任務(wù),,但并沒有顯示人類模式(human pattern)的反應(yīng)時間結(jié)果。 在這三種情況下,,他們用了相同的時間來應(yīng)對,。 在人類視角,這些數(shù)據(jù)暗示了并行和串行關(guān)注的區(qū)別,。人工智能體似乎只有并行的機(jī)制,。 識別這種人類與目前的人工智能體之間的差異,為我們未來設(shè)計智能體提供了思路,。

Psychlab被設(shè)計為認(rèn)知心理學(xué),、神經(jīng)科學(xué)和AI之間橋接的工具。 通過開源的方式,,我們希望更多研究團(tuán)隊能夠在自己的研究中利用它,,并幫助我們進(jìn)一步改進(jìn)。

Paper鏈接:

https:///abs/1801.08116

從GitHub下載代碼:

https://github.com/deepmind/lab/tree/master/game_scripts/levels/contributed/psychlab

原文鏈接:

https:///blog/open-sourcing-psychlab/

未來智能實驗室是人工智能學(xué)家與科學(xué)院相關(guān)機(jī)構(gòu)聯(lián)合成立的人工智能,,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機(jī)構(gòu),。由互聯(lián)網(wǎng)進(jìn)化論作者,計算機(jī)博士劉鋒與中國科學(xué)院虛擬經(jīng)濟(jì)與數(shù)據(jù)科學(xué)研究中心石勇,、劉穎教授創(chuàng)建,。

未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測,;開展互聯(lián)網(wǎng)(城市)云腦研究計劃,,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),,行業(yè)與城市的智能水平服務(wù),。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多