本文選自 mosaicscience,作者:Geoff Watts,,由機器之心編譯,,轉(zhuǎn)載請自行聯(lián)系,。 (本圖來自機器人網(wǎng),其余圖均來自mosaicscience原文) 這個為兒童設計的游戲很簡單,,旨在向玩游戲的人傳授一些膳食和糖尿病知識,。我坐在 Charlie 這個小巧的隊友對面,我們之間豎著一個觸摸屏,,任務是在十幾個不同的食品中,,確認哪些碳水化合物含量較多,哪些較少,,然后拖動圖像進行分類,。 Charlie 很禮貌,我坐過來的時候它起身向我致意,。選對的時候,,我們會祝賀對方,繼續(xù)輪流嘗試,,選錯的時候,,互相安慰。一切進展順利,,我開始有點喜歡 Charlie 了,。 但是, Charlie 是個機器人,,一個二英尺高的機電設備,,一臺改了外形的計算機。它或許可以移動,,可以說話,,但仍舊改變不了這個事實:它只是一個碰巧長得像人的機器而已。我怎么能夠喜歡它呢,? Charlie 面向的玩伴不是60多歲的英國人,,而是兒童。兒童通常會和布娃娃交流,,想象它們是有知覺的生物,,這就是童年生活的一部分。但是,,天啊,,我是個成年人。應該收起和玩具的那些交流,,不是嗎,? 事實上,我對 Charlie 的反應一點也不古怪或幼稚,,而是非常典型的行為,。當然,,機器人不是一個新概念。過去幾十年,,我們有了可以組裝車輛,、為地板吸塵、給倉庫分流貨物的各種工業(yè)設備,。但是,21世紀10年代,,人們越來越關(guān)注那種我們心中想象的機器人:可以感知周圍環(huán)境,、作出回應、移動,、做事情,,尤其是能夠與人類交互。我們都認識星球大戰(zhàn)的 R2-D2,,機器人總動員里的 WALL-E,,以及它們很多不出名的同類。讓人不安的是,,這些虛構(gòu)機器人的非虛構(gòu)對應物,,已經(jīng)近在眼前。一些新聞故事很奇葩——那些有關(guān)「性愛機器人」報道更是聳人聽聞——但是,,也有不少報道詳細介紹了一些機器人,,它們滿足了不那么享樂的社會需求:看護殘疾人士和老年人。 這讓我開始好奇,,我自己會怎么應對這些情況呢,?——當我年老或者體弱的時候,我不得不習慣和機器人相處,,想出時間不是一小時或一天,,而是一直持續(xù)幾個月甚至幾年,雖然不是明天立刻如此,,但也不會等太久,。思忖至此,我驚訝又不安,。 (Robot 是個機器人原型,,可攜帶物品,在日常生活中提醒人們一些事情,。它使用仿生的視覺信號,,胸前有個觸摸屏,可以與用戶交互交流,。) 現(xiàn)代醫(yī)學和人們壽命不斷延長,,使得家庭,、社會機構(gòu)對社會護理的需求也不斷增長?!咐先说纳鐣o理非常需要機器人,,部分原因在于處于工齡階段的人更少了,」Tony Belpaeme 說,,他是普利茅斯大學智能和自動控制系統(tǒng)學的教授,。在薪酬最低的傳統(tǒng)工作中,家庭看護人員越發(fā)成為稀缺資源,。政府開始轉(zhuǎn)向機器人,,希望機器人可以提供相應的服務,并節(jié)省開支,。 Belpaeme 說,,已經(jīng)生產(chǎn)的機器人的主要功能是監(jiān)測老年人和體弱者,或在陪伴他們的同時完成一些最簡單的體力勞動,。等下......陪伴,?「是的,」他平淡地說,,「如果能夠陪伴被看護者當然更好了......」他指出了各種各樣認為這點不可能實現(xiàn)的說法,。「研究表明,,人們并不介意家中有個可以交談的機器人,。問問參與研究的老年人,他們是否愿意讓機器人在家中在呆一段時間,,答案幾乎都是可以,。」 人類是否能夠向回應動物那樣,,給予機器人類似回應,,這點仍存在爭議。 仔細考慮一下我們和一種不同類型的非人類實體之間關(guān)系:動物,。當然,,人類與動物之間古老紐帶早已經(jīng)變了:打獵,運輸貨物,,保護自己以及其他功能,,現(xiàn)在都退居二線了。在發(fā)達的工業(yè)社會中,,家中動物最主要的作用就是陪伴人類,。 當醫(yī)療研究人員開始饒有興趣地研究養(yǎng)寵物對健康的影響時,他們發(fā)現(xiàn)養(yǎng)寵物會有各種好處,無論是身體還是包括精神方面,,包括減少痛苦,,焦慮,孤獨和抑郁,,以及增加鍛煉機會等,,雖然多少還存在爭議。寵物似乎還降低了人類罹患心血管疾病的風險因素,,如甘油三酯和高血壓等,。 有動物陪伴的樂趣和因為寵物走失或者死亡帶來的深深的痛苦,我們都能體會,。日本一項研究證明了人與動物這種關(guān)系的生物學和進化學的基礎,,這個結(jié)果至少適用于一組寵物。日本科學家測量了狗和主人的催產(chǎn)素水平,,然后讓它們長時間地對視,,而后再進行測量,。 你或許知道,催產(chǎn)素就是與母親和孩子之間關(guān)系有關(guān)的一種荷爾蒙,,猜下實驗結(jié)果是什么,。狗狗們經(jīng)過了很長一段時間的馴化,在此期間,,他們的心理,,以及身體各項屬性都經(jīng)受了激烈的選擇。日本研究員發(fā)現(xiàn),,狗和主人注視的時間提升了各自體內(nèi)的催產(chǎn)素水平,。他們發(fā)現(xiàn)了人們愛自己寵物狗的生理基礎。 不論是化學原因還是其他因素,,這點都證明了大多數(shù)寵物主人將寵物視作家庭成員的原因,。「這并不是說他們就將寵物當成人類了,?!筃ickie Charles 教授說,他是華威大學的社會學家,,對動物與人類的關(guān)系非常感興趣,。人類與動物的親密關(guān)系通常是與家人和朋友關(guān)系之外的關(guān)系,而不是取代了那些關(guān)系,?!傅珓游锔唵危苯樱恍櫸镏魅苏f,?!?/p> CHARLY(陪伴人形自主機器人,和你生活在一起)由赫特福德大學的自適應系統(tǒng)研究小組設計,。該機器人已用于人機交互研究,,研究中,機器人與路人進行了某版本的石頭剪刀布游戲,。不要混淆 CHARLY 和 Charlie,,后者是本文中 Geoff 遇到的那個機器人。 沒有生命的事物,,包括機器人,,或許能夠喚起人類的反應,這種反應本質(zhì)上和人對動物的情感差不多,。然而,,普通經(jīng)驗證明表明,情況就是這樣,,即使我們不愿意承認,,或者承認了,感覺會有點怪,。 誰沒吼過一臺拋錨的機器,?我的第一輛車是輛破舊的面包車,稍稍有些坡度的路,,跑起來就會很吃力,。我開這輛破車的時候,不止一次地把手放到窗外,,有手背敲打車門——就像騎馬的人打馬的側(cè)身一樣,?!赴萃?,快點?!刮覍χ鴥x表盤咆哮,。過了很久,,我才會想到,這種行為多么荒謬,。 這種行為中,,有的僅僅是為了減輕壓力、緩解憤怒——但是,,不全是這樣,?;仡櫼幌?0世紀90年代中期,出現(xiàn)的一種小型的蛋狀電子設備,,帶一個視頻和幾個按鈕,。名字叫 拓麻歌子寵物蛋(Tamagotchis)。日本原裝制造商萬代,,將拓麻歌子設計成了「一個交互式的虛擬寵物,,根據(jù)你照顧它的關(guān)懷程度,進行不同程度的進化,。你可以和它玩游戲,,喂東西,給它治病,,它就會成長為一個好伙伴,。」相反,,如果你忽視了它,,它會死。有段時間,,幾百萬的孩子們,,甚至有成年人變得愿意俯首聽命于這些鑰匙鏈上的計算機工頭。 PARO 也來自日本,,仿照的是格陵蘭海豹寶寶,,重幾千克,,比人類嬰兒稍微大一些,。PARO 幾年前首次亮相,共賣出 4000個,,購買者大多數(shù)在日本,,還包括其他30多個國家。 我嘗試撫摸桌這個生物甚至和它交談時,,我發(fā)現(xiàn) PARO 有一身白色的柔軟毛皮,,可以對觸摸,光,,溫度,,聲音進行回應。我說話時,,它會扭頭看我,;撫摸它時,會發(fā)出像海豹一樣的吱吱聲,;當感覺「心滿意足」時,,它會緩緩低頭,閉上美麗的大眼睛,它甚至還有誘人的厚長睫毛,。當緩緩搖著懷里的 PARO,,和它講話、撫摸它時,,它開始懶懶地蠕動,,此刻,這種公然的情感控制更加明顯了,。 在日本基金會倫敦辦公室里,,我偶遇 PARO,它在這里陪伴著它的發(fā)明者,,Takanori Shibata ,,一位在日本國家先進工業(yè)科技研究所( Japanese National Institute of Advanced Industrial Science and Technology)工作的工程師。Shibata 將 PARO 的益處分成三方面:心理(減輕壓抑,,緊張,,孤獨情緒)、生理(減少壓力,,激勵人們渡過康復期)以及社交方面,。他說,最后一類就是,,「PARO 鼓勵人與人之間的溝通,,幫助他們互動?!埂眉夹g(shù)術(shù)語來說,,就是社交媒介行為。Shibata 指出:「PARO 與動物療法有很多相似的效果,。但是,,一些醫(yī)院不接受動物,因為缺少相應設施,,或者管理寵物存在困難,。更別說還要擔心衛(wèi)生和疾病問題了?!?/p> PARO 對人們有益處的證據(jù),,是建立在非正式觀察(盡管也有很多對照試驗)基礎上的。在一次試點研究中,,三位新西蘭研究人員調(diào)查了一家老年護理中心里的一小波住戶,。每位住戶都與 PARO 進行了短時間互動,愛撫,、交談,。較之那些與有生命的寵物進行互動的人,,這些活動降低了參與者的血壓。 與 PARO 的簡短接觸,,我只覺得是一種平淡的消遣——當然不是陪伴,。狗狗和貓可以做它們自己的事情:忽視你,咬你,,或者離開房間,。簡單陪著你,還說著什么,。PARO 一直在,,什么也不說。 但是,,接下來,,我并不感到脆弱,孤單,,寂寞,,或者覺得自己是生活在看護中心。如果我生活在護理中心,,或許反應會有不同,,特別是,如果我正變得癡呆(這也是 PARO 療法產(chǎn)生引發(fā)人們特殊興趣的條件之一),,也許會有不同反應,。Shibata 稱,他的機器人可以減少老年癡呆癥患者的緊張感和攻擊性,,提高睡眠質(zhì)量,,減少對醫(yī)療的依賴。機器人也會減少病人獨自游蕩的危險傾向,,提高他們的溝通能力,。 機器人,,作為社交媒介的價值,,吸引著 Amanda Sharkey 和她的謝菲爾德大學的同事?!赣欣夏臧V呆癥的人,,與人交談非常困難,PARO 可能會對此有幫助,,」她說,,「有一些實驗證據(jù),但證據(jù)還不夠強大,?!顾c同事正在設計一些更嚴謹?shù)膶嶒?。但是,她發(fā)現(xiàn),,刻意將 PARO 用于陪伴,,結(jié)果有點讓人擔心。能否達到陪伴效果,,讓人懷疑,。「你可能想象著,,你家老人有機器人陪伴照顧,。在護理中心,這樣想可能會有錯誤的效果,,『嗯好吧,,別跟她說話麻煩她了,她又有PARO 陪著,,會一直很忙的,。』」我將這點擔心告訴了 Shibata ,。他堅持認為,,這不是風險,雖然我一直堅持自己的看法,,他也沒說出來為什么沒有風險,。 卡內(nèi)基梅隆大學機器人研究所的 Reid Simmons 告訴我說,假裝你可以開發(fā)符合我們物理需要而不喚起某種陪伴感覺的機器人,,這沒有任何意義,。「他們是緊密連接的,。任何能為人們提供物理幫助的機器人都將能與人們在社交層面上進行交互,。」Belpaeme 同意這一點,,「我們大腦的硬連接是社會性的,。我們清楚什么是動畫的、什么在移動,、什么有代理或什么看起來像有生命一樣,。我們?nèi)滩蛔鲞@樣的事,即使它顯然是一項技術(shù),?!?/p> Care-O-bot 是一款設計用來在人類的日常生活中積極支持人類的移動機器人助手。它可用于做各種家務,,比如遞送食物和飲料,、打掃和協(xié)助烹飪 赫特福德郡哈特菲爾德——一座外表中規(guī)中矩的房子坐落在城鎮(zhèn)的居民區(qū),。當我通過其前門后,一個矮胖的,、站立高度剛好低于我肩部高度的迎賓員來到了我面前,。它黑白的顏色搭配讓它隱約像一只企鵝,但從整體上看,,它讓我想起一個非主流設計的汽油泵,。它叫做 Care-O-bot,不能說話,,但能通過安裝在其腹部區(qū)域的一塊前向展示的觸摸屏顯示信息,向我表示歡迎,。 Care-O-bot 叫我和它一起去廚房選擇飲料,,然后邀請我在客廳就坐,接著它用其現(xiàn)在翻過來作為托盤的觸摸屏端來了一瓶水,。我的機器仆人用不可見的輪子悄無聲息地滑動前進,,當其確認了其他人或其區(qū)域內(nèi)可移動物體的位置時,它就暫停下來進行一個緩慢又怪異優(yōu)雅的回旋轉(zhuǎn)彎,。Care-O-bot 將自己停在了我的桌子邊,,接著伸出其僅有的一條機器臂將那瓶水抓起來放到了我面前。好吧,,幾乎在我面前——它實際上將那瓶水放在桌子的遠端,,我夠不著。我才在 Care-O-bot 的公司呆五分鐘,,就已經(jīng)想要投訴它的服務了,。 我所在的這棟被他們稱為「機器人屋(robot house)」的建筑由赫特福德大學所有,。幾年前該校買下了這棟建筑,,因為大學校園的實驗室并不是評估實驗對象如何在日常家庭環(huán)境中尋找有機器人的生活方式的理想場所。在其它普通使用的房屋之間的這套三居室的房子提供了一個更真實的環(huán)境,。 Sunflower 機器人 當然,,這棟房子的普通只是一個幻象。它布滿了追蹤人們位置和運動的傳感器和相機,,并將這些信息傳遞給那個機器人,;而正是這一點讓我感到更加不安,而不是我這箱子一樣的伙伴,。同樣受到監(jiān)控的還有廚房活動和所有其它的家用電器:門和櫥柜是否是打開的或關(guān)閉的、水龍頭是否開著——總之,,就是我們?nèi)粘I罨顒又械囊磺刑卣鳌?/p> 該大學自適應系統(tǒng)研究組的研究者 Joe Saunders 將 Care-O-bot 比喻作管家,。其決定性的管家特質(zhì)是其背后保持謹慎收起的關(guān)節(jié)臂,,直到它為我端水時才使用。這個臂「強大到能夠去掉墻上的石膏,,」Saunders 高興地說,,「這個機器人是一個研究版本,我們所期望的真正版本要小得多,?!沟幢闶侨绱舜肢E,在經(jīng)過精心的訓練后,,在法國,、德國和哈特菲爾德的 200 位老年人參與的交互試驗中,機器人已被證明是可接受的,。 正如 Tony Belpaeme 向我指出的那樣,,我們現(xiàn)在所擁有的機器人并不具備最有需求的技能:整理房子、幫助人們穿衣服等能力,。這些事情對我們來說很簡單,,但對機器人來說卻很艱難。新一點的 Care-O-bot 模式至少可以響應口語指令和表達自己,。那讓人安心,,因為說實話,正是 Care-O-bot 的沉默讓我覺得最令人不安,。我不想空談,,但簡單聲明一下,它正在做和打算做的事情將會是讓人安心的,。 我很快意識到,,在這種體驗的新鮮感消退之前,讓我評價與一個移動的但無生命的存在分享我的生活空間的感受,,這很困難的,。我會覺得一個更先進的 Care-O-bot 版本——一個能真正拿早餐、洗碗和鋪床的機器人——難以相處嗎,?我不這樣認為,。但如果是更為親密的任務呢——比如說,如果我變得失禁了呢,?我能接受 Care-O-bot 給我擦拭嗎,?如果我對它有信心,我認為答案是肯定的,。這比讓另一個人類來執(zhí)行相同的任務會少一些尷尬,。 經(jīng)過一番深思熟慮之后,我認為,,適應機器人的物理存在是一件容易的事,。我們對它們發(fā)展的感情才是更為麻煩的,。哈特菲爾德機器人屋的 Kerstin Dautenhahn 是赫特福德大學一位人工智能教授。她說:「我們感興趣的是幫助那些仍生活在自己家中并盡可能長時間獨自呆在那的人,?!顾臋C器人不是為用作伴侶打造的,但她承認,,它們將在一定程度上變成它們服務對象的伴侶,。 「如果一個機器人被編程為能夠識別人類的面部表情,它就能看見你很難過,,它可以接近你,;如果它有機器臂,它可能會嘗試安慰你并詢問你為什么難過,?!沟f,,這是同情心的模擬,,而不是真實。我指出,,很多人樂意接受他們寵物的感情,,就算這可能不是同情心。她反駁說,,狗的反應不是程序控制的,。確實如此。但未來人工智能的進步將模糊這種區(qū)別,,尤其是當機器人能通過從可能目標,、目的和性格特征的集合中隨機選擇以實現(xiàn)自我編程時。這種做法可能會導致機器具備鮮明的個體性格,。 她告訴我:「對反應或交互系統(tǒng)進行社會化的行為是內(nèi)置于我們的,,這是我們進化史的一部分?!顾軡M意地看到,,她的機器人能夠提供補充的伴侶關(guān)系,但她清楚,,如果機器人確實似乎能夠取代人類接觸,,那么,,預算緊張的護理提供者可能沒什么理由過度擔憂,。 當我離開機器人屋時,這也讓我擔憂起來,。但這也讓我困惑。如果狗、貓,、機器海豹和蛋形鑰匙圈可以輕松喚起陪伴的感覺,那我為什么應該擔憂機器人呢,? KASPAR 是一個孩子大小的機器人,,是為協(xié)助教師和家長幫助自閉癥兒童而設計的,。它的微表情人臉能夠展示多種簡單的表情,但復雜度遠比不上真正的人臉,。 與我玩過分類游戲的機器人 Charlie 的設計目的是,在和兒童玩耍的同時幫助他們了解自己的疾病(Charlie 也被用在了對自閉癥兒童的治療中),。當兒童被介紹給 Charlie 時,,他們被告知它還需要了解他們的疾病,所以他們會一起做這件事,。他們被告知該機器人知道一點關(guān)于糖尿病的知識,但也會犯錯,。「這對孩子來說是令人鼓舞的,,」Belpaeme 說,「當 Charlie 犯錯時,,他們可以糾正,。他們這樣做所帶來的歡欣鼓舞效果很好?!购⒆觽兒瓦@個機器人建立了紐帶關(guān)系,。「一些孩子帶來了小禮物,,比如,,他們?yōu)樗鞯漠?。之前讓人氣餒或不愉快的醫(yī)院就診可以變成讓孩子們期待的事?!购⒆觽冮_始享受他們的學習,,并且學到的知識比從醫(yī)務人員那里學到的更多,?!冈谖覀兊难芯恐?,機器人不是一個次優(yōu)選擇,,而是更好的一個,?!?/p> Charlie 像一個卡通人類。研究者和很多公眾普遍持有的一個觀點是,機器人要么應該看起來極其像人類,,要么明顯不像人類,。機器看起來越像我們,我們就會與其有越多的聯(lián)系——盡管最多只能達到某種程度,。非常接近但不完美的相似度往往會帶來不安,甚至明顯的驚慌,。機器人專家將其稱之為「恐怖谷」,;總之,如果你不能在機器人的類人外表上達到完美的程度,,就避開,;讓它看起來像個機器吧,。這是相當方便的——一個不能與你我相區(qū)別的 Charlie 只會將自己排除在市場之外。但那并不意味著,,機器人不應該模擬我們的行為。比如,,一個不能移動其手臂的機器人看起來會不自然,。「你看人們說話的時候,他們不會一直保持靜止,」Belpaeme 指著正專注于對話的 Charlie 和一個孩子說,,「除了他們的嘴唇和舌頭,,他們的手也在動,?!?/p> 考慮到玩具娃娃和假想朋友等在兒童正常的發(fā)展階段中所起的重要作用,我們對成年人與機器人構(gòu)建關(guān)系所產(chǎn)生的焦慮似乎并不能適用于兒童,。在我看來,,開始擔心孩童享受與機器人的友情是毫無道理的。那么,,為什么還會對其在成年人生活中的情況感到擔憂呢,? 「我不覺得為什么與機器人建立關(guān)系是不可能的,,」Belpaeme 說,「我覺得沒有任何東西能防止這種情況發(fā)生,?!惯@些機器將需要充分了解你生活、興趣和活動的細節(jié),,而且相對于對待其他人,,它還必須表現(xiàn)出對你的明確興趣。他說,,目前的機器人還遠未達到這種程度,,但他可以預見什么時候它們可能達到這種程度。 Dautenhahn 希望機器人永遠不會成為人類的替代品,。她說:「我完全反對它,。」但她也承認,,如果這是技術(shù)進步的方向,,她或她的后繼者對此也無能無力,。「我們不會是生產(chǎn)或銷售這些系統(tǒng)的人,?!笲elpaeme 的道德關(guān)鍵之處——其他人也常常說類似的話——將成為機器人接觸變得比人類接觸更受歡迎的舞臺。但事實上,,這并不是一個很高的標準,。許多孩子用計算機在網(wǎng)絡上消耗的時間,已經(jīng)達到了與其同齡人一起玩耍的時間,。 當然,,最后問題不再是「我需要一個機器人伴侶照顧我嗎?」,,而是「我會接受機器人的照顧嗎,?」如果到了我仍然心智健全但身體虛弱的時候,我會準備好讓裝備了一條機器臂的 Care-O-bot 帶我上廁所,,或讓 PARO 成為我看電影時沙發(fā)上的伙伴嗎,? 另外在文化方面,也還有一些顧慮,。比如,,日本人看待機器人很切合實際,并更易于與它們相處,。據(jù) Belpaeme 說,,對此存在兩種理論。其一來自神道教,,其相信無生命的物體也有靈魂。他本人傾向于一個更世俗的解釋:流行文化,。日本有大量電影和電視劇描繪了前來拯救你的仁慈的機器人,。而在西方我們看到機器人出現(xiàn)在電視上時,它們更可能是惡意的,。但不管怎樣,,我不是日本人。 在實用性這一簡單標準上,, 在具備最心靈手巧的人類護理人員那樣的溝通技能,、靈巧性和多功能性之前,Mr. Care-O-bot 或任何機器人還有一段路要走,。但假設工程師克服了這一障礙——而且我有充分的理由相信他們會很快做到——我回到伴侶關(guān)系的問題上,。沒有伴侶的生活是枯燥的。因此,,我發(fā)現(xiàn),,我們自然地傾向于形成紐帶——即使是與機器人——這一事實,,基本上是令人鼓舞的。 但在我看來,,伴侶關(guān)系包含三個關(guān)鍵要素:物理存在,、理智參與和情感依戀。其中第一個不是什么問題,。我有我的 Care-O-bot,,在房子里游蕩,響應我的呼喚,,準備做我要求的事,。有一點陪伴。超贊,。 第二個要素尚未被解決,。理智的伴侶關(guān)系所需的不只是關(guān)于時間、天氣或我想喝橙汁或水的對話,。人工智能正在快速進步:2014 年,一個偽裝成 13 歲少年的聊天機器人宣稱第一個通過了圖靈測試,,在這個由阿蘭·圖靈設計的著名挑戰(zhàn)中,機器必須愚弄人類并使人類相信它也是一個人類,。 雖說如此,,但標準是只要能騙過 30% 的評委即可——這個名叫 Eugene 的聊天機器人說服了 33% 的人,但甚至這個結(jié)果也有爭議,。與機器進行一場讓人滿意的對話的最大障礙是機器缺少一個視角,。這所需要的不僅僅是為困難問題制定智能回答的能力或隨機生成意見(即使塞滿事實的人類對話也充滿了意見)的能力,。視角是一種微妙和連貫的東西,,它不會在幾個小時內(nèi)就顯現(xiàn),,但會在長期的許多不相關(guān)主題的交流中顯現(xiàn)。 這將我?guī)蛄说谌齻€也是最讓人擔憂的要素:情感依戀,。我并不會在可行性方面質(zhì)疑這一點,,因為實際上我認為它終會發(fā)生。在電影《她》中,,一個男人愛上了他的計算機操作系統(tǒng),。他稱呼為 Samantha 的「她」甚至沒有一個機器人身體;她的物理存在只不過是一個計算機界面。但他們的戀情仍達到了讓人吃驚的可信程度,。 Charly 到目前為止,真實世界中還未有類似關(guān)系形成的確鑿案例,。但是,一些心理學家不經(jīng)意地通過嘗試開發(fā)計算機化的心理治療方法而做著這些的基礎工作,。這可以追溯到 60 年代中期,已故的麻省理工學院計算機科學家 Joseph Weizenbaum 設計了一個名叫 ELIZA 的能夠進行某種心理治療對話的程序,。其他人自此以后跟隨著他的領(lǐng)導,。前后文的關(guān)聯(lián),,并非在于研究的成功,而是與一種轉(zhuǎn)移現(xiàn)象(客戶愛上他們的治療師的傾向)有關(guān)。如果該治療師恰好是一個機器人……又會怎樣呢,? 這類依戀的質(zhì)量和意義是關(guān)鍵問題。生活中,,我所珍惜的關(guān)系——與我的妻子,、我的朋友、我的編輯的關(guān)系——是與其他人,、其它基本上由蛋白質(zhì)和核酸等碳基分子所構(gòu)成的生命系統(tǒng)的交互中所涌現(xiàn)的產(chǎn)物。作為一個狂熱的唯物主義者,,我不清楚有什么證據(jù)支持活力論的觀點(vitalist view),,即生命體中包含一些不能被純物理或化學地解釋的成分,。所以如果硅、金屬和復雜電路可以生成一個等同于人類的情感指令表,我為什么要做出區(qū)分呢,? 坦率地說,,在我最后的幾年,,我會愿意接受機器的照料——假設我能與它形成紐帶,,與它產(chǎn)生共鳴,并相信它會將我的最佳利益放在心中,。但那是我大腦中推理的部分在工作,,另一點大腦則在尖叫:你有什么毛?。磕臉拥墓陋毑贿m應甚至能讓你考慮這樣的前景,? 所以,,我并不喜歡我的調(diào)查結(jié)果。盡管在為什么機器護理應該被接受上,,我已經(jīng)被理性的觀點說服,,但我只是覺得這樣的前景令人反感——因為我無法理性說明的原因。但簡要來說,,非理性正是人性,。而當非理性的人類老了,誰將來照料他們,?Care-O-bot 是其中之一,,它可能不會歧視非理性。 |
|