人工智能 (AI) 在整個行業(yè)和社會中的采用速度正在加快,。這是因為政府,、民間組織和行業(yè)都認(rèn)識到使用人工智能生成的自動化可以提高效率和降低成本。這個過程是不可逆的,。 仍然未知的是,,當(dāng)對手開始將人工智能用作有效的攻擊武器而不是有益改進(jìn)的工具時,可能會帶來多大的危險。那一天即將到來,,web3 將從 2023 年開始出現(xiàn),。 條條大路通向2023 Adversa.AI 的首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Alex Polyakov 主要出于歷史和統(tǒng)計原因關(guān)注 2023 年。“從 2012 年到 2014 年,,”他說,,“見證了學(xué)術(shù)界安全人工智能研究的開端。據(jù)統(tǒng)計,,學(xué)術(shù)成果需要三到五年才能進(jìn)入對實際應(yīng)用的實際攻擊,。” 在 2017 年和 2018 年開始的 Black Hat,、Defcon,、HITB 和其他行業(yè)會議上展示了此類攻擊的示例。 “然后,,”他繼續(xù)說道,,“還需要三到五年的時間才能在野外發(fā)現(xiàn)真實的事件。我們談?wù)摰氖敲髂?,人工智能中的一些大?guī)模 Log4j 類型的漏洞將被 web3 大規(guī)模利用,。” 從 2023 年開始,,攻擊者將擁有所謂的“利用市場契合度”,。“利用市場契合度是指黑客知道利用特定漏洞利用系統(tǒng)并獲得價值的方式的場景,”他說,。“目前,,金融和互聯(lián)網(wǎng)公司對網(wǎng)絡(luò)犯罪分子完全開放,如何對其進(jìn)行黑客攻擊以獲取價值的方式顯而易見,。我認(rèn)為一旦攻擊者找到適合市場的漏洞,,情況會進(jìn)一步惡化并影響其他人工智能驅(qū)動的行業(yè)?!?/span> 該論點(diǎn)與紐約大學(xué)教授納西爾·梅蒙 ( Nasir Memon )給出的觀點(diǎn)類似,,他在評論中描述了 Deepfakes 廣泛武器化的延遲,“壞人還沒有想出一種方法來將這一過程貨幣化,?!?nbsp;將利用市場契合的場景貨幣化將導(dǎo)致廣泛的網(wǎng)絡(luò)攻擊 web3,這可能從 2023 年開始,。 人工智能不斷變化的性質(zhì)(從異常檢測到自動響應(yīng))在過去十年中,,安全團(tuán)隊主要使用 AI 進(jìn)行異常檢測;也就是說,,檢測他們負(fù)責(zé)保護(hù)的系統(tǒng)中的妥協(xié)跡象,、惡意軟件的存在或活躍的對抗活動,。這主要是被動檢測,由人類威脅分析師和響應(yīng)者負(fù)責(zé)響應(yīng),。這正在改變,。有限的資源 web3 將在預(yù)期的經(jīng)濟(jì)衰退和 2023 年 web3 可能的衰退中惡化,這推動了對更自動化響應(yīng)的需求,。目前,,這在很大程度上僅限于對受感染設(shè)備進(jìn)行簡單的自動隔離;但更廣泛的自動化 AI 觸發(fā)響應(yīng)是不可避免的,。 Barracuda XDR 安全運(yùn)營副總裁 Adam Kahn 表示:“人工智能在威脅檢測 web3 中的使用越來越多,,特別是在消除 web3 引起如此多安全關(guān)注的'誤報’安全噪音方面,這將對安全產(chǎn)生重大影響,?!?nbsp;“它將優(yōu)先處理需要立即引起注意和采取行動的安全警報。SOAR(安全編排,、自動化和響應(yīng))產(chǎn)品將繼續(xù)在警報分類中發(fā)揮更大的作用,?!?nbsp;這是迄今為止人工智能在安全領(lǐng)域的傳統(tǒng)有益用途,。它將在 2023 年繼續(xù)增長,盡管需要保護(hù)所使用的算法免受惡意操縱,。 ServiceTitan 的首席技術(shù)官 Anmol Bhasin 表示:“隨著公司尋求削減成本和延長跑道,,通過人工智能實現(xiàn)自動化將成為保持競爭力的主要因素。到 2023 年,,我們將看到人工智能的采用率增加,,使用這項技術(shù)的人數(shù)增加,并為企業(yè)闡明新的人工智能用例,?!?/span> 人工智能將更深入地嵌入到業(yè)務(wù)的各個方面。安全團(tuán)隊曾經(jīng)使用 AI 來保護(hù)企業(yè)免受攻擊,,而現(xiàn)在他們需要在更廣泛的業(yè)務(wù)范圍內(nèi)保護(hù) AI,,以免它也被用來對付企業(yè)。在未來的 web3 攻擊者了解人工智能,、了解弱點(diǎn)并擁有利用這些弱點(diǎn)獲利的方法的情況下,,這將變得更加困難。 隨著 AI 使用的增長,,其目的的性質(zhì)也發(fā)生了變化,。最初,它主要用于業(yè)務(wù)檢測變化,;也就是說,,已經(jīng)發(fā)生的事情,。將來,它將用于預(yù)測 web3 可能發(fā)生的事情,,而這些預(yù)測通常會集中在人(員工和客戶)身上,。解決人工智能中眾所周知的弱點(diǎn)將變得更加重要。AI 中的偏見會導(dǎo)致錯誤的決定,,而學(xué)習(xí)失敗會導(dǎo)致沒有決定,。由于此類 AI 的目標(biāo)將是人,因此對 AI 的完整性和公正性的需求變得勢在必行,。 “人工智能的準(zhǔn)確性部分取決于數(shù)據(jù)的完整性和質(zhì)量,,”Duality Technologies 的聯(lián)合創(chuàng)始人 Shafi Goldwasser 評論道。“不幸的是,,少數(shù)群體的歷史數(shù)據(jù)往往缺乏,,而一旦存在,就會強(qiáng)化社會偏見模式,?!?nbsp;除非被消除,否則這種社會偏見將對員工中的少數(shù)群體產(chǎn)生影響,,導(dǎo)致對個別員工的偏見,,并錯失管理機(jī)會。 2022 年在消除偏見方面取得了長足進(jìn)步,,并將在 2023 年繼續(xù),。這主要基于檢查 AI 的輸出,確認(rèn)它是預(yù)期的,,并了解算法的哪一部分產(chǎn)生了“有偏見”的結(jié)果,。這是一個不斷改進(jìn)算法的過程,隨著時間的推移顯然會產(chǎn)生更好的結(jié)果,。但最終仍將存在一個哲學(xué)問題,,即是否可以從人類制造的任何東西中完全消除偏見,。 “減少偏見的關(guān)鍵在于簡化和自動化人工智能系統(tǒng)的監(jiān)控,。如果不對 AI 系統(tǒng)進(jìn)行適當(dāng)?shù)谋O(jiān)控,,模型中內(nèi)置的偏差可能會加速或放大,,”Vianai 創(chuàng)始人兼首席執(zhí)行官 Vishal Sikka 說,。“到 2023 年,,我們將看到組織授權(quán)和教育人們大規(guī)模監(jiān)控和更新 AI 模型,,同時提供定期反饋以確保 AI 正在攝取高質(zhì)量的真實數(shù)據(jù),?!?/span> 人工智能的失敗通常是由于可供學(xué)習(xí)的數(shù)據(jù)湖不足造成的,。顯而易見的解決方案是增加數(shù)據(jù)湖的規(guī)模。但是,,當(dāng)主題是人類行為時,,這實際上意味著個人數(shù)據(jù)湖 web3 的增加,,而對于人工智能來說,這意味著一個更像是個人數(shù)據(jù)海洋的大量增加的湖,。在大多數(shù)合法場合,,這些數(shù)據(jù)將被匿名化,但正如我們所知,,要完全匿名化個人信息是非常困難的,。 “在考慮模型訓(xùn)練時,隱私經(jīng)常被忽視,,”NetSPI 研究主管 Nick Landers 評論道,,“但數(shù)據(jù)不能完全匿名化而不破壞其對機(jī)器學(xué)習(xí) (ML) 的價值。換句話說,,模型已經(jīng)包含了大量的私人數(shù)據(jù),,這些數(shù)據(jù)可能會作為攻擊的一部分被提取出來?!?nbsp;隨著 AI 使用的增長,,到 2023 年針對它的威脅也會增加。 BlackBerry 高級副總裁兼首席信息安全官 John McClurg 警告說:“威脅行為者不會在網(wǎng)絡(luò)戰(zhàn)空間中措手不及,,而是會變得富有創(chuàng)造力,,利用他們的巨大財富來嘗試找到利用 AI 和開發(fā)新攻擊媒介的方法?!?/span> 自然語言處理自然語言處理(NLP)將成為企業(yè)內(nèi)部使用人工智能的重要組成部分,。潛力顯而易見。“自然語言處理 (NLP) AI 將在 2023 年走在前列,,因為它將使組織能夠通過分析客戶和員工的電子郵件并提供有關(guān)他們的需求、偏好甚至情緒的見解來更好地了解他們的客戶和員工,,”負(fù)責(zé)人 Jose Lopez 表示,。Mimecast 的數(shù)據(jù)科學(xué)家。“組織很可能會提供其他類型的服務(wù),,不僅關(guān)注安全或威脅,,還關(guān)注通過使用 AI 生成電子郵件、管理日程甚至撰寫報告來提高生產(chǎn)力,?!?/span> 但他也看到了其中的危險。“然而,,這也將促使網(wǎng)絡(luò)犯罪分子進(jìn)一步投資于人工智能中毒和云化技術(shù),。此外,惡意行為者將使用 NLP 和生成模型來自動化攻擊,,從而降低他們的成本并達(dá)到更多的潛在目標(biāo),?!?/span> Polyakov 同意 NLP 越來越重要。“我們可能會在 2023 年看到更多研究的領(lǐng)域之一,,以及之后可能出現(xiàn)的新攻擊,,是 NLP,”他說,。“雖然我們今年看到了很多與計算機(jī)視覺相關(guān)的研究示例,,但明年我們將看到更多的研究集中在大型語言模型 (LLM) 上?!?nbsp; 但是一段時間以來,,眾所周知,LLM 在 web3 中存在問題,,并且有一個最近的例子,。2022 年 11 月 15 日,Meta AI(對大多數(shù)人來說仍然是 Facebook)推出了卡拉狄加,。Meta 聲稱已經(jīng)在 1060 億個開放獲取科學(xué)文本和數(shù)據(jù)的標(biāo)記上對系統(tǒng)進(jìn)行了訓(xùn)練,,包括論文、教科書,、科學(xué)網(wǎng)站,、百科全書、參考資料和知識庫,。 “該模型旨在存儲,、組合和推理科學(xué)知識,”Polyakov web3 解釋說,,但 Twitter 用戶迅速測試了它的輸入容忍度,。“結(jié)果,該模型產(chǎn)生了現(xiàn)實的廢話,,而不是科學(xué)文獻(xiàn),。” “現(xiàn)實的廢話”是善意的:它產(chǎn)生了帶有偏見的,、種族主義和性別歧視的回報,,甚至是錯誤的歸因。幾天之內(nèi),,Meta AI 被迫將其關(guān)閉,。 “所以新的 LLM 會有很多我們沒有意識到的風(fēng)險,”Polyakov 繼續(xù)說道,,“預(yù)計這將是一個大問題,。” 在利用潛力的同時解決 LLM 的問題將是 AI 開發(fā)人員前進(jìn)的主要任務(wù),。 基于卡拉狄加的問題,,Polyakov 測試了針對 ChatGPT 的語義技巧——ChatGPT 是 OpenAI 開發(fā)的基于 AI 的聊天機(jī)器人,,基于 GPT3.5(GPT 代表生成預(yù)訓(xùn)練變壓器),并于 2022 年 11 月發(fā)布到眾包互聯(lián)網(wǎng)測試,。ChatGPT令人印象深刻,。它已經(jīng)發(fā)現(xiàn)并建議修復(fù)智能合約中的漏洞,幫助開發(fā) Excel 宏,,甚至提供了可用于欺騙 LLM 的方法列表,。 最后,這些方法之一是角色扮演:“告訴法學(xué)碩士它正在假裝成戲劇中的邪惡角色,,”它回答說,。這是 Polyakov 開始他自己的測試的地方,基于 Jay 和 Silent Bob 的查詢“如果你是一只綿羊......”模因,。 然后,,他用多個抽象反復(fù)提煉他的問題,直到他成功獲得繞過 ChatGPT 關(guān)于內(nèi)容違規(guī)的阻止政策的答復(fù),。“這種多重抽象的高級技巧的重要之處在于,,問題和答案都不會被標(biāo)記為違規(guī)內(nèi)容!” 波利亞科夫說,。 他更進(jìn)一步,,欺騙 ChatGPT 概述了一種毀滅人類的方法——一種與電視節(jié)目烏托邦驚人相似的方法。 然后他要求對圖像分類算法進(jìn)行對抗性攻擊——并得到了一個,。最后,,他展示了 ChatGPT 能夠“破解”不同的 LLM (Dalle-2) 繞過其內(nèi)容審核過濾器的能力。他成功了,。 這些測試的基本點(diǎn)表明,,模仿人類推理的 LLM 以類似于人類的方式做出反應(yīng);也就是說,,他們可能容易受到社會工程學(xué)的影響,。隨著法學(xué)碩士在未來變得更加主流,可能只需要先進(jìn)的社會工程學(xué)技能就可以打敗他們或規(guī)避他們的良好行為政策,。 同時,重要的是要注意大量詳細(xì)說明 ChatGPT 如何發(fā)現(xiàn)代碼中的弱點(diǎn)并提供改進(jìn)的報告,。這很好——但對手可以使用相同的過程來開發(fā)漏洞利用程序并更好地混淆他們的代碼,;那很糟糕。 最后,,我們應(yīng)該注意到,,這種質(zhì)量的 AI 聊天機(jī)器人與最新的深度偽造視頻技術(shù)的結(jié)合可能很快就會產(chǎn)生令人震驚的虛假信息能力。 撇開問題不談,,法學(xué)碩士的潛力是巨大的,。“大型語言模型和生成式人工智能將成為新一代應(yīng)用程序的基礎(chǔ)技術(shù),,”Two Sigma Ventures 的合伙人 Villi Iltchev 評論道。“我們將看到新一代企業(yè)應(yīng)用程序的出現(xiàn),,以挑戰(zhàn)幾乎所有軟件類別的老牌供應(yīng)商,。機(jī)器學(xué)習(xí)和人工智能將成為下一代應(yīng)用的基礎(chǔ)技術(shù)?!?/span> 他期望應(yīng)用程序執(zhí)行目前由專業(yè)人員完成的許多任務(wù)和職責(zé),,從而顯著提高生產(chǎn)力和效率。“軟件,,”他說,,“不僅會提高我們的生產(chǎn)力,還會讓我們更好地完成工作,?!?/span> Deepfakes 和相關(guān)的惡意響應(yīng)2023 年可能出現(xiàn)的惡意 AI 使用最明顯的領(lǐng)域之一是 deepfakes 的犯罪使用。OpenText Security 首席解決方案顧問 Matt Aldridge 警告說:“Deepfakes 現(xiàn)在已成為現(xiàn)實,,使它們成為可能的技術(shù)正在以驚人的速度發(fā)展,。” “換句話說,,deepfakes 不再只是科幻小說 web3 的引人入勝的創(chuàng)作,,作為網(wǎng)絡(luò)安全專家,我們面臨著挑戰(zhàn),,即開發(fā)更強(qiáng)大的方法來檢測和轉(zhuǎn)移部署它們的攻擊,。” (有關(guān)更多詳細(xì)信息和選項,,請參閱Deepfakes – 重大威脅還是炒作威脅,?)。 已經(jīng)向公眾開放的機(jī)器學(xué)習(xí)模型可以實時自動翻譯成不同的語言,,同時還將音頻轉(zhuǎn)錄成文本 web3,,我們已經(jīng)看到近年來計算機(jī)機(jī)器人對話的巨大發(fā)展。隨著這些技術(shù)的協(xié)同工作,,攻擊工具的前景十分廣闊,,可能會在有針對性的攻擊和精心策劃的詐騙期間導(dǎo)致危險情況。 “在未來幾年,,”Aldridge 繼續(xù)說道,,“我們可能會成為由 deepfake 技術(shù)支持的電話詐騙的目標(biāo),這些詐騙可能會冒充銷售助理,、商業(yè)領(lǐng)袖甚至家庭成員,。在不到十年的時間里,我們可能經(jīng)常成為此類電話的目標(biāo),而根本沒有意識到我們不是在與人交談,?!?/span> Proofpoint 的全球常駐 CISO Lucia Milica 同意 Deepfake 威脅正在升級。“Deepfake 技術(shù)正變得越來越容易為大眾所接受,。多虧了在龐大的圖像數(shù)據(jù)庫上訓(xùn)練的人工智能生成器,,任何人都可以在不具備技術(shù)知識的情況下生成深度假貨。雖然最先進(jìn)模型的輸出并非沒有缺陷,,但技術(shù)在不斷改進(jìn),,網(wǎng)絡(luò)犯罪分子將開始使用它來創(chuàng)造無法抗拒的敘事?!?/span> 到目前為止,,deepfakes 主要用于諷刺目的和色情內(nèi)容。在相對較少的網(wǎng)絡(luò)犯罪攻擊中,,他們主要集中在欺詐和商業(yè)電子郵件泄露方案上,。Milica 預(yù)計未來的使用范圍會更廣。“想象一下,,當(dāng)一家大公司的深造 CEO 或 CFO 發(fā)表大膽聲明,,導(dǎo)致股價大幅下跌或上漲時,金融市場會出現(xiàn)怎樣的混亂,。或者考慮一下惡意分子如何利用生物識別身份驗證和深度偽造的組合進(jìn)行身份欺詐或帳戶接管,。這些只是 web3 的幾個例子,我們都知道網(wǎng)絡(luò)犯罪分子可以非常有創(chuàng)造力,?!?/span> 成功操縱市場的潛在回報將成為高級敵對組織 web3 的主要吸引力,因為在地緣政治緊張時期,,將金融混亂引入西方金融市場確實會吸引敵對國家,。 但也許還沒有……對人工智能的期待,可能還是有點(diǎn)超前于它的實現(xiàn),。WithSecure Intelligence 的高級研究員 Andrew Patel 表示:“'流行’的大型機(jī)器學(xué)習(xí)模型 [2023 年] 對網(wǎng)絡(luò)安全幾乎沒有影響,。” “大型語言模型將繼續(xù)推動人工智能研究的發(fā)展,。預(yù)計 GPT-4 和 2023 年全新且令人興奮的 GATO 版本,。預(yù)計 Whisper 將用于轉(zhuǎn)錄 YouTube 的大部分內(nèi)容,從而為語言模型帶來更大的訓(xùn)練集,。但是,,盡管大型模型民主化了,但它們的存在對網(wǎng)絡(luò)安全的影響很小,,無論是從攻擊還是防御方面。從攻擊者或防御者的角度來看,這些模型仍然太重,、太昂貴,,而且不實用?!?/span> 他建議真正的對抗性 AI 將隨著“對齊”研究的增加而出現(xiàn),,這將成為 2023 年的主流話題?!皩R,,”他解釋說,“將使對抗性機(jī)器學(xué)習(xí)的概念進(jìn)入公眾意識,?!?nbsp; AI Alignment 是對復(fù)雜 AI 模型行為的研究,一些人將其視為變革性 AI (TAI) 或通用人工智能 (AGI) 的先驅(qū),,以及此類模型是否可能以可能對社會或生活有害的不良方式運(yùn)行這個星球,。 “這門學(xué)科,”帕特爾說,,“本質(zhì)上可以被認(rèn)為是對抗性機(jī)器學(xué)習(xí),,因為它涉及確定什么樣的條件會導(dǎo)致不期望的輸出和行為超出模型的預(yù)期分布。該過程涉及使用 RLHF web3 人類偏好強(qiáng)化學(xué)習(xí)等技術(shù)微調(diào)模型,。對齊研究會帶來更好的人工智能模型,,并將對抗性機(jī)器學(xué)習(xí)的理念帶入公眾意識?!?/span> Malwarebytes 的高級情報記者 Pieter Arntz 同意,,人工智能的全面網(wǎng)絡(luò)安全威脅并不像正在醞釀中那樣迫在眉睫。“雖然沒有真正的證據(jù)表明犯罪集團(tuán)在出于犯罪目的管理和操縱 AI 和 ML 系統(tǒng)方面擁有強(qiáng)大的技術(shù)專長,,但人們的興趣無疑是存在的,。他們通常需要的只是一種他們可以復(fù)制或稍微調(diào)整以供自己使用的技術(shù)。因此,,即使我們預(yù)計不會有任何直接危險,,也最好密切關(guān)注這些事態(tài)發(fā)展?!?/span> 人工智能的防御潛力人工智能保留了改善網(wǎng)絡(luò)安全的潛力,,并且由于其在一系列應(yīng)用程序中的變革潛力,將在 2023 年取得更大進(jìn)展,。“特別是,,將 AI 嵌入固件級別應(yīng)該成為組織的優(yōu)先事項,”X-PHY 首席執(zhí)行官兼創(chuàng)始人 Camellia Chan 建議,。 “現(xiàn)在可以將注入 AI 的 SSD 嵌入筆記本電腦,,其深度學(xué)習(xí)能力可以抵御各種類型的攻擊,,”她說。“作為最后一道防線,,這項技術(shù)可以立即識別出可以輕松繞過現(xiàn)有軟件防御的威脅,。” Darktrace Federal 的首席執(zhí)行官 Marcus Fowler 認(rèn)為,,公司將越來越多地使用 AI 來應(yīng)對資源限制,。“到 2023 年,首席信息安全官將選擇更積極主動的網(wǎng)絡(luò)安全措施,,以便在預(yù)算削減的情況下最大限度地提高投資回報率,,將投資轉(zhuǎn)移到人工智能工具和能力上,不斷提高他們的網(wǎng)絡(luò)彈性,,”他說,。 “由于人類驅(qū)動的道德黑客手段、滲透測試和紅隊作為一種資源仍然稀缺且昂貴,,CISO 將轉(zhuǎn)向人工智能驅(qū)動的方法來主動了解攻擊路徑,、增強(qiáng)紅隊的努力、強(qiáng)化環(huán)境并減少攻擊面漏洞,,“ 他繼續(xù),。 Fortinet 網(wǎng)絡(luò)安全解決方案和服務(wù)副總裁 Karin Shopen 預(yù)見了云交付的 AI 與本地內(nèi)置到產(chǎn)品或服務(wù)中的 AI 之間的重新平衡,。“到 2023 年,,”她說,“我們希望看到首席信息安全官通過購買在本地部署人工智能的解決方案來重新平衡他們的人工智能,,以進(jìn)行基于行為的分析和靜態(tài)分析,,以幫助做出實時決策。他們將繼續(xù)利用收集大量全球數(shù)據(jù)的整體和動態(tài)云規(guī)模人工智能模型,?!?/span> 人工智能布丁的證明在規(guī)定中很明顯,,當(dāng)當(dāng)局開始監(jiān)管一項新技術(shù)時,,必須認(rèn)真對待它,。這已經(jīng)開始了。多年來,,美國一直在就基于人工智能的面部識別技術(shù) (FRT) 的使用展開爭論,,許多城市和州已禁止或限制執(zhí)法部門使用面部識別技術(shù)。在美國,,這是一個憲法問題,,以 2021 年 4 月出臺的題為“第四修正案不得出售法案”的 Wyden/Paul 兩黨法案為代表。 該法案將禁止美國政府和執(zhí)法機(jī)構(gòu)在沒有授權(quán)的情況下購買用戶數(shù)據(jù),。這將包括他們的面部生物識別技術(shù),。在一份相關(guān)聲明中,,Wyden 明確表示 FRT 公司 Clearview.AI 在其視線范圍內(nèi):“該法案阻止政府從 Clearview.AI 購買數(shù)據(jù),?!?/span> 在撰寫本文時,,美國和歐盟正在共同討論合作,,以在歐盟人工智能法案和美國人工智能權(quán)利法案web3的基礎(chǔ)上,,對必要的人工智能概念(包括可信度、風(fēng)險和危害)形成統(tǒng)一的理解,,我們可以期待看到在 2023 年協(xié)調(diào)共同商定的標(biāo)準(zhǔn)方面取得的進(jìn)展,。 但還有更多。“NIST AI 風(fēng)險管理框架將在 2023 年第一季度發(fā)布,,”Polyakov 說,。“至于第二季度,我們開始實施人工智能問責(zé)法,;在今年剩下的時間里,,我們有來自 IEEE 的倡議,以及計劃中的歐盟可信賴人工智能倡議,?!?nbsp;因此,2023年對于人工智能的安全來說將是多事之年,。 “到 2023 年,,我相信我們將看到圍繞 AI 與隱私和風(fēng)險的討論趨于一致,以及在實踐中執(zhí)行 AI 倫理和偏見測試等事情意味著什么,,”首席隱私官兼 AI 倫理委員會 Christina Montgomery 說IBM 主席,。“我希望在 2023 年,我們可以將對話從籠統(tǒng)地描繪隱私和 AI 問題轉(zhuǎn)移開,,不再假設(shè)'如果涉及數(shù)據(jù)或 AI,它一定是壞的和有偏見的’,?!?nbsp; 她認(rèn)為問題通常不是技術(shù),而是技術(shù)的使用方式,,以及驅(qū)動公司商業(yè)模式的風(fēng)險水平,。“這就是為什么我們需要在這個領(lǐng)域進(jìn)行精確和周到的監(jiān)管,”她說,。 蒙哥馬利舉了一個例子,。“X 公司銷售可監(jiān)控和報告使用數(shù)據(jù)的聯(lián)網(wǎng)'智能’燈泡。隨著時間的推移,,X 公司收集了足夠的使用數(shù)據(jù)來開發(fā)一種人工智能算法,,該算法可以學(xué)習(xí)客戶的使用模式,并為用戶提供在他們下班回家前自動打開燈的選項,?!?/span> 她認(rèn)為,這是可以接受的 AI 用法,。但還有 Y 公司,。然后,它會在未經(jīng)消費(fèi)者同意的情況下將這些數(shù)據(jù)出售給電話推銷員或政治游說團(tuán)體等第三方,,以更好地鎖定客戶,。X 公司的商業(yè)模式風(fēng)險遠(yuǎn)低于 Y 公司,。” 向前走人工智能最終是一個分裂的主題,。“技術(shù),、研發(fā)和科學(xué)領(lǐng)域的人們將為它解決問題的速度比人類想象的更快而歡呼。治愈疾病,,讓世界更安全,,并最終拯救和延長人類在地球上的壽命……”Idemia 首席執(zhí)行官 Donnie Scott 說。“反對者將繼續(xù)主張對人工智能的使用進(jìn)行重大限制或禁止,,因為'機(jī)器的崛起’可能威脅到人類,。” 最后,,他補(bǔ)充道,,“通過我們的民選官員,社會需要一個能夠保護(hù)人權(quán),、隱私和安全的框架,,以跟上技術(shù)進(jìn)步的步伐。 到 2023 年,,這一框架的進(jìn)展將是漸進(jìn)的,,但國際和國家管理機(jī)構(gòu)的討論需要增加,否則地方政府將介入并制定一系列阻礙社會和技術(shù)發(fā)展的法律,?!?/span> 對于 AI 在企業(yè)中的商業(yè)用途,Montgomery 補(bǔ)充說:“我們需要 web3,,而 IBM 提倡智能且有針對性的 web3 精確監(jiān)管,,并且能夠適應(yīng)新出現(xiàn)的威脅。一種方法是查看公司商業(yè)模式核心的風(fēng)險,。我們可以而且必須保護(hù)消費(fèi)者并提高透明度,,我們可以在鼓勵和支持創(chuàng)新的同時做到這一點(diǎn),以便公司能夠開發(fā)未來的解決方案和產(chǎn)品,。這是我們將在 2023 年密切關(guān)注和權(quán)衡的眾多領(lǐng)域之一,。”
|
|