來自14個組織的26名研究人員對惡意AI所造成的危險進(jìn)行了全面的報告。
當(dāng)我們想到人工智能時,我們往往會想到機(jī)器學(xué)習(xí)的人性化表現(xiàn),比如Siri或Alexa,但事實(shí)是,人工智能在我們身邊主要是作為后臺進(jìn)程來運(yùn)行。從醫(yī)學(xué)到金融,人工智能向各種事物的的緩慢蔓延可能很難讓人理解,因?yàn)樗雌饋砼c好萊塢在《機(jī)械姬》或《她》等電影中所構(gòu)思的人工智能有很大的不同。事實(shí)上,與人類相比,如今大多數(shù)“人工智能”都是相當(dāng)愚蠢的——機(jī)器學(xué)習(xí)算法可能會在特定任務(wù)中給予人類一個重?fù)?,比如下圍棋,但在更普通的任?wù)上,比如區(qū)分烏龜與槍對其來說就很困難。
盡管如此,去年2月,一組由26名人工智能研究人員組成的團(tuán)隊(duì)在牛津會面,討論超人類AI(superhuman artificial intelligence)在未來可能被應(yīng)用于惡意目的的方式。這次為期兩天的會議產(chǎn)出了一份長達(dá)100頁的報告,內(nèi)容是關(guān)于人工智能不良應(yīng)用所帶來的風(fēng)險以及降低這些風(fēng)險的策略。
工作組提出的四項(xiàng)建議中,有一項(xiàng)是“人工智能的研究人員和工程師應(yīng)當(dāng)謹(jǐn)慎對待其工作的雙重使用特性,在研究的優(yōu)先級和規(guī)范中考慮相關(guān)使用不當(dāng)所產(chǎn)生的影響,并在有害應(yīng)用程序可預(yù)見時主動聯(lián)系相關(guān)的參與者。”這一建議尤其適用于最近興起的“deepfakes”,主要把機(jī)器學(xué)習(xí)用于將好萊塢女演員的臉換接到色情演員的身體上(制作人工合成的假色情片)。由Motherboard的Sam Cole最先報道,這些deepfakes是通過改編一個名為TensorFlow的開源機(jī)器學(xué)習(xí)庫來實(shí)現(xiàn)的,該庫最初由谷歌工程師開發(fā)。Deepfakes強(qiáng)調(diào)了機(jī)器學(xué)習(xí)工具的雙重使用特性,同時也提出了一個問題:誰應(yīng)該使用這些工具?
盡管報告中特別提到了Deepfakes,研究人員還強(qiáng)調(diào)了將這種類似的技術(shù)用于處理世界領(lǐng)導(dǎo)人視頻所產(chǎn)生的危害,這會對政治安全構(gòu)成威脅,這是研究人員考慮到的三大威脅領(lǐng)域之一。人們只需想象出一段虛假的視頻,如特朗普在平壤向朝鮮宣戰(zhàn)以及由此引發(fā)的后果,就會明白這種情況的危險性。此外,研究人員還發(fā)現(xiàn),通過數(shù)據(jù)分析和大規(guī)模有針對性的宣傳,利用人工智能技術(shù),能實(shí)現(xiàn)前所未有的大規(guī)模監(jiān)控,這是對政治領(lǐng)域考量的另一個側(cè)面。
另外兩個被認(rèn)為是惡意人工智能的主要風(fēng)險領(lǐng)域是數(shù)字和物質(zhì)安全(physical AI?security)。在數(shù)字安全方面,使用人工智能進(jìn)行網(wǎng)絡(luò)攻擊將“緩解現(xiàn)有的攻擊規(guī)模和效率之間的權(quán)衡。”大規(guī)模的網(wǎng)絡(luò)攻擊可能會以人工智能的形式進(jìn)行,比如大規(guī)模的網(wǎng)絡(luò)釣魚,或者更復(fù)雜的攻擊形式,比如使用語音合成來模擬受害者。
在物質(zhì)AI威脅方面,研究人員觀察到物質(zhì)世界對自動化系統(tǒng)越來越依賴。隨著更多智能家居和自動駕駛汽車上線,人工智能可能被用來顛覆這些系統(tǒng),并造成災(zāi)難性的破壞。此外,還有故意制造惡意人工智能系統(tǒng)所帶來的威脅,比如自動化武器或微型無人機(jī)。
其中一些場景,比如微型無人機(jī)所帶來的災(zāi)難,似乎還很遙遠(yuǎn),而其他的一些,比如大規(guī)模網(wǎng)絡(luò)攻擊、自動化武器和視頻操控等,已經(jīng)引發(fā)了一些問題。為了應(yīng)對這些威脅,并確保人工智能被用于造福人類,研究人員建議開發(fā)新的政策解決方案,并探索不同的“開放模式”以降低人工智能的風(fēng)險。例如,研究人員認(rèn)為,中央訪問許可模式(central access licensing models)可以確保人工智能技術(shù)不會落入壞人之手,或者建立某種監(jiān)控程序來密切記錄人工智能資源的應(yīng)用途徑。
報告的作者寫道:“目前的趨勢強(qiáng)調(diào)了對前沿研究和發(fā)展成果的廣泛開放。如果這些趨勢在未來5年持續(xù)下去,我們預(yù)期攻擊者用數(shù)字和機(jī)器人系統(tǒng)造成危害的能力會顯著提高。”
另一方面,研究人員認(rèn)識到,開源人工智能技術(shù)的擴(kuò)散也將越來越多地吸引決策者和監(jiān)管機(jī)構(gòu)的注意,他們將對這些技術(shù)施加更多限制。至于這些政策應(yīng)該具體采取何種形式,必須從地方、國家和國際層面上加以考量。報告總結(jié)說:“這份報告的合著者之間仍然存在許多分歧,更不用說世界上不同的專家群體了。隨著各種威脅和反饋被發(fā)現(xiàn),在我們得到更多的數(shù)據(jù)之前,這些分歧不會得到解決。但這種不確定性和專家分歧不應(yīng)阻止我們在今天盡早采取預(yù)防措施。”