即便是業(yè)內(nèi)諸多科技大佬、企業(yè)家等不斷重申人工智能并不會(huì)給人類發(fā)展帶來(lái)威脅與災(zāi)難,并讓人們相信AI的好處會(huì)大于弊端。但還是有很多人表現(xiàn)對(duì)人工智能的恐懼,而聊到人工智能,人們最為普遍的憂慮以及最為熱門的話題始終是,它是否會(huì)造成大規(guī)模失業(yè),是否會(huì)搶奪人類的飯碗?
當(dāng)然,樂(lè)觀派會(huì)認(rèn)為這種擔(dān)憂是科幻電影看多了。在最近,有消息稱Facebook在人工智能研究所在對(duì)兩個(gè)聊天機(jī)器人進(jìn)行對(duì)話策略迭代升級(jí)時(shí),發(fā)現(xiàn)它們竟自行發(fā)展出了人類無(wú)法理解的獨(dú)特語(yǔ)言,系統(tǒng)中的聊天機(jī)器人開(kāi)始用自創(chuàng)語(yǔ)言對(duì)話,全然無(wú)視程序員下達(dá)的指令。而臉書停止了這一項(xiàng)目的研究,原因是“擔(dān)心可能會(huì)對(duì)這些AI失去控制”。不過(guò)Facebook近日公開(kāi)回應(yīng)關(guān)閉AI失控語(yǔ)言事件,認(rèn)為一些媒體的報(bào)道有失事實(shí),F(xiàn)acebook并沒(méi)有關(guān)閉機(jī)器人聊天系統(tǒng),而是在使它們變得更加聰明可控。
人類內(nèi)心對(duì)人工智能恐懼與懷疑
這是否是Facebook在人工智能系統(tǒng)中Bug還是故障暫未可知,但如果這是謠言,那么這可能就是人類內(nèi)心對(duì)人工智能恐懼與懷疑的一個(gè)釋放的方式與出口。
特斯拉CEO馬斯克最早在2014年就在麻省理工學(xué)院的一次公開(kāi)訪談中拋出了AI“威脅論”:“我認(rèn)為我們應(yīng)當(dāng)格外警惕人工智能。如果讓我說(shuō)人類當(dāng)下面臨最大的威脅是什么,我覺(jué)得是人工智能無(wú)疑”。物理學(xué)家斯蒂芬·霍金曾經(jīng)表示“人工智能可能自行啟動(dòng),以不斷加快的速度重新設(shè)計(jì)自己。”
微軟創(chuàng)始人比爾·蓋茨也曾公開(kāi)表達(dá)同樣的憂慮,稱“機(jī)器確實(shí)可以幫助人類完成很多工作,但當(dāng)機(jī)器越發(fā)的智能,它們將會(huì)對(duì)人類的存在造成威脅”。亞馬遜CEO貝索斯曾就AI“威脅論”與馬斯克發(fā)生過(guò)公開(kāi)辯論。但后來(lái)他同樣認(rèn)為未來(lái)的人工智能革命或許的確有一部分超出我們的控制范圍。而谷歌母公司Alphabet執(zhí)行董事長(zhǎng)埃里克·施密特認(rèn)為擔(dān)憂人工智能是純屬杞人憂天,是科幻電影看多了。
AI的發(fā)展速度或快于人類學(xué)習(xí)進(jìn)步的速度
從目前各方大佬的觀點(diǎn)來(lái)看,即便是有對(duì)人工智能持樂(lè)觀派,但或許還是會(huì)透露出一些對(duì)AI的擔(dān)憂與未來(lái)發(fā)展走勢(shì)的不確定,科技大佬尚且如此,更遑論普通民眾??梢钥闯龅氖?,人們?cè)谌斯ぶ悄艿陌l(fā)展速度面前,還是表現(xiàn)出了不自信的一面。
雖然人們懂得,人類本身是在不斷進(jìn)化,但人工智能也可以,人們對(duì)于新事物的學(xué)習(xí)與進(jìn)步都是一步一個(gè)腳印,而學(xué)習(xí)進(jìn)度的速度相對(duì)偏慢,但人工智能的進(jìn)步速度要遠(yuǎn)超過(guò)人類,多年前人們會(huì)認(rèn)為AI在圍棋上戰(zhàn)勝人類不太可能,今天已經(jīng)實(shí)現(xiàn)了。而依據(jù)摩爾定律,計(jì)算能力每隔一段時(shí)間就會(huì)翻番,這會(huì)驅(qū)使AI設(shè)計(jì)變得越來(lái)越復(fù)雜、計(jì)算機(jī)處理器速度越來(lái)越快,它們的水平會(huì)不斷提高。
況且當(dāng)前的中美科技巨頭,幾乎都在全力押注AI,谷歌、IBM等巨頭相繼開(kāi)源AI平臺(tái),NVIDIA、英特爾公司深攻AI芯片,谷歌、蘋果在大力收購(gòu)AI公司,國(guó)內(nèi)AT均提出AI發(fā)展戰(zhàn)略,AI的發(fā)展速度未來(lái)幾年可能會(huì)加快。
在當(dāng)前世界各地,不少中低技工正在不斷被機(jī)器人或智能化自動(dòng)化軟硬件所取代,并且取代率還在不斷上升。有人說(shuō),人類需要學(xué)習(xí)十幾年甚至二十年才能獲得一份體面的工作,而AI呢?開(kāi)發(fā)一個(gè)好的程序大家花幾分鐘下載,甚至不用下載直接API就能用了。當(dāng)然,AI技術(shù)在不斷地吞噬工作,但也會(huì)不斷地創(chuàng)造工作。問(wèn)題是,創(chuàng)造工作的速度能否趕上它所毀滅的工作的速度?當(dāng)AI的發(fā)展速度快于人類學(xué)習(xí)進(jìn)步的速度,越來(lái)越多的人都會(huì)被一種被淘汰的焦慮包圍。
人工智能未來(lái)可能會(huì)取代更多的工種,但不再會(huì)創(chuàng)造大量的低技術(shù)性崗位
盡管人們總是會(huì)拿蒸汽時(shí)代工業(yè)革命敲碎舊時(shí)代生產(chǎn)力體系,繼而帶來(lái)更多的新的工作來(lái)類比人工智能時(shí)代所帶來(lái)的想象空間。但人工智能時(shí)代可能與工業(yè)時(shí)代有著本質(zhì)的不同。
不同之處在于,比如過(guò)去工業(yè)革命革掉工匠們的命,用汽車取代馬車,但這種變革更多是提升工業(yè)化的生產(chǎn)效率,帶來(lái)了更多的工種,創(chuàng)造了大量的低技術(shù)性崗位,比如一個(gè)失地的農(nóng)民,轉(zhuǎn)型為產(chǎn)業(yè)工人并不困難,因?yàn)楫a(chǎn)業(yè)工人的需求很大,而且培訓(xùn)上崗的技術(shù)難度不大。
但人工智能未來(lái)可能會(huì)取代更多的工種,但不會(huì)創(chuàng)造大量的低技術(shù)性崗位,因?yàn)樗谋举|(zhì)不僅是消滅簡(jiǎn)單機(jī)械的重復(fù)性勞動(dòng),而是能夠自主分析與判斷,與人類的腦力與技術(shù)展開(kāi)競(jìng)爭(zhēng),即便能創(chuàng)造工作,也是技術(shù)性更高的工作,比如說(shuō)無(wú)人駕駛技術(shù)讓司機(jī)的崗位消失,但帶來(lái)的卻是軟件工程師、程序員、設(shè)計(jì)師等相關(guān)的崗位,這些崗位不是能通過(guò)簡(jiǎn)單的培訓(xùn)就能夠上崗的。從另一個(gè)角度而言,正如美國(guó)學(xué)者約翰.C.黑文斯所言:技術(shù)純熟的工匠與工業(yè)化的流水線上的廉價(jià)勞動(dòng)力對(duì)抗,與對(duì)自動(dòng)駕駛汽車在生死關(guān)頭的程序如何編寫的擔(dān)憂本身不可同日而語(yǔ)。
人類如果在越來(lái)越多的領(lǐng)域被AI所取代,那么人類的工作將越來(lái)越多的聚焦在AI所不能取代的領(lǐng)域,而這些領(lǐng)域也沒(méi)有人能夠確保它永遠(yuǎn)不會(huì)被取代,正如有人說(shuō),我們恐懼的不是人工智能,而是自己的無(wú)能。也有如羅振宇此前在演講中說(shuō)過(guò)一句:“再殘忍的資本家好歹要?jiǎng)兿鞴と?,人工智能時(shí)代可能讓人們連這個(gè)價(jià)值都沒(méi)有。”
心理學(xué)上的恐怖谷效應(yīng)
從心理學(xué)上來(lái)看的話,恐怖谷理論或許能夠從另一個(gè)角度來(lái)解釋我們對(duì)于AI機(jī)器人的恐懼。“恐怖谷”一詞由日本機(jī)器人研究院Ernst Jentsch于1906年的論文《恐怖谷心理學(xué)》中提出,即當(dāng)機(jī)器人越來(lái)越接近人類的時(shí)候,我們對(duì)它們的好感會(huì)提升,但是當(dāng)機(jī)器人非常接近人類的時(shí)候,一旦到達(dá)某個(gè)臨界點(diǎn),我們的好感就對(duì)大幅度降低,甚至開(kāi)始莫名的厭惡和懼怕。
為什么,因?yàn)楫?dāng)一個(gè)長(zhǎng)著人的皮囊,但各項(xiàng)性能都超過(guò)人類、甚至克服了衰老與疾病的AI機(jī)器,人類的自尊感會(huì)被消弭于無(wú)形,而在這個(gè)時(shí)候,人們更擔(dān)心的是人工智能產(chǎn)生獨(dú)立意識(shí),然后噬主。盡管,獨(dú)立意識(shí)的產(chǎn)生方法現(xiàn)在只有幾個(gè)假說(shuō)而已,但需要思考的是,當(dāng)一個(gè)AI的物種在智力、智商與能力等諸多方面均超出人類的時(shí)候,它是否還會(huì)心甘情愿的接受人類的統(tǒng)治?
只要人類與一個(gè)人工智能的系統(tǒng)算法密切結(jié)合工作,那么人工智能可能向人類學(xué)習(xí),繼而實(shí)現(xiàn)人物的自動(dòng)化進(jìn)程,當(dāng)AI專家不斷將新研究轉(zhuǎn)變?yōu)樗惴?,然后加入現(xiàn)有系統(tǒng)中,使得AI設(shè)計(jì)變得越來(lái)越復(fù)雜,那么它的危險(xiǎn)就來(lái)自于自我學(xué)習(xí)與進(jìn)化,發(fā)展演化到一個(gè)足夠復(fù)雜的系統(tǒng),人們可能無(wú)法關(guān)掉某個(gè)本身具有運(yùn)行指令的系統(tǒng),因?yàn)槌绦蛘谕ㄟ^(guò)某種邏輯讓自己的效率最大化。
這樣一來(lái),即使出現(xiàn)未知后果的風(fēng)險(xiǎn)提高,我們逐漸的無(wú)法完全了解這些系統(tǒng)的運(yùn)作結(jié)果,它們的失靈方式也多種多樣。歷史上大的災(zāi)難往往都由各種各樣的小故障組合而來(lái),這也意味著一種安全與失控的危險(xiǎn)。
所謂的恐懼都是源于未知。人工智能的發(fā)展速度太快,而普通人卻對(duì)人工智能的操作方式、運(yùn)作邏輯與程序一無(wú)所知,它彷佛一只神秘的黑盒子,人們知道自己未來(lái)不可避免的將身處黑箱之中,卻不知道黑箱的邊界,而人們更擔(dān)心人工智能收集各種數(shù)據(jù),因?yàn)轵?qū)動(dòng)大數(shù)據(jù)經(jīng)濟(jì)的AI應(yīng)用程序,是基于人類的興趣、愛(ài)好、生活方式等數(shù)據(jù)以及主觀判斷所設(shè)計(jì)的系統(tǒng),而這種系統(tǒng)卻比人類更了解自身,這會(huì)讓人們的隱私蕩然無(wú)存。當(dāng)前已經(jīng)有AI芯片問(wèn)世,比普通芯片快十倍乃至上百倍。顯然,這開(kāi)辟了一系列的可能性。
人工智能會(huì)剝奪人的幸福感
從另一個(gè)層面來(lái)看,人工智能還會(huì)剝奪人的幸福感。人類需要幸福感與意義,需要薪水,需要人生的意義。而對(duì)于大多數(shù)人而言,幸福感與意義一般是由工作所賦予的,另一種就是從幫助他人中建立起來(lái)的存在感。因?yàn)楣ぷ髂軌驇椭藗兘⒁环N心流與價(jià)值意義,讓人們沉浸并找到自身存在的意義。
而人的能力在本質(zhì)上是有限的,當(dāng)然,自動(dòng)化與AI化將會(huì)成為一個(gè)趨勢(shì),工作被機(jī)器人取代之后,人們會(huì)焦慮該找什么樣的工作才不會(huì)被取代,當(dāng)自動(dòng)化與失業(yè)威脅圍繞,人們可能擔(dān)心無(wú)法掙到足夠的前來(lái)購(gòu)買產(chǎn)品與滿足自身的娛樂(lè)需求,人們必須思考如何找回被剝奪的存在感、意義與幸福感。當(dāng)AI能夠代替人類來(lái)幫助人類,人們就會(huì)逐步喪失表達(dá)同理心的能力。
按照心理學(xué)的理論,這是更高一級(jí)的“自我實(shí)現(xiàn)”的需求,它和娛樂(lè)一樣是剛需,當(dāng)自我實(shí)現(xiàn)的需求被剝奪之后,人們會(huì)思考自身存在的意義究竟為何,哲學(xué)家帕斯卡在《沉思錄》所言:面對(duì)強(qiáng)大有力的宇宙,人是一根會(huì)思考的蘆葦。
當(dāng)人生幸福感被為人工智能剝奪而找不到意義時(shí),就會(huì)陷入另一種危機(jī)之中——如何定義自己。正如凱文凱利所說(shuō):在未來(lái)的十年或者是未來(lái)一個(gè)世紀(jì),我們都將生活在揮之不去的身份危機(jī)之中。我們需要人工智能來(lái)告訴我們,我們是誰(shuí)。這同樣讓人們感到恐慌。
AI導(dǎo)致數(shù)據(jù)的轉(zhuǎn)移與權(quán)力的集中:繼而導(dǎo)致資源與利益的重新分配
其次是數(shù)據(jù)。我們知道,數(shù)據(jù)是AI系統(tǒng)的命脈,你需要用數(shù)據(jù)進(jìn)行訓(xùn)練,需要海量的數(shù)據(jù)與信息來(lái)進(jìn)行推理。比如數(shù)字圖像、數(shù)字記錄,以及工廠的數(shù)據(jù)和跟蹤信息,這些都可以放到系統(tǒng)中進(jìn)行訓(xùn)練。而隨著巨頭用戶規(guī)模化擴(kuò)張,會(huì)導(dǎo)致數(shù)據(jù)不斷轉(zhuǎn)移與集中到幾家公司手中,這回導(dǎo)致權(quán)力與資源的轉(zhuǎn)移與重新分配。如果未來(lái)強(qiáng)人工智能快速發(fā)展,它對(duì)人類的了解會(huì)越來(lái)越透徹。
有用戶表示,通過(guò)識(shí)別照片和人臉,F(xiàn)acebook的人臉識(shí)別軟件可以區(qū)分出化妝和不化妝時(shí)的我,這既有趣又可怕。與此同時(shí),人類在辨認(rèn)人臉時(shí)卻常常遇到困難。據(jù)說(shuō)波士頓的某家公司的AI已經(jīng)通過(guò)數(shù)據(jù)的訓(xùn)練非常擅長(zhǎng)閱讀人類情緒了。
而根據(jù)人類簡(jiǎn)史的作者赫拉利的觀點(diǎn)來(lái)看,人工智能技術(shù)的一個(gè)潛在結(jié)果是促成數(shù)據(jù)集中到某一個(gè)地方,也進(jìn)而導(dǎo)致權(quán)力的集中。因?yàn)檎f(shuō)到數(shù)據(jù)算法,你能在一個(gè)地方集中的數(shù)據(jù)越多,算法就會(huì)越好。因此人工智能技術(shù)革命產(chǎn)生了巨大的,將數(shù)據(jù)集中的動(dòng)力,也造成了權(quán)力的集中。
也就是說(shuō),對(duì)于AI科技巨頭來(lái)說(shuō),它的用戶規(guī)模越來(lái)越大,數(shù)據(jù)就會(huì)越來(lái)越大,這同樣會(huì)造成權(quán)力越來(lái)越大。換句話說(shuō),中美科技巨頭將擁有越來(lái)越大的權(quán)利。但事實(shí)上,這也是人類對(duì)人工智能恐懼的一方面,因?yàn)闄?quán)力的轉(zhuǎn)移會(huì)導(dǎo)致利益與資源的重新分配。這可能導(dǎo)致它會(huì)讓部分人受益,但不會(huì)讓更廣泛的普通人受益。
AI技術(shù)未來(lái)會(huì)不斷突破,但風(fēng)險(xiǎn)在于其程序設(shè)定沒(méi)有人類的價(jià)值觀與道德標(biāo)準(zhǔn)
讓人們更為恐懼的是,社交機(jī)器人學(xué)家與人工智能專家正在努力讓人工智能融入人類特征,但人工智能卻沒(méi)有人類的價(jià)值觀與道德標(biāo)準(zhǔn),人工智能在加速推進(jìn),但只要人們沒(méi)有從法律層面否決它是否應(yīng)該被開(kāi)發(fā)出來(lái)之前,它都是可以進(jìn)行開(kāi)發(fā)的。這會(huì)給谷歌、Facebook、微軟等科技巨頭提供大量的機(jī)會(huì),即在道德倫理與法律監(jiān)管真空中進(jìn)一步發(fā)展人工智能技術(shù)。
但所隱含的弊端是,機(jī)器人沒(méi)有與生俱來(lái)的道德,這原本是需要程序員和各個(gè)系統(tǒng)從操作系統(tǒng)開(kāi)始,逐步落實(shí)道德標(biāo)準(zhǔn)。就比如科幻作家艾薩克·阿西莫夫所創(chuàng)造的“機(jī)器人三大定律”:機(jī)器人不得傷害人類或坐視人類受到傷害、機(jī)器人必須服從人類的命令、在不違背第一和第二法則的前提下機(jī)器人必須保護(hù)自己。
有了這種邏輯與價(jià)值觀設(shè)定,人們會(huì)相對(duì)感到安全,當(dāng)前自動(dòng)化智能又幾乎沒(méi)有相關(guān)的法律規(guī)定,人類價(jià)值觀卻并未被編入人工智能的核心,這可能導(dǎo)致它帶來(lái)的潛在危害走向失控。說(shuō)到底,這是人們潛意識(shí)里對(duì)機(jī)器人的不自信,對(duì)它將叛變?nèi)祟愐约叭〈藗兊目只?。?dāng)然,這也是人們是對(duì)于未知的一種恐懼。
當(dāng)然,人工智能要發(fā)展到威脅人類這一步還有太長(zhǎng)的路要走,甚至在許多人看來(lái),這一天永遠(yuǎn)也不會(huì)到來(lái),畢竟現(xiàn)有的人工智能技術(shù)還不成熟,與真正人意義上的智能差的很遠(yuǎn),目前的它被過(guò)度解讀和渲染了。不過(guò),更多的恐懼是來(lái)自于未知。恐怖大師史蒂夫-金所說(shuō),讓人的心備受恐懼折磨的從來(lái)都不是妖魔鬼怪,而是超出認(rèn)知范圍的未知。
盡管我們不必過(guò)于擔(dān)心人工智能可能會(huì)對(duì)人類造成的威脅,但也知道人工智能的發(fā)展是沒(méi)有天花板的。我們正確的做法是正視這個(gè)趨勢(shì),并在未來(lái)趨勢(shì)中去熟悉使用人工智能輔助,逐步占得這種技術(shù)進(jìn)步的紅利,并從中分一杯羹,在宏觀層面,需要思考和做好AI的安全管控設(shè)計(jì)以及預(yù)防的備用方案,來(lái)管控好人工智能的安全、風(fēng)險(xiǎn)失控、倫理道德以及社會(huì)層面等諸多方面的問(wèn)題,來(lái)消除人們的恐慌以及盡量讓弊端與威脅最小化。