人工智能會不會走上“邪路”?上海學者激辯,有人淡定有人擔憂
2017-09-11 18:17:50 來源:上觀網(wǎng) 熱度:
人工智能早已不是新鮮詞。但是,未來會不會像霍金說的那樣,智能機器人可能會成為人類歷史上最大的災難,或是人類文明的終結者嗎?


由上海市社聯(lián)《探索與爭鳴》雜志社和華東政法大學政治學研究院共同主辦的“人工智能與未來社會:趨勢、風險與挑戰(zhàn)”學術研討會上,各領域學者展開了一場跨學科的精彩交流。
機器不靠譜?不,是人性
人工智能的深度學習,推動力究竟在于算法,還是數(shù)據(jù)?
上海交通大學電子信息學院的熊紅凱教授認為,數(shù)據(jù)才是最后關鍵的因素?,F(xiàn)在一些大公司開源算法架構,其實只是為了占領人工智能的市場生態(tài),這是商業(yè)策略。
人工智能發(fā)展中的不確定性和不可解釋性,是最大的威脅。
一個最后的結果,它的不確定性和不可操作性來源于數(shù)據(jù),即使同一個數(shù)據(jù)不同的人操作也不一樣,這就帶來很大的問題:公共安全性。這也是美國大數(shù)據(jù)醫(yī)療一直進展緩慢的原因。
人工智能是把雙刃劍。如果所有的機器都聯(lián)網(wǎng),這個力量會決策我們每個人的命運。從倫理講,人類不知道將來會有怎樣的方式來決定個人命運,因為我們原來所形成的知識,是個人可認知、可掌握的。
若一切技術都是以超越人自身為推動力,“人工智能是洪水猛獸”這個說法顯然是成立的。因為對數(shù)據(jù)的操控性和選擇性,所有的人類能力都必須在機器的載體上發(fā)展,這種能力的控制性,完全不可靠,而且它會不斷演化和發(fā)展。這會給人類世界帶來極大的不確定性。人們還應真實認識人工智能背后的基理所在,如果這個方式不解決,一旦壟斷在一些大公司手里,實際上對每個人的命運來說可能都不可控。真實原因不在于機器,而在于人性其實是不可靠的。
人和機器會在未來和諧相處
從“開放”這個角度出發(fā),華東政法大學政治學研究院院長高奇琦教授的看法,和熊紅凱教授恰恰相反。
為什么中國人工智能爆發(fā)最重要的場景,是基于人臉識別的安防,而西方是基于語音識別的智能音箱?因為在中國人看來,“君子坦蕩蕩,小人長戚戚”,相比于個人隱私,安全穩(wěn)定更重要。為了提高社會治理的狀況,讓渡一部分個人權利和隱私,在中國人看來并非不能接受。在研究智能醫(yī)療的專家眼中,目前中國是研究智能醫(yī)療最好的國家。只要政府和病人之間有很好的合作,那么醫(yī)療數(shù)據(jù)就能開放給醫(yī)療大公司和研究人員,而智能醫(yī)療的發(fā)展反過來又能解決醫(yī)療資源不足的問題,造福更多的人,從而形成國家、企業(yè)與個人的良好互動。
中國人的傳統(tǒng),會將兩種完全不同的力量放在一起綜合考慮,這就是“多元統(tǒng)一”。未來,將會出現(xiàn)人工智能與人類智能長期共存的情形。很多中國的專家學者、投資人認為,人和機器在未來會和諧相處?!吨芤住分械年庩栍^、《道德經(jīng)》中的辯證思想,深刻影響著中國人的思維,我們認為物、人都是世界的一部分,人類可以與世間萬物和諧共存。在西方基督教文化看來,科技一直在挑戰(zhàn)神的領域,而中國沒有這方面束縛,在技術發(fā)展上,可能會少一些倫理負擔。
不是自然科學,更不是社會科學
上海社會科學院哲學所副所長成素梅研究員,帶來了女性專家的獨特視角。
她談到,人工智能是計算機分支學科研究出來的,但是從學科性質上來講,人工智能不是自然科學,更不是一門社會科學,盡管人工智能研究者必須關注其成果對社會所產生的影響,但這并不是人工智能研究的主要內容。人工智能是科學與技術相互交叉的一個領域,一開始就具有跨學科性。
目前,人工智能不僅在日常生活中大顯神手,在工業(yè)領域和商業(yè)領域內捷報頻傳,《科學》雜志刊文表明,機器人或自動程序已經(jīng)能夠直接參與人類的認知過程。比如,賓夕法尼亞大學積極心理學中心的心理學家可以運用算法,根據(jù)推特、臉譜等社交媒體上的話語,來分析大眾的情緒、預測人性、收入和意識形態(tài),從而有可能在語言分析及其與心理學聯(lián)系方面帶來一場革命;普林斯頓大學的計算生物學家可以運用人工智能工具來梳理自閉癥根源的基因組,等等。這些機器人或自動程度被尊稱為“網(wǎng)絡科學家”。
人工智能的威脅論雖然表達了人類的憂患意識,但確實為時過早。退一步講,即使未來有這么一天到來,人類也已經(jīng)在這個進程中,充分享用了人工智能帶來的恩惠,并深刻反思了有關人性、社會、文明等問題。政府在推動技性科學的同時,更應該加強哲學社會科學的研究,切實把哲學社會科學的思考,特別是倫理考量,貫穿到技性科學發(fā)展的始終,讓人文關懷成為人工智能研究者的自覺意識,使科學家們在研發(fā)人工智能的過程中,做出有利于發(fā)展人類文明的抉擇。
“落后就要挨打”=“先進可以打人”咯
人工智能在軍事領域的應用怎樣呢?
在這個問題上,各大國都處在被“劫持”的狀態(tài)。人們常說“落后就要挨打”,其暗含的邏輯就是“先進可以打人”,先進的國家可以欺壓落后的國家,即使各國不希望制造殺人武器,但又不得不制造殺人武器,因為誰也不想落后,誰也不愿挨打。
上海交通大學科學史與科學文化研究院院長江曉原教授指出,實際上人工智能軍事化的危害性,并不在于其導致傷亡人數(shù)的多少,戰(zhàn)爭也不會因為導致傷亡較少而變得就可取。在美國紀錄片《零日》中,美國和以色列為了破壞伊朗的核計劃,聯(lián)合研發(fā)了一種超級病毒。事實上,這種超級病毒就是一種幽靈般的人工智能,它感染了伊朗的網(wǎng)絡之后,會自動尋找和識別特定的目標——離心機的控制器。由于病毒設計巧妙,它在當時幾乎無法被偵測出來。然而,美國人偷笑的時間并沒多久,這種超級病毒還真被發(fā)現(xiàn)了。不僅被發(fā)現(xiàn)了,而且被破解了。這就意味著伊朗及其盟友,也獲得了這種超級病毒。人工智能的軍事化應用,當然比原子彈能造成的傷亡要小,但其破壞性一樣不容小覷。
在人工智能的發(fā)展上,資本的推動是很明顯的。但是資本的增值是盲目的,而且不計后果的,關于這一點,重溫馬克思的教導很有意義。江曉原教授認為,現(xiàn)在對資本的恐懼要比對權力的恐懼大得多,資本比權力更可怕,是因為資本其實非常盲目。
他認為,現(xiàn)在不能盲目贊美人工智能,歌頌人工智能的美好,應該在媒體上多進行關于人工智能倫理方面的探討,至少能引起各界的注意。在某些領域中,可以考慮保留低級的人工智能,保留人工智能的某些初級應用。要認識到,這個東西就像魔鬼一樣。我們盡量設法對某些指標性的東西加以明確,如各國約定在全球范圍普遍內不允許做某些事,這樣才有可能延長人類文明。
人將不再是工作的機器,挺好
上海師范大學知識與價值科學研究所所長何云峰教授擔心的是,人工智能大量使用,會不會帶來進化方面的負面后果?例如,每個人都使用手機,大家變成低頭一族了,會不會導致若干萬年以后我們的腳變成越來越短,手越來越長?當然還有其他可能的進化性負面后果,都值得我們去關注,這種后果可能比擺脫束縛我們的那種東西,還要可怕。
除此之外,他以為人類應該要樂觀地面對人工智能。人類進化到現(xiàn)在,通過人工智能,會有更多的信息獲取渠道和處理渠道,這樣人類能使自己更加強大。隨著人工智能的發(fā)展,人類勞動的簡化程度會大大提高,人會有更多的時間進行學習,變成一種學習動物,而不再是工作的機器。學習的觀念會完全改變,人會有更多的發(fā)展機會,會更多地減輕、擺脫繁重的東西,可能完全不是今天的狀態(tài)。
歷史學家不怕失業(yè)
80高齡的華東師范大學歷史系王家范教授,將自己的微信名取為“鄉(xiāng)下人”,他絲毫不擔心歷史學家會在未來失業(yè)。“世界上有一種職業(yè),是任何再先進的機器人也無法替代的,那就是歷史學家。”到今天為止,所謂用“大數(shù)據(jù)史學”做出來的成果,行業(yè)中人心知肚明,它并沒有如想象的那樣奇妙和高明。再大型的史料數(shù)據(jù)庫,也只是史學家的輔助工具,是史學的助手,不可能成為史學的主人。
純粹靠擺史料,靠史料“料理”歷史的史學工匠,“機器人”一定能取代,效率勝過千百倍。如果把史學看做一門人類理解自己的“思維工藝”,從人類已有的千萬年的無窮經(jīng)歷里,時時咀嚼反芻,提煉出人類智慧,用以改善人類現(xiàn)在和未來的處境,這一類的史學工藝創(chuàng)造,“人工智能”就捉襟見肘,窘態(tài)畢露。
他認為,在歡呼科技進步的同時,有必要對科技忽視人文的嚴重后果進行認真檢討,人文主義在科學家隊伍里應該占有主導地位。價值理性是第一位的,工具理性是第二位的??茖W家的自身修養(yǎng)是如此,科學創(chuàng)造也應該如此。老子說“知人者智,自知者明。勝人有力,自勝者強”??茖W家必須有戰(zhàn)勝自我欲望無邊的“自勝者強”的意識,及早消弭企圖操控人類的各類野心,人工智能的開發(fā)才不會走邪路。
按照人類所希望的“善智”方向發(fā)展
上海社會科學院互聯(lián)網(wǎng)研究中心執(zhí)行主任惠志斌,探究了人工智能應用場景中的法律問題。他認為,人工智能能夠聯(lián)系大量的人、物,在聯(lián)網(wǎng)的基礎上產生大量的數(shù)據(jù),再通過一系列智能化的算法。這個算法,至少目前來看還是由人來設計、去驗證、去實施的算法。在各種各樣的智能網(wǎng)絡應用場景里,在鼓勵它發(fā)展的同時,如何去規(guī)避危險,如何按照人類所希望見到的“善智”方向發(fā)展?這是我們需要考慮的問題。
還要考慮如何通過一些公共政策、如何通過法律,把那些可能帶來危害的風險點找到,進行規(guī)避。他認為,人工智能碰到的法律和經(jīng)濟問題,要在基本安全的框架內,探討人類和機器共同協(xié)作的方式,讓人工智能產品在公眾的監(jiān)督之下透明、開放,而不是隨意設置。
責任編輯:吳昊