欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

人工智能的23條“軍規(guī)”,馬斯克、霍金等聯(lián)合背書(shū)

2017-02-08 10:51:41 來(lái)源:搜狐財(cái)經(jīng) 作者:徐思彥 熱度:
人工智能是一項(xiàng)了不起的技術(shù),它正在以不可思議的方式改變世界。如果你看過(guò)電影《終結(jié)者》,肯定知道先進(jìn)的人工智能技術(shù)蘊(yùn)含一些危險(xiǎn)。
 

 
正因如此,伊隆·馬斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才連同另外數(shù)百名研究人員、科技領(lǐng)袖和科學(xué)家聯(lián)名支持人工智能應(yīng)該在生產(chǎn)力、道德和安全領(lǐng)域遵守的23條基本原則。
 
在未來(lái)生活研究院(Future of Life Institute)組織數(shù)十名專家共同參加Beneficial A.I. 2017大會(huì)之后,便正式發(fā)布了《艾斯羅馬人工智能23定律》(Asilomar A.I. Principles)。這些專家包括機(jī)器人學(xué)家、物理學(xué)家、經(jīng)濟(jì)學(xué)家、哲學(xué)家,他們對(duì)人工智能在安全、經(jīng)濟(jì)和道德等領(lǐng)域產(chǎn)生的影響展開(kāi)了激烈辯論。要讓這套定律最終獲得通過(guò),必須獲得多達(dá)90%的與會(huì)專家認(rèn)可。
 
“我們起草了23條定律,范圍從研究戰(zhàn)略到數(shù)字權(quán)益,再到可能出現(xiàn)的超級(jí)智能等未來(lái)的各種問(wèn)題。認(rèn)可這些定律的專家已經(jīng)在上面簽下自己的名字。”未來(lái)生活研究院網(wǎng)站寫(xiě)道,“這些定律并不全面,顯然也可以有不同的解讀,但它也凸顯出一個(gè)問(wèn)題:目前圍繞許多相關(guān)問(wèn)題開(kāi)展的很多‘默認(rèn)’行為,可能會(huì)破壞在多數(shù)與會(huì)人員看來(lái)十分重要的原則。”
 
共有892名人工智能或機(jī)器人研究人員以及另外1445名專家在這份定律上簽字,包括特斯拉CEO馬斯克和著名物理學(xué)家霍金。
 
其中一些定律(例如透明度和共享研究成果)實(shí)現(xiàn)的可能性較低。即便這些定律無(wú)法得到全面落實(shí),但這23條定律仍然可以改進(jìn)人工智能開(kāi)發(fā)過(guò)程,確保這些技術(shù)符合道德標(biāo)準(zhǔn),避免邪惡勢(shì)力崛起。
 
以下是《艾斯羅馬人工智能23定律》的全部?jī)?nèi)容:
 
1、研究目標(biāo):
 
人工智能研究目標(biāo)不能不受約束,必須發(fā)展有益的人工智能。
 
2、研究資金:
 
人工智能投資應(yīng)該附帶一部分專項(xiàng)研究基金,確保其得到有益的使用,解決計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)、法律、倫理道德和社會(huì)研究方面的棘手問(wèn)題:
 
——如何確保未來(lái)的人工智能系統(tǒng)健康發(fā)展,使之符合我們的意愿,避免發(fā)生故障或遭到黑客入侵?
 
——如何通過(guò)自動(dòng)化實(shí)現(xiàn)繁榮,同時(shí)保護(hù)人類的資源,落實(shí)人類的目標(biāo)?
 
——如何更新法律制度,使之更加公平、效率更高,從而跟上人工智能的發(fā)展步伐,控制與人工智能有關(guān)的風(fēng)險(xiǎn)?
 
——人工智能應(yīng)該符合哪些價(jià)值觀,還應(yīng)該具備哪些法律和道德地位?
 
3、科學(xué)政策聯(lián)系:
 
人工智能研究人員應(yīng)該與政策制定者展開(kāi)有建設(shè)性的良性交流。
 
4、研究文化:
 
人工智能研究人員和開(kāi)發(fā)者之間應(yīng)該形成合作、互信、透明的文化。
 
5、避免競(jìng)賽:
 
人工智能系統(tǒng)開(kāi)發(fā)團(tuán)隊(duì)?wèi)?yīng)該主動(dòng)合作,避免在安全標(biāo)準(zhǔn)上出現(xiàn)妥協(xié)。
 
6、安全性:
 
人工智能系統(tǒng)應(yīng)當(dāng)在整個(gè)生命周期內(nèi)確保安全性,還要針對(duì)這項(xiàng)技術(shù)的可行性以及適用的領(lǐng)域進(jìn)行驗(yàn)證。
 
7、故障透明度:
 
如果人工智能系統(tǒng)引發(fā)破壞,應(yīng)該可以確定原因。
 
8、司法透明度:
 
在司法決策系統(tǒng)中使用任何形式的自動(dòng)化系統(tǒng),都應(yīng)該提供令人滿意的解釋,而且需要由有能力的人員進(jìn)行審查。
 
9、責(zé)任:
 
對(duì)于先進(jìn)的人工智能系統(tǒng)在使用、濫用和應(yīng)用過(guò)程中蘊(yùn)含的道德意義,設(shè)計(jì)者和開(kāi)發(fā)者都是利益相關(guān)者,他們有責(zé)任也有機(jī)會(huì)塑造由此產(chǎn)生的影響。
 
10、價(jià)值觀一致性:
 
需要確保高度自動(dòng)化的人工智能系統(tǒng)在運(yùn)行過(guò)程中秉承的目標(biāo)和采取的行動(dòng),都符合人類的價(jià)值觀。
 
11、人類價(jià)值觀:
 
人工智能系統(tǒng)的設(shè)計(jì)和運(yùn)行都必須符合人類的尊嚴(yán)、權(quán)利、自由以及文化多樣性。
 
12、個(gè)人隱私:
 
人類應(yīng)該有權(quán)使用、管理和控制自己生成的數(shù)據(jù),為人工智能賦予數(shù)據(jù)的分析權(quán)和使用權(quán)。
 
13、自由和隱私:
 
人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用決不能不合理地限制人類擁有或理應(yīng)擁有的自由。
 
14、共享利益:
 
人工智能技術(shù)應(yīng)當(dāng)讓盡可能多的人使用和獲益。
 
15、共享繁榮:
 
人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)當(dāng)廣泛共享,為全人類造福。
 
16、由人類控制:
 
人類應(yīng)當(dāng)有權(quán)選擇是否及如何由人工智能系統(tǒng)制定決策,以便完成人類選擇的目標(biāo)。
 
17、非破壞性:
 
通過(guò)控制高度先進(jìn)的人工智能系統(tǒng)獲得的權(quán)力,應(yīng)當(dāng)尊重和提升一個(gè)健康的社會(huì)賴以維繼的社會(huì)和公民進(jìn)程,而不是破壞這些進(jìn)程。
 
18、人工智能軍備競(jìng)賽:
 
應(yīng)該避免在自動(dòng)化致命武器上開(kāi)展軍備競(jìng)賽。
 
19、能力警告:
 
目前還沒(méi)有達(dá)成共識(shí),我們應(yīng)該避免對(duì)未來(lái)人工智能技術(shù)的能力上限做出強(qiáng)假定。
 
20、重要性:
 
先進(jìn)的人工智能代表了地球生命歷史上的一次深遠(yuǎn)變革,應(yīng)當(dāng)以與之相稱的認(rèn)真態(tài)度和充足資源對(duì)其進(jìn)行規(guī)劃和管理。
 
21、風(fēng)險(xiǎn):
 
針對(duì)人工智能系統(tǒng)的風(fēng)險(xiǎn),尤其是災(zāi)難性風(fēng)險(xiǎn)和存在主義風(fēng)險(xiǎn),必須針對(duì)其預(yù)期影響制定相應(yīng)的規(guī)劃和緩解措施。
 
22、不斷自我完善:
 
對(duì)于能夠通過(guò)自我完善或自我復(fù)制的方式,快速提升質(zhì)量或增加數(shù)量的人工智能系統(tǒng),必須輔以嚴(yán)格的安全和控制措施。
 
23、共同利益:
 
超級(jí)人工智能只能服務(wù)于普世價(jià)值,應(yīng)該考慮全人類的利益,而不是一個(gè)國(guó)家或一個(gè)組織的利益。

責(zé)任編輯:吳昊