特斯拉CEO埃隆·馬斯克(Elon Musk)和一群人工智能專家及行業(yè)高管在一封公開信中表示,他們呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少六個(gè)月,理由是這種系統(tǒng)對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)。
這封信由非營(yíng)利組織未來生命研究所(Future of Life Institute)發(fā)布,包括馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克和Stability AI首席執(zhí)行官伊馬德·穆斯塔克(Emad Mostaque)在內(nèi)的1000多人簽署,呼吁暫停高級(jí)人工智能的開發(fā),直到為此類設(shè)計(jì)制定、實(shí)施并由獨(dú)立專家審核的共享安全協(xié)議。
信中寫道:“只有在我們確信它們的效果是積極的,風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。”
這封信還詳細(xì)列出了與人類競(jìng)爭(zhēng)的人工智能系統(tǒng)以經(jīng)濟(jì)和政治破壞的形式對(duì)社會(huì)和文明造成的潛在風(fēng)險(xiǎn),并呼吁開發(fā)者與政策制定者就治理問題和監(jiān)管機(jī)構(gòu)展開合作。
這封信呼吁,所有人工智能實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個(gè)月。這種暫停應(yīng)該是公開的和可驗(yàn)證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應(yīng)介入并實(shí)行暫停。人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這次暫停,共同開發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督。這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)是安全的,并且無可置疑。這并不意味著總體上暫停AI開發(fā),只是緊急從奔向不可預(yù)測(cè)的大型黑盒模型的危險(xiǎn)競(jìng)賽中收回腳步。
OpenAI的ChatGPT自去年發(fā)布以來,已促使競(jìng)爭(zhēng)對(duì)手推出類似產(chǎn)品,并促使企業(yè)將其或類似技術(shù)集成到自己的應(yīng)用程序和產(chǎn)品中。
馬斯克此前就曾多次表達(dá)對(duì)人工智能的擔(dān)憂,他在今年2月的一次視頻講話中表示,人工智能是未來人類文明最大的風(fēng)險(xiǎn)之一。他說:“它有積極的一面,也有消極的一面,有巨大的前景也有巨大的能力,但隨之而來的危險(xiǎn)也是巨大的。”
馬斯克當(dāng)時(shí)指出,應(yīng)該監(jiān)管人工智能的安全問題,即使會(huì)放慢這一技術(shù)的發(fā)展速度。早在2017年,馬斯克就提出了“AI威脅論”,認(rèn)為人工智能是人類文明的危險(xiǎn),并指出威脅程度要遠(yuǎn)高于車禍、飛機(jī)失事、毒品泛濫等。在2018年的一次采訪中,馬斯克更是強(qiáng)調(diào),人工智能要比核武器危險(xiǎn)得多。
來源:新浪財(cái)經(jīng) 環(huán)球市場(chǎng)播報(bào)
|