《人類簡史》的作者尤瓦爾·赫拉利周二警告稱,人工智能是一種可能消滅人類的外來威脅:“它不是來自外太空,而是來自加州。”
人工智能技術(shù)被廣泛譽(yù)為一場“革命”,但以色列歷史學(xué)家和哲學(xué)家赫拉利認(rèn)為,這是一種可能導(dǎo)致人類滅絕的“外來物種”。會引起。
赫拉利周二在倫敦的一次活動上對觀眾說:“人工智能與我們在歷史上看到的任何其他發(fā)明,無論是核武器還是印刷機(jī),都有著根本的不同。”
“這是歷史上第一個可以自己做決定的設(shè)備。原子彈不能做出決定。在廣島投下原子彈的決定是由一個人做出的。”
赫拉利說,這種獨立思考能力帶來的風(fēng)險是,超級智能機(jī)器最終可能會取代人類成為世界的主導(dǎo)力量。
他警告稱:“我們可能在談?wù)撊祟悮v史的終結(jié)——人類統(tǒng)治時代的終結(jié)。很有可能在未來幾年內(nèi),它將消耗掉所有的人類文化,(我們自石器時代以來取得的一切成就),并開始萌芽一種來自外來智慧的新文化。”
根據(jù)赫拉利的說法,這提出了一個問題,即技術(shù)不僅會對我們周圍的物質(zhì)世界產(chǎn)生什么影響,還會對心理學(xué)和宗教等事物產(chǎn)生什么影響。
他辯稱:“在某些方面,人工智能(比人類)更有創(chuàng)造力。最終,我們的創(chuàng)造力受到生物生物學(xué)的限制。而它是一種無機(jī)智能,真的很像外星智慧。”
“如果我說外來物種將在五年內(nèi)到來,也許他們會很好,也許他們會治愈癌癥,但他們會奪走我們控制世界的能力,人們會感到害怕。
“這就是我們所處的情況,但威脅不是來自外太空,而是來自加州。”
OpenAI的生成式人工智能聊天機(jī)器人ChatGPT在過去一年中取得了驚人的增長,成為該領(lǐng)域重大投資的催化劑,大型科技公司也加入了開發(fā)世界上最尖端人工智能系統(tǒng)的競賽。
赫拉利的著作考察了人類的過去和未來,但他認(rèn)為,人工智能領(lǐng)域的發(fā)展速度“讓它變得如此可怕”。
“如果你將其與生物進(jìn)化進(jìn)行比較,人工智能現(xiàn)在就像阿米巴變形蟲——在生物進(jìn)化中,它們花了數(shù)十萬年的時間才變成恐龍。而有了人工智能,變形蟲可以在10到20年內(nèi)變成霸王龍。問題的一部分是我們沒有時間去適應(yīng)。人類是一種適應(yīng)能力極強(qiáng)的生物……但這需要時間,而我們沒有那么多時間。”
人類的下一個“巨大而可怕的實驗”?
赫拉利承認(rèn),之前的技術(shù)創(chuàng)新,如蒸汽機(jī)和飛機(jī),都提出了類似的人類安全警告,“最終還可以”,但談到人工智能時,他堅稱,“最終還不夠好。”
他說:“我們不擅長新技術(shù),我們會犯大錯誤,我們會嘗試。”
例如,在工業(yè)革命期間,人類“犯了一些可怕的錯誤”,他說:“我們花了一個世紀(jì),一個半世紀(jì),才把這些失敗的實驗弄對。”“也許這次我們逃不掉了。即使我們這樣做了,想想在這個過程中會有多少人的生命被摧毀。”
“時間至關(guān)重要”
盡管赫拉利對人工智能發(fā)出了可怕的警告,但他表示,我們?nèi)杂袝r間采取行動,防止最壞的預(yù)測成為現(xiàn)實。
他說:“我們還有幾年,我不知道有多少年——5年、10年、30年——在人工智能把我們推到后座之前,我們?nèi)匀蛔隈{駛座上。我們必須非常小心地利用這幾年。”
他還敦促那些在人工智能領(lǐng)域工作的人考慮一下,在世界上釋放他們的創(chuàng)新是否真的符合地球的最佳利益。
“我們不能只是停止技術(shù)的發(fā)展,但我們需要區(qū)分開發(fā)和部署,”他說,“僅僅因為你開發(fā)了它,并不意味著你必須部署它。”
來源:新浪財經(jīng) 環(huán)球市場播報