來源:中國新聞網(wǎng) 中新財(cái)經(jīng)記者 宋宇晟
“在接下來的五年中,會(huì)思考的計(jì)算機(jī)程序?qū)㈤喿x法律文件并提供醫(yī)療建議。在接下來的十年中,它們將從事流水線工作,甚至可能成為同伴。在此之后的幾十年中,它們將做幾乎所有事情,包括做出新的科學(xué)發(fā)現(xiàn),從而擴(kuò)展我們的‘一切’概念。”
2021年3月16日,OpenAI公司CEO山姆·阿爾特曼(Sam Altma)在網(wǎng)上發(fā)表了一篇名為《萬物摩爾定律》的文章,并在文中以預(yù)言式的口吻這樣描繪了人類與人工智能共處的未來世界。
在阿爾特曼看來,人工智能革命即將到來,其結(jié)果必將深刻影響人類的未來。不到兩年之后,有關(guān)ChatGPT的討論席卷全球。這似乎意味著現(xiàn)實(shí)正逼近他所預(yù)測的未來。
那么,人工智能的發(fā)展將如何塑造或影響人類的未來?我們還是先從最近備受關(guān)注的ChatGPT說起。
ChatGPT是怎么火起來的?
2022年11月30日發(fā)布的聊天機(jī)器人模型ChatGPT,正顯示其巨大的影響。根據(jù)Similarweb的數(shù)據(jù),今年1月,平均每天約有1300萬獨(dú)立訪客使用 ChatGPT,是去年12月份的兩倍多,累計(jì)用戶超1億,創(chuàng)下了互聯(lián)網(wǎng)最快破億應(yīng)用的紀(jì)錄。
如果只把它看作是一個(gè)“能與人類對話”的機(jī)器人,“技術(shù)進(jìn)步”的跡象并不明顯。畢竟Siri、小愛、小度……這些人們?nèi)缃癯S玫墓ぞ,都可以提?ldquo;對話”服務(wù);甚至在2020年,小冰公司還推出過“虛擬男友”聊天產(chǎn)品。這些產(chǎn)品背后的人工智能都可以在不同程度上完成與人類的“對話”。
ChatGPT的“魅力”更多還要從技術(shù)上看。其中,“大模型”是關(guān)鍵詞。
小冰公司CEO李笛將ChatGPT定義為“大模型”的一個(gè)產(chǎn)物、一次產(chǎn)品化的嘗試。
何為“大模型”?智源研究院原副院長劉江告訴記者,以AlphaGo為例,這樣的人工智能就屬于“小模型”。“它只能用來下圍棋,象棋、五子棋都不會(huì)下。其中可能有些底層技術(shù)類似,但如果要讓AlphaGo下象棋或五子棋,還需要技術(shù)人員重寫代碼、重新訓(xùn)練。”
“但大模型不同,它是通用的。”劉江舉例,ChatGPT的應(yīng)用場景很廣泛,既可以寫郵件、寫文案,還可以寫代碼、寫詩,甚至寫論文。
騰訊研究院發(fā)布的《2022十大數(shù)字科技前沿應(yīng)用趨勢》中就明確指出,小模型不僅需要大量的手工調(diào)參,還需要給機(jī)器喂養(yǎng)海量的標(biāo)注數(shù)據(jù),這拉低了人工智能的研發(fā)效率,且成本較高。大模型通常是在無標(biāo)注的大數(shù)據(jù)集上,采用自監(jiān)督學(xué)習(xí)的方法進(jìn)行訓(xùn)練。
ChatGPT是OpenAI對其2020年發(fā)布的GPT-3模型微調(diào)后開發(fā)出的對話機(jī)器人。報(bào)道顯示,該模型使用來自互聯(lián)網(wǎng)的文本數(shù)據(jù)庫進(jìn)行訓(xùn)練,包括從書籍、網(wǎng)絡(luò)文本、維基百科、文章和互聯(lián)網(wǎng)其他文本中獲得的高達(dá)570GB的數(shù)據(jù)。ChatGPT背后的模型GPT-3.5則更為強(qiáng)大。
中金公司一份研報(bào)認(rèn)為,此類新技術(shù)的應(yīng)用“帶來弱人工智能向通用智能的階躍”。
而在業(yè)內(nèi)人士看來,技術(shù)上從小模型到大模型的變化,無異于人工智能的“進(jìn)化”。

ChatGPT網(wǎng)頁截圖
人工智能的“進(jìn)化”
1965年,英特爾創(chuàng)始人之一戈登·摩爾提出了摩爾定律,即當(dāng)價(jià)格不變時(shí),集成電路(IC)上可容納的元器件,每隔18-24個(gè)月便增加一倍,性能也提升一倍。既然在相同面積晶圓下生產(chǎn)同樣規(guī)格的IC,每隔18-24個(gè)月可增加一倍,那么生產(chǎn)成本也能相應(yīng)降低50%。
阿爾特曼的《萬物摩爾定律》將這一定律的適用范圍大大擴(kuò)展。他寫到,“摩爾定律適用于一切”應(yīng)該是一代人的口號,雖然“這聽起來很烏托邦”。
換言之,在阿爾特曼看來,當(dāng)下這個(gè)時(shí)代,技術(shù)迭代的速度是肉眼可見的。
事實(shí)上,在人工智能的加持下,某些領(lǐng)域的演進(jìn)速度已經(jīng)大大加快。有報(bào)道稱,據(jù)OpenAI統(tǒng)計(jì),從2012年到2020年,人工智能模型訓(xùn)練消耗的算力增長了30萬倍,平均每3.4個(gè)月翻一番,超過了摩爾定律的每18個(gè)月翻番的增速。
回顧OpenAI GPT模型的進(jìn)化之路,具有十分明顯的規(guī)模效應(yīng)。數(shù)據(jù)顯示,2018年初代GPT參數(shù)量為1.17億,2019年二代參數(shù)量達(dá)15億,2020年GPT 3.0參數(shù)規(guī)模直接飛躍至1750億。
百度CEO李彥宏就曾公開指出,無論是技術(shù)層面還是商業(yè)應(yīng)用層面,人工智能都有了方向性的改變。
微軟CEO納德拉在接受訪談時(shí)也曾表示,GPT的發(fā)展不是線性的,而是指數(shù)級變化的,所以相比較GPT-3,當(dāng)前的GPT-3.5已經(jīng)展現(xiàn)出更強(qiáng)的能力。業(yè)界普遍預(yù)測,GPT-4將在今年推出,并具備更強(qiáng)大的通用能力。
毫無疑問,成指數(shù)級的增長讓人工智能得以高速“進(jìn)化”。
劉江告訴記者,這樣的“進(jìn)化”并非只是量變,也不只是每次迭代相加的結(jié)果。“有研究人員總結(jié),相比于小模型,人工智能大模型已經(jīng)出現(xiàn)了一百多種‘突變能力’,即大模型具備、小模型不具備的能力。”
他覺得,這在某種程度上很像生物進(jìn)化的過程。“就好像大腦在不斷量變后來到一個(gè)臨界點(diǎn),然后生物就產(chǎn)生了高等智能那樣。”
共2頁 [1] [2] 下一頁