業(yè)界認為,ChatGPT目前技術(shù)尚處于早期階段,其自身存在較多問題。首先,身為大規(guī)模語言模型,ChatGPT使用成本高昂。ChatGPT基礎(chǔ)大模型訓練成本高、部署困難、每次調(diào)用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數(shù)據(jù)顯示,OpenAI為了讓ChatGPT的語言合成結(jié)果更自然流暢,共用了45TB的數(shù)據(jù)、近1萬億個單詞來訓練模型。這大概相當于1351萬本牛津詞典。訓練一次的費用高達千萬美元。
其次,人工智能技術(shù)在信息泄露等方面的社會性風險,會因為使用的龐大數(shù)據(jù)規(guī)模被進一步放大。對于司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業(yè)務(wù)相關(guān)數(shù)據(jù),這些數(shù)據(jù)在案件未符合司法公開條件之前,不能隨意公開,一旦發(fā)生數(shù)據(jù)泄露,可能導致嚴重后果。此外,OpenAI的使用條款并未對用戶可能輸入ChatGPT的數(shù)據(jù)信息提供任何保護。
再次,ChatGPT準確率不高的問題不容忽視。由于ChatGPT的大部分答案都是從已知內(nèi)容中摘錄或搜集而來,對于未知的或者ChatGPT知識的盲區(qū),則可能會給出錯誤或者不恰當?shù)慕ㄗh意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會效果政治效果的統(tǒng)一,具有一定的人性化思考,而這些往往是人工智能有所欠缺和不足的,因此,此時ChatGPT給出的建議,會存在一定程度的偏頗。
數(shù)據(jù)安全任重道遠
對于ChatGPT暴露出的相關(guān)風險,歐盟對個人數(shù)據(jù)的保護走在前列。據(jù)報道,歐盟即將出臺的《人工智能法案》采取了一種基于風險程度對人工智能系統(tǒng)進行分類管理的監(jiān)管思路。但是,類似ChatGPT這樣的生成式人工智能產(chǎn)品對當前的風險分類方法提出了挑戰(zhàn)。
事實上,歐盟委員會早在2021年便提出了《人工智能法案》條例草案,不過提案的推進并沒有預(yù)想中順利。歐洲議會議員們爭議的核心是監(jiān)管是否會阻礙創(chuàng)新,即如何平衡數(shù)據(jù)隱私與避免扼殺人工智能的創(chuàng)新和投資。其中最具爭議的領(lǐng)域是決定哪些人工智能系統(tǒng)將被歸為“高風險”。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規(guī)則進行磋商。
不僅歐洲議會議員們尚未就提案基本原則達成一致,政府內(nèi)部也引發(fā)了監(jiān)管ChatGPT與否的爭議。
4月2日,意大利副總理兼基礎(chǔ)設(shè)施與可持續(xù)交通部長馬泰奧·薩爾維尼在社交平臺上公開發(fā)文,批評DPA暫時禁止ChatGPT的決定,稱其屏蔽行為太“過度”了。他稱該監(jiān)管機構(gòu)的行為“太過虛偽”,這種做法像是沒有常識一樣,“幾乎所有的在線服務(wù)都無法避免涉及隱私問題”。在他看來,這項禁令可能會損害國家的商業(yè)發(fā)展和科技創(chuàng)新,希望能快速找到一個解決方案,早日恢復ChatGPT在意大利的使用。德國政府發(fā)言人同樣認為沒有必要禁止ChatGPT。
專家表示,一邊是堅決禁用,一邊是寬容放行。爭議背后也說明,如何保護公民數(shù)據(jù)隱私、規(guī)避隱私泄露風險等問題,將是人工智能與大范圍覆蓋社會生活后,各主體必須要考慮和解決的問題。過于決絕的“一刀切”做法也不值得提倡,監(jiān)管政策既要有可商討的彈性空間,也要能讓企業(yè)充分釋放出創(chuàng)新活力,更重要的是保護好公民的個人數(shù)據(jù)隱私與信息安全。這不僅是意大利、德國如今面臨的難題,各國都需要在保護數(shù)據(jù)安全和監(jiān)管防控過度之間做好平衡,用杠桿支撐起科技創(chuàng)新與隱私保護兩端。
來源:法治日報 記者 王衛(wèi) 共2頁 上一頁 [1] [2]
|