一些使用者的反饋印證了梁正的判斷。“為什么AI的性格會(huì)突然變化?早上還聊得好好的,到了晚上仿佛變成另一個(gè)人,連我叫什么名字都忘記了,真的很崩潰。”一位用戶在社交媒體上抱怨道。AI伴侶雖然看起來“百依百順”,但也會(huì)給使用者帶來情感傷害。梁正特別提到,一些本身就缺乏陪伴、心理脆弱的群體往往分不清AI與真人的區(qū)別,AI帶給他們情感傷害和沖擊也因此會(huì)更嚴(yán)重。
其次,長(zhǎng)期沉浸在虛擬世界中,極有可能造成現(xiàn)實(shí)社交能力的下降。“隨著AI伴侶影響力的擴(kuò)大,可能有越來越多的人選擇虛擬的線上社交,放棄真實(shí)的人際互動(dòng)。這不利于人類社會(huì)的發(fā)展。”曾一果認(rèn)為,虛擬的溫暖永遠(yuǎn)代替不了真實(shí)的交流,和AI伴侶交往的潮流不應(yīng)擴(kuò)大化。
此外,人們需要對(duì)AI傳遞的信息內(nèi)容保持警惕。一方面,如果AI伴侶不設(shè)置年齡門檻,極有可能出現(xiàn)向未成年人傳播不良信息的情況,影響他們的身心健康。另一方面,AI帶來的價(jià)值偏見與歧視問題一直被人們關(guān)注。如果AI伴侶對(duì)使用者不斷進(jìn)行錯(cuò)誤誘導(dǎo),對(duì)使用者進(jìn)行“反向控制”,就容易讓使用者做出錯(cuò)誤的行為。
AI伴侶也有可能在現(xiàn)實(shí)中引發(fā)糾紛。如果AI伴侶需要使用者不斷支付費(fèi)用,那么無(wú)疑會(huì)掏空沉迷者的“錢包”。AI伴侶這個(gè)“樹洞”也不是百分百的安全可靠。梁正提醒,AI伴侶在使用和管理層面存在諸多風(fēng)險(xiǎn),不法分子可能通過外泄的隱私數(shù)據(jù),拼湊出個(gè)人信息來進(jìn)行詐騙或其他違法犯罪活動(dòng)。
細(xì)化準(zhǔn)則引導(dǎo)技術(shù)向善
“應(yīng)用新技術(shù),首先要堅(jiān)持正確的倫理導(dǎo)向。”梁正說。AI伴侶是極為特殊的一類AI應(yīng)用場(chǎng)景,類似于心理咨詢師。它們可以給人們帶來心理療愈,但不法分子也可能會(huì)借此操控人心。可以預(yù)見的是,“人工智能+情感”的賽道會(huì)不斷擴(kuò)張,如今用AI來“復(fù)活”親人的案例也屢見不鮮。因此,如何讓AI發(fā)揮正向作用,制定針對(duì)性的倫理準(zhǔn)則,是行業(yè)要解決的首要問題。
梁正提到,國(guó)內(nèi)外已公布的針對(duì)AI的倫理準(zhǔn)則大多比較宏觀,需要在細(xì)分領(lǐng)域制定更具體的倫理準(zhǔn)則。“比如年齡的限制、適用場(chǎng)景的限制……制定這些規(guī)則,需要秉持對(duì)使用者最有利、風(fēng)險(xiǎn)最小的原則。”他說。
而在法律法規(guī)層面,AI伴侶需要嚴(yán)格遵守相關(guān)的規(guī)定。例如,對(duì)用戶信息的處理,應(yīng)當(dāng)遵循個(gè)人信息保護(hù)法、數(shù)據(jù)安全法等。“我國(guó)去年公布的《生成式人工智能服務(wù)管理暫行辦法》劃定了AI使用的底線,如尊重他人合法權(quán)益、不得危害他人身心健康等,目的就是推動(dòng)人工智能向善發(fā)展。”梁正表示,未來應(yīng)推出針對(duì)具體場(chǎng)景的、更加細(xì)致的要求,比如應(yīng)當(dāng)從防沉迷的角度,對(duì)AI的使用時(shí)長(zhǎng)加以限定。目前,還相對(duì)缺少針對(duì)AI伴侶的相關(guān)政策法規(guī)。
從行業(yè)規(guī)定上看,一些機(jī)構(gòu)、公司對(duì)此表現(xiàn)出的態(tài)度也十分謹(jǐn)慎。記者發(fā)現(xiàn),一些AI伴侶應(yīng)用已經(jīng)被下架處理。OpenAI的相關(guān)條款中也提到,不允許用GPT進(jìn)行浪漫伴侶關(guān)系的培養(yǎng)。
在推動(dòng)法律法規(guī)完善的同時(shí),使用者更應(yīng)秉持謹(jǐn)慎的態(tài)度,審慎對(duì)待AI伴侶這一新生事物。“人們應(yīng)當(dāng)警惕技術(shù)對(duì)人的控制和異化,避免AI伴侶對(duì)自身造成的不利影響。”梁正提醒道。
來源:科技日?qǐng)?bào) 實(shí)習(xí)記者 吳葉凡 共2頁(yè) 上一頁(yè) [1] [2]
|