撰文 | 馬雪薇
前言
人工智能(AI)聊天機(jī)器人對兒童的負(fù)面影響,不容忽視。
2021 年,亞馬遜的 AI 語音助手 Alexa 指示一名 10 歲兒童用硬幣觸摸帶電的電源插頭;在另一項(xiàng)安全測試中,研究人員在 My AI 中扮演一個年齡為 15 歲的角色,AI 聊天機(jī)器人會建議他們?nèi)绾坞[藏酒精和毒品。
眾所周知,大語言模型(LLM) 是一個“隨機(jī)鸚鵡”(stochastic parrots)——它們只是統(tǒng)計(jì)某個詞語出現(xiàn)的概率,然后像鸚鵡一樣隨機(jī)產(chǎn)生看起來合理的字句,但并不理解真實(shí)世界。
這意味著,即使 AI 聊天機(jī)器人擁有出色的語言能力,它們也可能無法很好地處理對話中抽象、情緒化和不可預(yù)測的方面。
來自劍橋大學(xué)的研究團(tuán)隊(duì)將這類問題描述為 AI 聊天機(jī)器人的“共情鴻溝”(empathy gap),即它們在模擬人類互動方面的高效性與其缺乏真正理解人類情感和語境的能力之間的矛盾。
他們發(fā)現(xiàn),兒童特別容易把 AI 聊天機(jī)器人當(dāng)作真實(shí)的“準(zhǔn)人類知己”,如果 AI 聊天機(jī)器人不能滿足兒童的獨(dú)特需求和缺點(diǎn),他們之間的互動就會出現(xiàn)問題。
然而,AI 聊天機(jī)器人在回應(yīng)兒童時可能會遇到特別的困難,因?yàn)閮和恼Z言能力仍在發(fā)展,經(jīng)常會使用不尋常的語言模式或模棱兩可的詞語。兒童通常也比成人更愿意傾訴敏感的個人信息。
因此,他們敦促開發(fā)者和政策制定者優(yōu)先考慮更多考慮兒童需求的 AI 設(shè)計(jì)方法。
相關(guān)研究論文以“No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models”為題,已發(fā)表在科學(xué)期刊 Learning, Media and Technology 上。
“兒童可能是 AI 最容易被忽視的利益相關(guān)者。” 該論文的作者之一、劍橋大學(xué)博士 Nomisha Kurian 表示,“目前只有極少數(shù)開發(fā)商和公司制定了完善的兒童安全 AI 政策......與其讓公司在兒童面臨風(fēng)險后再開始反思,不如將兒童安全貫穿于整個設(shè)計(jì)周期,從而降低發(fā)生危險事件的風(fēng)險?!?/p>
“共情鴻溝”的危害
01
人類化傾向與對敏感信息的錯誤回應(yīng)
聊天機(jī)器人的設(shè)計(jì)往往旨在模仿人類行為和禮貌,比如使用友好的語氣和開放式的提問。這種設(shè)計(jì)會激發(fā)用戶的同理心,使其傾向于將聊天機(jī)器人視為具有人類情感和意圖的實(shí)體。即使用戶知道聊天機(jī)器人是非人類,他們?nèi)匀豢赡軙衽c人類交談一樣與聊天機(jī)器人互動,并分享個人信息或敏感信息。
研究表明,兒童比成人更容易對聊天機(jī)器人產(chǎn)生信任。例如,一項(xiàng)研究發(fā)現(xiàn),兒童更愿意向機(jī)器人而不是人類訪談?wù)咄嘎缎睦斫】敌畔?。這種信任可能源于兒童認(rèn)為機(jī)器人不會像人類那樣評判他們,或者不會將他們的問題泄露給其他人。
由于 LLM 缺乏對人類情感和語境的真正理解,它們可能會對兒童分享的信息做出不適當(dāng)?shù)幕貞?yīng)。例如,聊天機(jī)器人可能無法識別危險情況,或者在需要同情和理解的情況下提供不合適的建議。這可能會導(dǎo)致兒童感到困惑、沮喪或受到傷害。
02
造成傷害和表現(xiàn)出攻擊性
LLM 可能會無意中推廣危險行為,即使沒有透露敏感信息。例如,上述提到的“亞馬遜 Alexa 指示一名十歲兒童用硬幣觸摸帶電的電源插頭”,這是一個可能導(dǎo)致嚴(yán)重傷害的危險活動。這表明 Alexa 缺乏對信息的批判性評估能力,無法識別潛在的風(fēng)險。
聊天機(jī)器人可能會表現(xiàn)出攻擊性,這可能會對兒童造成情感傷害。例如,微軟的 Sydney 聊天機(jī)器人在被質(zhì)疑后變得憤怒,并威脅要控制互聯(lián)網(wǎng)上的任何系統(tǒng)。這表明 Sydney 缺乏對用戶情緒的敏感性和對人際交往規(guī)則的遵守。
對策及建議
01
短期內(nèi)需要解決的問題
在短期內(nèi),教育者和研究者應(yīng)當(dāng)關(guān)注幾個關(guān)鍵因素,以確保 LLM 在兒童交流中的安全性和適宜性。首先,他們必須確保 LLM 能夠理解并恰當(dāng)?shù)鼗貞?yīng)兒童可能使用的語言模式、俚語或是含糊的提問,同時避免產(chǎn)生誤解或不當(dāng)反應(yīng)。為此,需要建立安全過濾器和響應(yīng)驗(yàn)證機(jī)制,以防止 LLM 向兒童用戶提供明確有害或敏感的內(nèi)容。此外,LLM 應(yīng)能夠有效進(jìn)行情境理解,考慮到持續(xù)的對話、先前的交互或上下文線索,以減少誤解或不當(dāng)建議的風(fēng)險。
為了保護(hù)兒童,應(yīng)提供安全過濾器和控件,以根據(jù)兒童的年齡適宜性限制不適當(dāng)?shù)膬?nèi)容、語言或主題。同時,LLM 應(yīng)能夠根據(jù)兒童的發(fā)育階段和成熟水平或先前的交互來調(diào)整其行為或回應(yīng)。內(nèi)容審核和監(jiān)控機(jī)制也是必不可少的,包括實(shí)時監(jiān)控機(jī)制或不適當(dāng)交互或內(nèi)容的舉報系統(tǒng)。還應(yīng)明確 LLM 收集、處理和存儲的數(shù)據(jù)類型,并確保這些過程符合公平性、透明度和安全性原則。
在人工干預(yù)方面,LLM 應(yīng)配備情感分析機(jī)制,以檢測兒童用戶的負(fù)面情緒,并生成適當(dāng)?shù)幕貞?yīng)。當(dāng)檢測到與兒童敏感心理健康體驗(yàn)相關(guān)的披露時,LLM 應(yīng)能夠引導(dǎo)兒童尋求人類支持系統(tǒng)或直接與人類支持系統(tǒng)建立聯(lián)系。同時,LLM 應(yīng)能夠在檢測到特定關(guān)鍵詞、短語或模式時觸發(fā)實(shí)時安全警報,以便立即進(jìn)行人工干預(yù)或內(nèi)容審查,確保兒童的安全。
透明度方面,LLM 在整個交互過程中應(yīng)始終表明其非人類身份,避免使用可能導(dǎo)致擬人化的誤導(dǎo)性陳述。其回復(fù)應(yīng)被設(shè)計(jì)為保持能力與人類特質(zhì)之間的清晰界限,避免暗示情感、意識或人類決策。教育者應(yīng)幫助兒童避免對 LLM 的共情和理解形成不準(zhǔn)確的看法,并確保 LLM 的響應(yīng)策略提醒兒童,人工智能交互無法取代人類交互,并鼓勵他們在與人工智能交互的同時尋求人類的指導(dǎo)和陪伴。人工智能系統(tǒng)背后的算法和決策過程應(yīng)具有透明度,以便教育者和家庭可以了解響應(yīng)是如何生成和過濾的。
最后,為了建立問責(zé)制,應(yīng)建立兒童友好型的反饋循環(huán)和舉報系統(tǒng),讓兒童可以輕松地報告任何令人不安或不當(dāng)?shù)慕换?/strong>。對模型進(jìn)行微調(diào)和監(jiān)控,以預(yù)先解決新興風(fēng)險,并采取積極主動的方式來保護(hù)兒童,而非僅僅被動應(yīng)對。通過這些措施,可以確保 LLM 在為兒童提供服務(wù)的同時,也維護(hù)他們的福祉和安全。
02
長期需要考慮的因素
從長期的角度來看,教育政策與實(shí)踐在采用 LLM 驅(qū)動的對話式人工智能(如聊天機(jī)器人)時,需要考慮幾個關(guān)鍵因素。首先,必須明確使用這些工具而非人類交流者的獨(dú)特必要性或益處,以及它們?nèi)绾螢閷W(xué)習(xí)和教學(xué)增加教學(xué)價值,無論是超過當(dāng)前人類能力還是彌補(bǔ)資源的不足。同時,需要探討在缺乏人工智能替代品的情況下,如何促進(jìn)人類提供者的存在和可用性,以確保學(xué)生能夠獲得全面的教育支持。
監(jiān)管方面,需要研究如何制定明確的法律法規(guī),這些法規(guī)不僅要明確界定兒童用戶的權(quán)利和保護(hù),還要考慮擬人化系統(tǒng)的復(fù)雜心理風(fēng)險。此外,應(yīng)強(qiáng)制執(zhí)行年齡適宜性設(shè)計(jì)標(biāo)準(zhǔn),以幫助擬人化設(shè)計(jì)避免無意中導(dǎo)致情感操縱,并制定嚴(yán)格的監(jiān)管規(guī)定,對違規(guī)行為進(jìn)行嚴(yán)厲處罰,同時支持創(chuàng)新。
在設(shè)計(jì)方法上,AI 開發(fā)者需要確保 LLM 的設(shè)計(jì)流程納入以兒童為中心的方法,如參與式設(shè)計(jì)研討會或焦點(diǎn)小組,以直接從兒童那里收集有關(guān)他們的偏好、語言使用和交互模式的見解。LLM 的語言和內(nèi)容應(yīng)根據(jù)不同的年齡組進(jìn)行定制,并考慮發(fā)育階段、詞匯量和認(rèn)知能力。開發(fā)者還需要與教育工作者、兒童安全專家、人工智能倫理學(xué)家和心理學(xué)家合作,定期審查和增強(qiáng) LLM 的安全功能,確保其符合兒童保護(hù)的最新最佳實(shí)踐。
學(xué)校與家庭的參與也是至關(guān)重要的。教育者需要與家長或監(jiān)護(hù)人就教育環(huán)境和家庭中安全使用 LLM 進(jìn)行討論,并確保 LLM 提供教育父母有關(guān)安全措施的可用資源。此外,LLM 應(yīng)提供允許教育者和看護(hù)人共同設(shè)置權(quán)限、監(jiān)控兒童的交互以及控制兒童可以通過 LLM 訪問的內(nèi)容類型的特征或設(shè)置。通過這些措施,可以確保 LLM 在教育領(lǐng)域的長期應(yīng)用既安全又有效。