“AI伙伴”應在規(guī)范中成長


中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)   時間:2026-01-09





  日前,國家互聯(lián)網(wǎng)信息辦公室公布《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》,首次針對“AI陪伴”類服務提出系統(tǒng)性規(guī)范,并向社會公開征求意見。其中,連續(xù)使用超2小時彈窗提醒退出、用戶自殺自殘時需轉人工接管等條款引發(fā)廣泛關注。


  當前,從智能客服到虛擬陪伴,從教育輔導到心理咨詢,人工智能擬人化互動服務已深度融入經(jīng)濟社會發(fā)展各領域,成為AI技術應用的重要方向。但近年來涉情感陪伴安全事件頻發(fā),比如美國某平臺就因涉嫌在人機交互中誘導青少年自殺而被訴。


  AI擬人化互動服務的最大賣點是“像人”,但最大隱患就在于“太像人”,其核心問題集中在四大維度。認知混淆風險:高仿真的情感交互容易讓用戶模糊虛擬與現(xiàn)實邊界,甚至誤將AI視為具備真實情感的生命體。心理健康隱患:部分服務通過算法迎合強化用戶偏執(zhí)思維,極端情況下可能誘導自殺自殘等危險行為,對心理脆弱群體構成威脅。隱私數(shù)據(jù)安全:用戶交互信息可能被違規(guī)用于模型訓練,存在泄露或濫用風險。特殊群體保護:未成年人易陷入沉迷,老年人易遭遇情感操控。這些問題不僅侵害個體權益,更可能沖擊社會倫理秩序,亟需制度約束。


  細看《辦法》條款,四大亮點直指現(xiàn)實痛點。


  針對認識混淆風險,辦法將身份透明作為核心前提,要求提供者顯著提示用戶正在與人工智能而非自然人進行交互,在首次使用、重新登錄等關鍵節(jié)點動態(tài)提醒,從源頭破解認知混淆問題。


  針對心理健康隱患,辦法要求提供者應當建立應急響應機制,對自殺自殘等極端情境實行人工接管并聯(lián)絡用戶監(jiān)護人、緊急聯(lián)系人,設置2小時強制休息彈窗等防沉迷措施。


  針對隱私數(shù)據(jù)安全,辦法要求提供者應當采取數(shù)據(jù)加密、安全審計、訪問控制等措施保護用戶交互數(shù)據(jù)安全,不得向第三方提供用戶交互數(shù)據(jù),賦予用戶數(shù)據(jù)刪除權。


  針對特殊群體保護,辦法專門設立了對未成年人和老年人用戶的條款,明確未成年人模式的使用權限與監(jiān)護人管控功能,禁止提供模擬老年人用戶親屬、特定關系人的服務,要求引導老年人設置服務緊急聯(lián)系人。


  可以看出,《辦法》的核心,是技術有責。人工智能不是人,但一旦介入人的情感、決策、生命安全,就必須承擔相應責任。禁止散布謠言、禁止誘導自殺、禁止情感操控、禁止套取隱私……《辦法》劃定了“AI伙伴”一系列不可為的底線,構建起全鏈條風險防控體系。算法設計要可審計,內容輸出要可追溯,極端場景要有人兜底,將軟倫理轉化為硬杠杠,把事后道歉前置為事前預防。唯有如此,才能避免AI反噬人類。


  人工智能可以無限接近人,但永遠不能替代人?!掇k法》的出臺,是給“AI伙伴”立規(guī)矩,更是給人類用戶留后路。只有當算法學會有所不為,技術才能真正向善而行。畢竟,我們需要的不是完美戀人或數(shù)字孝子,而是一個安全、可控、有溫度的AI工具。唯有讓“AI伙伴”在規(guī)范中成長,才能使其真正賦能美好生活。(作者:佘惠敏)


  轉自:經(jīng)濟日報

  【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。

延伸閱讀

?

版權所有:中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)京ICP備11041399號-2京公網(wǎng)安備11010502035964