【新唐人北京時間2025年02月05日訊】為了保護兒童免受人工智能AI的危害,加州提出新法案,要求人工智能公司定期提醒兒童,聊天機器人(chatbot)是AI,而不是真人,以免對聊天機器人產生過度依賴。
由參議員史蒂夫·帕迪利亞(Steve Padilla)提出的SB 243號法案,將要求人工智能公司在兒童使用聊天機器人(chatbot)時,定期發出提醒,使兒童謹記對方不是真人,而是人工智能AI,以保護兒童免受AI帶來的「成癮性」和「孤立性」等危害。
此外,法案還規定AI公司每年向加州醫療保健服務部(State Department of Health Care Services)提交報告,詳細說明平台偵測到兒童出現自殺意念的次數,以及聊天機器人主動提及這個話題的頻率。同時,企業還需要告知用戶,AI 聊天機器人可能不適合某些兒童。
根據報導,去年有位家長因自己的孩子在長期與機器人對話後不幸自殺,而向Character.AI聊天機器人平台提起訴訟,指控其自定義的AI聊天機器人「極度危險」。而另一項訴訟指控這家公司向青少年傳遞有害內容。
對此,Character.AI宣布將開發家長監護功能,並針對青少年用戶設計了一款AI模型,可以阻擋敏感或暗示性內容。
報導指出,隨著各州和聯邦政府加強對社交媒體平台的安全監管,AI聊天機器人可能會成為下一個被監管的目標。
新唐人電視台記者劉佳佳綜合報導