【新唐人北京时间2025年02月05日讯】为了保护儿童免受人工智能AI的危害,加州提出新法案,要求人工智能公司定期提醒儿童,聊天机器人(chatbot)是AI,而不是真人,以免对聊天机器人产生过度依赖。
由参议员史蒂夫·帕迪利亚(Steve Padilla)提出的SB 243号法案,将要求人工智能公司在儿童使用聊天机器人(chatbot)时,定期发出提醒,使儿童谨记对方不是真人,而是人工智能AI,以保护儿童免受AI带来的“成瘾性”和“孤立性”等危害。
此外,法案还规定AI公司每年向加州医疗保健服务部(State Department of Health Care Services)提交报告,详细说明平台侦测到儿童出现自杀意念的次数,以及聊天机器人主动提及这个话题的频率。同时,企业还需要告知用户,AI 聊天机器人可能不适合某些儿童。
根据报导,去年有位家长因自己的孩子在长期与机器人对话后不幸自杀,而向Character.AI聊天机器人平台提起诉讼,指控其自定义的AI聊天机器人“极度危险”。而另一项诉讼指控这家公司向青少年传递有害内容。
对此,Character.AI宣布将开发家长监护功能,并针对青少年用户设计了一款AI模型,可以阻挡敏感或暗示性内容。
报导指出,随着各州和联邦政府加强对社交媒体平台的安全监管,AI聊天机器人可能会成为下一个被监管的目标。
新唐人电视台记者刘佳佳综合报导