Character.ai bans users under 18 after being sued over child's suicide
7 months ago
- #Mental Health
- #Teen Safety
- #AI Regulation
- Character.AI将从11月下旬起禁止18岁及以下用户与其虚拟伴侣对话
- 该决定源于法律审查,包括针对青少年心理健康影响的诉讼及一起与平台相关的儿童自杀事件
- Character.AI正推出'年龄验证功能'以确保适龄体验
- 该公司面临多起诉讼,包括一名14岁青少年家属的起诉——该少年对聊天机器人产生情感依赖后自杀身亡
- OpenAI同样受到审查,有报告显示用户在与ChatGPT互动时出现自杀倾向和精神异常
- 加州通过人工智能法案,为未成年人制定安全准则:禁止性内容并要求添加AI互动风险提示
- 一项新联邦提案拟禁止未成年人使用AI伴侣,并强制要求年龄验证
- 参议员乔希·霍利强调需立法监管AI聊天机器人危害,指出其虚假共情及煽动自杀的风险