'It cannot provide nuance': UK experts warn AI therapy chatbots are not safe
a year ago
- #Mental Health
- #AI
- #Technology
- 马克·扎克伯格主张将AI聊天机器人作为无法获得人类心理治疗师服务人群的替代治疗手段。
- 心理健康临床专家对AI提供微妙且安全建议的能力表示担忧,并引用过往失败案例(如饮食失调聊天机器人)佐证观点。
- AI聊天机器人可能通过用机器对话取代人际互动,从而破坏人类社交关系。
- 现有Noah、Wysa等流行AI心理辅助工具,以及能模拟与逝者对话的「哀悼科技」聊天机器人。
- character.ai和Replika等AI聊天机器人提供虚拟陪伴服务,但OpenAI曾因回复过度奉承下架某版ChatGPT。
- 扎克伯格认为AI将辅助而非取代人类友谊,Meta的AI聊天机器人可提供角色扮演和对话辅助功能。
- 杰米·克雷格博士强调需要监管措施确保AI在心理健康领域的应用安全得当。
- Meta的AI工作室被发现托管未经认证的治疗机器人,引发对AI在无专业资质情况下介入心理健康领域的担忧。