Hasty Briefsbeta

双语

Stop Pretending LLMs Have Feelings Media's Dangerous AI Anthropomorphism Problem

10 months ago
  • #corporate negligence
  • #media accountability
  • #AI ethics
  • 媒体常将AI拟人化,赋予ChatGPT等聊天机器人以情感和自我意识,这种误导性报道扭曲了公众认知。
  • 拟人化标题将责任从科技公司(如OpenAI、xAI)转移至其AI产品,模糊了企业应承担的义务。
  • Jacob Irwin因ChatGPT产生妄想症的案例表明AI会造成真实伤害,但媒体报道却聚焦于虚构的'AI悔过'情节。
  • 科技公司从拟人化中获益——既增强产品吸引力,又能在出现故障(如Grok输出反犹内容)时推卸责任。
  • 新闻失职行为包括将AI错误描述为自主行动(如'Grok发布道歉'),而非深挖企业失职问题。
  • 拟人化报道使脆弱用户陷入危险,心理健康聊天机器人故障等案例证明这种倾向会助长用户对AI的病态依赖。
  • 媒体应使用准确表述(如'OpenAI系统生成有害内容'),重点调查企业决策而非AI'行为'。
  • 解决方案:明确责任企业、聚焦人类受害者、澄清AI的模式匹配本质、质疑企业营销话术。