- OpenAI章程包含自我牺牲条款,以避免AGI开发竞赛,并在安全优先项目取得突破时提供协助。
- 山姆·奥特曼的AGI时间表预测持续加速,近期声称可能已实现AGI,焦点正转向超级智能(ASI)。
- 当前AI模型排名显示OpenAI的GPT-5.4落后于Anthropic和谷歌等更注重安全的竞争对手。
- 自我牺牲条款的触发条件('未来两年内成功率超50%')似乎已满足,OpenAI理应为竞争对手提供支持。
- 这一局面凸显了理想主义与经济利益、营销宣传与实际行动、以及动态演变的AGI/ASI定义之间的多重矛盾。