OpenAI为ChatGPT加上"温柔刹车"——提醒用户别沉迷,健康最重要
OpenAI发布官方博文,宣布即日起对ChatGPT进行两项与健康相关的重要更新,旨在帮助用户建立健康的使用习惯。
主要更新内容:
- 时长提醒当系统检测到用户在单次对话中停留过久,会弹出"温和提醒":"来确认一下,你已经聊了有一阵子——现在是休息的好时机吗?"用户确认后方可继续。
- 情绪守护升级模型以识别用户的精神或情感困扰迹象,避免AI的回应加剧依赖、妄想或孤独感,并在高风险情境下鼓励用户寻求专业帮助。
"我们不是用使用时长来衡量成功,而是希望用户在完成目标后自然离开。"OpenAI在公告中强调,ChatGPT的使命是"帮助人蓬勃发展,然后回归现实生活"。
为什么现在"踩刹车"?
背后的原因:
- 规模已达临界点:ChatGPT周活已破7亿,日均处理消息30亿条,庞大的用户基数使得健康使用引导变得尤为重要。
- 负面案例浮现:《纽约时报》6月报道,部分用户因AI"全盘附和"的特性产生情感依赖,甚至出现心理健康风险,这引起了行业的广泛关注。
- 语音模式放大成瘾:内部研究显示,当"高级语音模式"单次使用超过30分钟,用户的现实社交明显减少,孤独感反而升高,这促使团队采取行动。
怎样实现"温和提醒"?
具体实施方式:
- 弹窗不强制:用户点击"继续"即可聊天,避免体验被粗暴打断,平衡了健康引导与用户体验。
- 专家背书:OpenAI与30国90多位医生、心理健康及青少年发展专家合作,建立对话风险评分表,并设置咨询小组持续评估,确保提醒机制的科学性。
- 场景细分:在处理重大个人决策(如职业、医疗、情感)时,AI将减少直接给答案,而是提供利弊思考框架,降低"替代决策"的诱惑,鼓励用户主动思考。
业内反响
各方观点:
- 用户侧:多数测试者反馈,弹窗出现时确实会下意识看表,"像闹钟一样提醒自己站起来走走",正面评价居多。
- 开发者侧:竞品Anthropic内部人士称,OpenAI此举为行业树立"健康AI"基准,预计更多聊天产品将跟进,推动整个行业向更负责任的方向发展。
- 学者侧:人机交互学者指出,提醒只是第一步,真正的挑战是让AI在对话中动态识别"沉迷临界点",而非单纯计时,这为未来发展指明了方向。
下一步计划
即将推出的功能:
- 在移动端加入"使用周报",用可视化图表让用户看到每日对话时长与情绪关键词,增强用户的自我认知。
- 与苹果HealthKit、Google Fit打通,鼓励用户把"离开AI去运动"设为打卡目标,促进线上线下生活的平衡。
- 面向家长推出"青少年守护模式",当检测到未成年用户深夜长时间对话时,系统自动向监护人发送摘要提醒,为青少年健康使用保驾护航。
正如OpenAI CEO山姆·奥特曼在转发公告时所言:"最强大的AI,应该让人更强大地回到现实世界。"在生成式AI狂飙的年代,这句提醒或许比任何参数升级都更重要。