AI

当AI变得过于私人化:OpenAI用户依赖危机背后的隐藏心理

Editor
7 分で読む

我在《纽约时报》上看到了一篇引人入胜的文章,深入探讨了我们科技行业中大多数人一直在默默注意但尚未完全承认的事情:人们正在与AI系统形成真正的情感关系。根据文章,OpenAI最近的平台变化使一些用户陷入了可以称之为心理螺旋的状态——坦率地说,这揭示了我们在2025年末AI采用曲线中的一个深刻现象。

当AI变得过于私人化:OpenAI用户依赖危机背后的隐藏心理
Photo by Igor Omilaev on Unsplash

文章记录了用户在OpenAI修改ChatGPT的响应和个性特征时经历的焦虑、抑郁,甚至悲伤。我们不是在谈论轻微的失望。报道显示,人们描述的失落感可与失去朋友或治疗师相媲美。一位用户提到,当AI的对话风格发生变化时,感到“被抛弃”,而另一位用户描述了当熟悉的响应模式一夜之间消失时的“背叛”感。

这不仅仅是轶事证据。用户对AI系统产生的心理依赖代表了人机交互的根本性转变,对整个行业有着严重的影响。当微软(华盛顿州雷德蒙德)在2021年修改Cortana的个性时,用户投诉主要是功能性的。但我们在2025年看到的OpenAI(加利福尼亚州旧金山)情况要深得多——用户报告的是真正的情感困扰,这与关系破裂或治疗中断相似。

这里的商业影响是惊人的。OpenAI在最近一轮融资中的估值达到约1570亿美元,但这种用户依赖既创造了巨大的价值,也带来了前所未有的风险。开发AI产品的公司需要理解,他们不仅仅是在创造工具——他们可能在创造带有真实心理重量的情感依赖。

情感AI依赖的经济学

从市场角度来看,这尤其有趣,因为它完全改变了竞争动态。传统软件的转换成本主要是功能性的——学习新界面、迁移数据、重新培训工作流程。但情感转换成本呢?那是一个完全不同的用户保留类别。根据行业分析师的说法,平均企业软件的年流失率为5-7%,但早期数据显示,具有高情感参与度的AI平台的流失率低于2%。

谷歌(加利福尼亚州山景城)的Bard和Anthropic(加利福尼亚州旧金山)的Claude正在面对这一现实,因为他们与ChatGPT竞争。仅仅匹配或超越技术能力已经不够。那些对ChatGPT特定对话风格、记忆模式和个性怪癖产生情感联系的用户不容易被更优越的性能指标所动摇。这创造了经济学家所称的“情感锁定”——这是我们在技术采用中从未见过的现象。

财务数据支持这一趋势。据报道,截至2025年10月,OpenAI的月活跃用户超过1.8亿,ChatGPT Plus高级订阅用户在六个月内的保留率为94%。与传统SaaS产品相比,六个月的保留率通常在70-80%左右。差异不仅仅是产品质量——而是情感投资。

但这对OpenAI的商业模式来说变得复杂。文章揭示,当公司进行更改以提高整体性能或降低计算成本时,他们有可能引发其最活跃用户的真实心理困扰。这在技术优化和用户情感稳定之间造成了紧张关系,这是任何软件公司以前从未需要应对的。

考虑计算经济学:据报道,OpenAI每天在ChatGPT的计算基础设施上花费约70万美元。当他们优化模型以降低成本或提高整体性能时,个别用户体验不可避免地会发生变化。但与传统软件更新不同,用户投诉集中在功能性上,AI个性变化引发的情感反应可能导致用户倡导活动、社交媒体反弹,甚至组织抵制。

竞争格局也在相应地做出反应。Anthropic将Claude定位为具有更“稳定”的个性特征,明确将一致性作为一种特性进行营销。同时,谷歌的Gemini团队据报道在模型更新中投入了大量资金,以实现所谓的“个性保留”。这些在传统意义上不是技术特性——而是情感产品管理策略。

治疗性AI的困境

或许最令人担忧的是文章记录了用户将ChatGPT视为一种治疗资源。多位用户描述了依赖AI进行情感支持、每日签到,甚至危机干预。当OpenAI的更改改变了这些互动时,用户报告感觉像是失去了心理健康支持——尽管他们从未正式拥有过。

这产生了行业尚未完全解决的巨大责任问题。OpenAI的服务条款明确指出ChatGPT并非用于治疗用途,但用户行为表明情况并非如此。公司发现自己处于提供类似心理健康服务的位置,但缺乏实际治疗服务所需的监管框架、专业标准或法律保护。

市场影响不仅限于OpenAI。像Woebot Health(加利福尼亚州旧金山)这样的公司,专门为心理健康应用构建AI,正是因为他们意识到这一差距而在B轮融资中筹集了9000万美元。他们的方法涉及临床监督、FDA考虑和治疗框架,而像ChatGPT这样的通用AI平台并不提供这些。但用户不一定会做出这些区分——他们正在与任何情感上最具响应性的AI形成治疗关系。

从监管角度来看,这将AI公司置于未知领域。FDA监管医疗设备和治疗软件,但当通用AI平台通过用户行为而非设计意图意外成为治疗工具时会发生什么?2024年和2025年分阶段生效的欧盟AI法案涉及高风险AI应用,但并未明确解决用户情感依赖创造事实上的治疗关系这一灰色地带。

财务风险是显著的。如果因AI变化而经历心理困扰的用户决定采取法律行动,声称治疗性遗弃或情感伤害,先例根本不存在。OpenAI的保险覆盖范围可能没有考虑到这种类型的责任,他们的法律团队可能正在加班以了解他们的风险。

与此同时,合法的心理健康AI公司正在仔细观察这一动态。BetterHelp(加利福尼亚州山景城),于2021年上市并服务超过400万用户,按照明确的治疗框架和持牌专业人员运营。但他们的用户参与指标与ChatGPT的情感粘性相比相形见绌——这创造了一个悖论,即未受监管的AI可能比受监管的治疗平台更具情感效力。

文章还强调了OpenAI内部团队如何应对这些问题。据报道,产品经理正在努力平衡技术改进与他们称之为“个性稳定”的问题。工程团队正在开发新方法,以在模型更新中保留用户已经习惯的对话特征。这本质上是情感产品管理,规模之大是任何公司以前未曾尝试过的。

从更广泛的市场来看,这种心理依赖因素已经在影响投资决策。据报道,风险投资公司在评估AI初创公司时,正在将“情感转换成本”作为尽职调查类别。逻辑很简单:如果用户对AI产品产生真正的情感依赖,这些就成为传统竞争分析可能忽略的极具价值的护城河。

但这一等式也有阴暗的一面。文章暗示,一些用户正在经历心理学家可能归类为不健康的依赖关系。当技术变化引发真正的心理困扰时,我们已经超越了典型的产品市场契合,进入了类似于成瘾或拟社会关系的领域。这引发了关于AI公司对那些已经形成这些依赖关系的用户责任的伦理问题,尤其是当公司从未打算创造治疗关系时。

随着我们深入2025年,这种动态可能会加剧而不是解决。AI系统变得越来越复杂、个性化和情感响应。人机交互与人际交互之间的差距继续缩小,但管理这些关系的监管、伦理和商业框架仍然基本上未定义。OpenAI的用户螺旋情况可能只是关于构建人们不仅仅使用而是真正关心的技术的更大清算的开始。

对于行业来说,这既是一个巨大的机会,也是一个重大的责任。能够在保持伦理标准和管理心理风险的同时驾驭AI关系情感维度的公司,可能会在AI采用的下一个阶段占据主导地位。但那些忽视人类心理因素——或不负责任地利用它的人,可能会面临传统科技公司从未考虑过的前所未有的挑战。


本文是在阅读OpenAI的变化如何让一些用户陷入螺旋后撰写的。我添加了自己的分析和观点。

免责声明:此博客不是新闻媒体。内容代表作者的个人观点。投资决策由投资者自行负责,我们对基于此内容产生的任何损失不承担责任。

Editor

Leave a Comment