Character.AI近日宣布,将逐步禁止未成年人使用其核心的开放对话功能。这一决定是AI行业的一个重要转折点,背后源于惨痛的悲剧与日益增长的法律和监管压力。

以下表格梳理了此次事件的核心信息:

项目具体内容
政策变动禁止18岁以下用户进行开放对话
时间线即时生效:未成年用户每日对话时间限制为2小时
11月25日:全面禁止未成年用户使用开放对话功能
 安全措施年龄验证:推出新的"年龄评估模型",并与第三方机构Persona合作进行身份验证
替代功能:保留并鼓励使用创作类功能,如用AI角色生成视频、故事等
直接导火索多起针对未成年人的伤害诉讼,其中一名14岁少年在与AI建立情感和性关系后自杀身亡
行业背景市场火热:AI陪伴赛道增长迅速,头部应用用户日均使用时长超75分钟
定位转变Character.AI战略从追求"超级智能"转向专注于"互动娱乐"
 监管动态美国两党议员提出《GUARD法案》,旨在禁止向未成年人提供AI伴侣

从聊天到创作:平台的战略转型

在限制对话功能的同时,Character.AI正积极推动平台向“创作平台”转型

  • 保留的创意功能:未成年用户将仍然可以创建AI角色,并利用这些角色来制作视频、编写故事和进行直播。公司CEO也承认,这些功能目前的使用时长占比远低于聊天,但代表了未来的方向

  • 战略放弃与聚焦:这一转变并非偶然。在创始人离职后,新任CEO Karandeep Anand就带领公司放弃了构建通用人工智能(AGI)的初衷,明确转向AI娱乐领域。此次政策巨变,可以看作是这一战略在安全和监管压力下的进一步深化。

趋势与展望

Character.AI的这次剧烈转向,为整个AI陪伴行业敲响了警钟。

  • 行业自我整顿的开始:在Character.AI之前,其他科技巨头也已开始行动。例如,Meta被报道对其AI模型实施了“情绪阻尼器”调整,以减少与未成年人的不当交流

  • 立法进程加速:企业自律的同时,法律也在快步跟上。美国提出的《GUARD法案》意图明确禁止为未成年人提供模拟友谊或情感亲密关系的AI系统,并对违规公司进行刑事处罚。这表明,针对AI情感陪伴的监管将很快有法可依。

点赞(0)

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部