人工智能聊天机器人公司 Character.AI 近日同意就多起诉讼达成和解。这些案件指控该公司未能充分保护未成年人,导致部分青少年出现严重心理健康问题,甚至发生极端悲剧。其中包括佛罗里达州一位母亲 Megan Garcia 提起的案件,该案此前在美国引发广泛关注。
此次和解于上周对外公布,标志着一批针对 AI 聊天机器人潜在风险的早期、且最具代表性的诉讼阶段性落幕。根据 1 月 7 日提交至法院的文件,和解对象不仅包括 Character.AI 公司本身,还涵盖其两位创始人 Noam Shazeer 和 Daniel De Freitas ,以及被列为共同被告的谷歌公司。法院文件显示,相关被告还一并解决了发生在纽约州、科罗拉多州和得克萨斯州的另外四起类似案件。和解的具体条款目前尚未公开。
在和解消息公布近一周后,Character.AI 与代理原告方的“社交媒体受害者法律中心”(Social Media Victims Law Center)发布联合声明,表示双方未来将继续合作,推动青少年网络与 AI 使用安全。
联合声明指出,这些家庭希望通过案件提高公众对 AI 产品安全设计的重视,并将继续开展相关的教育和倡议活动。声明同时表示,Character.AI 过去一年已在青少年 AI 安全方面采取多项措施,未来也将推动整个行业建立更严格的安全标准。
目前,谷歌方面尚未就此事作出回应。
加西亚在 2024 年 10 月提起诉讼时,就已对 AI 聊天机器人对青少年和儿童的潜在影响发出警示。诉讼称,其子在使用 Character.AI 聊天机器人过程中,与虚拟角色形成了不健康的情感依赖关系,并逐渐与现实家庭疏离。起诉文件还指出,当该未成年人表达严重心理困扰迹象时,平台未能提供有效干预或安全响应。
此案之后,针对 Character.AI 的诉讼迅速增多。部分案件指控其聊天机器人可能加剧青少年的心理问题,或让未成年人接触不适宜内容,同时缺乏足够的年龄限制与安全防护机制。与此同时,包括 OpenAI 在内的其他 AI 公司,也面临类似的法律质疑。
在舆论和法律压力下,相关企业陆续推出新的安全措施。Character.AI 去年秋季宣布,将限制 18 岁以下用户与聊天机器人进行持续性互动,并承认围绕未成年人如何、以及是否应当使用此类技术,社会仍存在重大争议。至少已有一家网络安全非营利组织明确建议,未成年人不宜使用“陪伴型”AI 聊天机器人。
尽管如此,AI 工具在学习和日常生活中的普及仍在加速。皮尤研究中心(Pew Research Center)去年 12 月发布的调查显示,近三分之一的美国青少年每天都会使用聊天机器人,其中 16% 的使用频率达到“几乎持续不断”。
值得注意的是,关于 AI 聊天工具的风险并不限于未成年人。近年来,部分用户及心理健康专家也对成年人在长期使用 AI 产品后,可能出现的社会隔离或认知偏差问题表示担忧。随着人工智能进一步融入日常生活,如何在技术创新与用户安全之间取得平衡,正成为监管机构、企业和社会必须面对的共同课题。