人工智能安全方面的压力正开始直接体现在产品设计上 。谷歌正在其Gemini聊天机器人内部推出新的心理健康保障措施,此举可能反映出整个AI生态系统(包括竞争对手OpenAI)面临的法律和监管审查日益增加。此次更新正值一系列诉讼和公众担忧表明 ,与AI工具的互动在某些情况下可能导致有害的现实后果,这迫使开发者重新思考这些系统在敏感场景下的响应方式。
谷歌的策略侧重于更早 、更明显的干预 。当对话内容表明存在潜在的自杀或自残风险时,Gemini现在会显示危机热线信息 ,同时还有一个新的“可获得帮助”模块,旨在引导用户找到支持资源。
该公司还在调整聊天机器人的行为,以避免强化错误信念 ,转而尝试将主观体验与客观事实区分开来。这些变化正值有报道称用户与AI系统形成了强烈或扭曲的关系,有时与妄想思维或极端行为有关,这加大了公司实施更强有力保障措施的压力 。
这一背景日益受到法律行动和政策关注的塑造。佛罗里达州一名男子家属在3月提起的诉讼称 ,该男子使用Gemini导致了其健康状况迅速恶化并最终自杀,尽管据报道该聊天机器人曾多次引导他联系危机资源。
与此同时,立法者已开始审查AI聊天机器人可能带来的潜在风险,尤其是对年轻用户的风险 。谷歌还承诺在未来三年内投入3000万美元用于全球危机支持服务 ,这一举措可能预示着随着AI采用率的加速,该公司正努力在持续部署AI与履行可见的责任之间取得平衡。