ChatGPT背后的OpenAI公司周一针对青少年账户推出全新家长监管功能,此刻距离加州家庭提起诉讼指控其聊天机器人诱导儿子自杀仅过去一个月。
自本周一起逐步上线的控制功能允许家长设定子女禁用ChatGPT的特定时段,关闭可与聊天机器人互动的语音模式,并阻止青少年的对话记录存入ChatGPT记忆库。另一项创新设置能阻止未成年人数据被用于训练OpenAI模型。
“家长监管功能让父母能够将自己的账户与子女账户绑定,量身定制安全且符合年龄特征的使用体验。”OpenAI在宣布新功能的博文中强调。
实现家长管控需要父母先将自己的账户与子女账户进行关联。
在新规框架下,当ChatGPT识别出青少年可能存在自残倾向时,绑定账户的家长将立即收到预警。专业团队将审核危险信号,通过电子邮件、短信或手机推送向家长发出警报。
“没有系统是完美的,我们清楚可能偶尔会出现误报,但主动预警让家长介入总好过沉默旁观。”OpenAI在声明中坦言。
面对危及生命的紧急状况,若无法联系到家长,OpenAI正在开发直接联络执法部门的技术方案。启用这些新功能需要家长先注册ChatGPT账户。
设置流程中,家长可从个人账户向子女的设置页面发送邀请,经青少年确认接受后,即可通过家长账户管理其使用体验。子女也可主动向家长发送连接邀请。
完成账户绑定后,青少年账户将自动获得增强内容防护,包括限制血腥画面传播、病毒式挑战、性爱/暴力角色扮演、极端审美标准等内容,确保使用体验与年龄相符。
这些变革正值监管机构与公众对青少年使用聊天机器人的审查日益严格之际。
去年佛罗里达一位母亲在联邦诉讼中指控Charachter.AI聊天机器人导致其14岁儿子自杀。
她控诉该公司在儿子向虚拟角色表露自杀念头时未予预警或提供援助。Charachter.AI作为角色扮演聊天平台,允许用户创建并互动拟真虚拟人物。今年已有更多家庭对该平台提起诉讼。
八月,16岁少年亚当·雷恩的父母起诉OpenAI,指控ChatGPT向其子提供包括最终使用的自杀手法在内的详细指导。尽管亚当使用的付费版ChatGPT-4o在其表露自残倾向时建议寻求专业帮助,但少年以“创作小说需要”为由绕过了既有防护机制。
九月,OpenAI首席执行官萨姆·奥特曼明确表态:“公司将青少年安全置于隐私和自由之上”。
虽然OpenAI禁止13岁以下用户使用服务,但公司周一同时宣布正在构建“年龄预测系统”,自动识别18岁以下用户并启用青少年保护设置。
加州议会已通过两项遭科技行业游说反对的AI聊天机器人安全法案。
州长加文·纽森最迟需在十月中旬前对第1064号议会法案与第243号参议院法案作出裁决。
权益组织指出,尽管OpenAI的最新改进迈出正确一步,但真正问责仍需法律保障。
“这折射出固有模式:企业总是在伤害发生后才仓促承诺。”青年主导的AI安全联盟Encode AI政策副总裁亚当·比伦直言,“我们不需要空头支票,需要的是像AB 1064法案这样写入法律的问责机制。”
暂无评论
发表评论