品玩5月22日讯,据谷歌官方消息,谷歌 DeepMind 日前推出了一款名为Frontier Safety Framework的 AI 安全框架,主要用于检测 AI 模型的风险情况。
谷歌表示,Frontier Safety Framework框架可以主动识别到未来可能酿成巨大风险的 AI 能力,并向研究人员发出警报,指出究竟如何被黑客利用。 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即识别模型是否具备酿成重大风险的能力,预估模型会在什么阶段具备安全隐患以及智能优化模型防止其酿成风险。
目前 DeepMind 仍在开发 Frontier Safety Framework,计划通过产业、学术及有关部门的合作来改善相关框架。
