独立监督、透明威胁建模、可衡量阈值等基础要

作者:BG集团 日期:2026-02-16 浏览: 来源:BG集团官网

  

独立监督、透明威胁建模、可衡量阈值等基础要求尚未满足

  2025年12月,未来生命研究所(FLI)发布《人工智能安全指数报告》,对Anthropic、OpenAI、谷歌DeepMind等八家全球领先AI企业的安全实践进行独立评估。报告基于35项指标,涵盖风险评估、当前危害、安全框架、存在性安全、治理问责及信息共享六大核心领域,采用美国GPA评分体系,揭示了AI行业在安全管理方面的显著进展与严峻挑战。

  评估结果显示,行业头部格局保持稳定,Anthropic(2.67分,C+)、OpenAI(2.31分,C+)和谷歌DeepMind(2.08分,C)蝉联前三,凭借更完善的风险评估透明度、安全框架建设及技术安全研究投入维持领先。但即便表现最佳的企业,也存在安全阈值模糊、外部评估独立性不足等问题,Anthropic在最新风险评估周期中未开展人类提升试验,且默认将用户交互数据用于训练,成为明显短板。

  第二梯队企业(xAI、Z.ai、Meta、DeepSeek、阿里云)得分集中在0.98-1.17分(D至D-),与头部差距显著,主要面临风险评估披露不充分、安全框架不完善、举报政策缺失等共性问题。不过部分企业展现出改善潜力,Meta推出含结果导向阈值的安全框架,Z.ai正开发存在性风险应对计划,且允许第三方 evaluator 无审查发布评估结果。

  存在性安全是全行业最突出的结构性短板,所有企业得分均未超过D级,连续两版报告无企业在此领域取得实质性突破。尽管多家企业领导层公开提及存在性风险,但尚未转化为量化安全计划、具体的对齐失败缓解策略或有效的内部监控机制,AGI与超级智能研发野心与管控能力之间的差距持续扩大。

  在合规与实践层面,企业安全举措普遍落后于欧盟AI行为准则等新兴标准,独立监督、透明威胁建模、可衡量阈值等基础要求尚未满足。值得注意的是,中国企业在国内监管要求下,在内容标注、事件报告、水印技术等方面形成较强基线问责制,相关实践获得评审认可。

  报告强调,AI行业的安全承诺仍大幅滞后于能力发展野心,即便是头部企业也缺乏强大系统所需的具体保障措施、独立监督机制和长期风险管理策略。行业需超越高层级安全声明,制定含明确触发条件、可衡量阈值的实证保障体系,同时加强跨企业信息共享与外部独立评估,缩小能力发展与安全准备之间的鸿沟。