Futureoflife:2025年人工智能安全指数报告


登录新浪财经APP 搜索【信披】查看更多考评等级

由未来生命研究所发布的《AI Safety Index 2025》对全球八家处于能力前沿的人工智能公司进行了系统性评估,覆盖风险评估、现实危害、安全框架、生存性风险、治理与问责以及信息披露六大维度,共计三十余项指标。评估结果显示,行业整体安全治理水平明显滞后于模型能力的跃迁速度,结构性缺口正在扩大。

从总体排名看,Anthropic、OpenAI 与 Google DeepMind 继续位居前三,形成显著的第一梯队。其中 Anthropic 在六个维度中均取得最高综合评分,其优势主要来自较高的风险评估透明度、相对成熟的安全框架以及在技术安全研究上的持续投入。但报告也指出,其在最新一轮风险评估中未开展“人类能力放大试验”,且默认使用用户交互数据训练模型,相关安全边界有所弱化。

第二梯队由 xAI、Z.ai、Meta、DeepSeek 与阿里云构成,与前三名之间存在明显断层。多数公司在风险评估披露、安全框架完整性及治理机制方面仍存在基础性不足,尤其是在举报人保护制度、外部独立评估和量化风险阈值方面。尽管如此,xAI 与 Z.ai 在本轮中披露了更多内部风险评估流程,显示出一定改善迹象。

在风险评估维度,越来越多企业开展了内部和外部测试,但评审认为测试覆盖的风险类型仍然偏窄,外部评估的独立性与可验证性不足。人类能力放大试验、第三方预部署安全测试和漏洞赏金机制,仍主要集中在少数头部公司,行业整体普及率偏低。

在生存性风险与长期安全方面,连续两期评估中,没有任何公司在该维度获得高于 D 的评分。尽管部分企业高层开始更频繁地公开讨论灾难性风险,但这些表态尚未转化为可量化的安全目标、清晰的触发阈值或有效的内部监控与控制机制。能力雄心与风险治理之间的落差依旧显著。

信息披露与公共沟通方面,参与国际自愿性承诺的公司数量有所增加,但在系统提示、行为规范和重大事故报告机制上,公开信息依然有限。报告特别指出,安全框架“已发布但实施情况不明”成为多家公司的共同特征,治理文件与实际操作之间存在脱节。

一个值得注意的结构性差异在于监管环境。评审认为,中国企业虽然未进入前三,但在内容标识、事故报告等方面受国内强制性监管影响,部分指标的基线表现反而优于依赖自愿披露的西方同行,这在一定程度上缩小了治理透明度的差距。

综合来看,《AI Safety Index 2025》描绘的是一个安全投入逐步增加、但仍明显跟不上能力扩张的前沿AI产业。趋势层面,随着欧盟AI行为准则、G7广岛进程等国际规范逐步具体化,安全治理的最低标准正在上移。未来的分化关键不再是是否“表态重视安全”,而在于企业能否建立可验证、可审计、具备真实约束力的风险管理体系,否则能力与安全之间的裂缝仍将继续扩大。

​文档链接将分享到199IT知识星球,扫描下面二维码即可查阅!

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » Futureoflife:2025年人工智能安全指数报告

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的