66安卓网:绿色免费的软件下载站! 手机游戏| 街机游戏| 新游| 人气手游| 最新更新

前OpenAI政策主管发起成立独立的人工智能安全审计机构

来源: 66安卓网 日期:2026-04-09 14:09:47
首页热门资讯软件教程 → 前OpenAI政策主管发起成立独立的人工智能安全审计机构

曾在OpenAI主导政策研究长达七年的迈尔斯·布伦达奇,正通过其新成立的机构AVERI呼吁对头部人工智能模型开展外部审计。他认为,行业不应再被默许“自己批改自己的作业”。

迈尔斯·布伦达奇创办了人工智能验证与评估研究所(AVERI),该机构是一家致力于推动对前沿人工智能模型开展独立安全审计的非营利组织。布伦达奇曾在2024年10月从OpenAI离职,此前他在该公司担任顾问,负责就通用人工智能的到来相关准备工作提供建议。

“我在OpenAI任职期间领悟到的一点是,这家公司正独自探索这类事务的行业规范,”布伦达奇向《财富》杂志透露,“没有任何外部力量要求他们联合第三方专家,以保障所有环节的安全性与可靠性。他们仿佛在自行制定游戏规则。”

领先的人工智能实验室确实会开展安全测试、发布技术报告,有时也会和外部红队组织展开合作。不过当下消费者与政府只能选择相信实验室所披露的信息。

内部捐赠暗示行业的不安

AVERI目前已募集到750万美元资金,其募资目标为1300万美元,这些资金将用于为14名员工提供支持。该机构的资助者涵盖前Y Combinator总裁Geoff Ralston以及AI承保企业。特别值得一提的是,这家研究所还收到了来自头部人工智能公司员工的捐赠。布伦达奇表示:“这些从业者清楚行业内部存在的问题,并且期望看到更多的责任追究机制。”

在此次发布之际,Brundage携手三十余位人工智能安全研究人员与治理专家联合撰写了一篇研究论文,详细阐述了独立审计的具体框架。这篇论文提出了“人工智能保证等级”的概念:其中第一级基本对应目前的实际情况,即第三方测试范围有限且模型访问权限受到约束;而第四级则能够提供足够坚实的“条约级”保障,可作为国家之间达成国际协议的基础。

保险公司和投资者或许会强制要求提出这件事

布伦达奇提出,即便政府未作强制规定,一些市场层面的机制或许也能促使人工智能企业开展独立审计工作。对于将人工智能模型应用于关键业务流程的大型企业而言,它们有可能会把审计作为采购的前提条件,以此来规避潜在的隐藏风险。

Brundage指出,保险公司或许能发挥尤为关键的作用。业务连续性保险公司在为那些对人工智能高度依赖的企业拟定保单之前,可先开展独立评估工作。而直接与OpenAI、Anthropic或者Google这类AI企业合作的保险公司,也有可能会提出审计要求。“保险行业发展得很快,”布伦达奇说道。

相关资讯
相关下载
游戏攻略
更多+