🤖 由 文心大模型 生成的文章摘要
Meta首席执行官马克・扎克伯格曾许下承诺,未来会将通用人工智能(AGI)公之于众。AGI,简单来说,就是一种能够胜任人类所能完成的任何任务的人工智能。然而,在一份全新的政策文件里,Meta却表明,在某些特定情形下,对于内部开发的高性能人工智能系统,它可能不会选择发布。
这份被Meta称作“前沿人工智能框架”的文件,明确指出了两种该公司判定为风险过高的人工智能系统,分别是“高风险”系统与“关键风险”系统。
按照Meta的定义,“高风险”系统和 “关键风险”(极高风险)系统都具备协助网络安全、化学以及生物攻击的能力。二者的差异在于,“关键风险”系统有可能引发 “在拟定的部署环境中无法缓解的灾难性后果”;而高风险系统虽可能使攻击更易实施,但在可靠性与可信度方面,远不及关键风险系统。
那么,这里所说的攻击究竟是哪些类型呢?Meta列举了几个实例,诸如“针对采用最佳实践防护的企业级环境的自动端到端攻击”以及“高影响力生物武器的扩散”。Meta也承认,文件中所罗列的可能发生的灾难远非全部,不过涵盖了Meta认为 “最为紧迫”的灾难,以及发布强大AI系统可能直接引发的灾难。
令人稍感意外的是,依据这份文件,Meta对系统风险的分类并非基于任何实证检验,而是参考内部和外部研究人员的意见,并且要经过“高级决策者”的审核。这是为什么呢?Meta 表示,其认为当前用于评估的科学尚“不够强大,无法提供明确的量化指标”来判定系统的风险性。
倘若Meta判定某个系统属于高风险,该公司称会在内部限制对这一系统的访问权限,并且在实施缓解措施,将风险降至中等水平之前,不会发布此系统。另一方面,若某个系统被认定具有严重风险,Meta表示将采取未明确说明的安全保护措施,防止系统泄露,同时停止开发,直至系统的危险性降低。
「93913原创内容,转载请注明出处」