|
参考消息网10月26日报道 美国《纽约时报》网站10月24日刊登题为《新指南成为政府对人工智能工具的“护栏”》的文章,作者是戴维·桑格。文章摘编如下:5 v3 Q% Y+ w+ C# n8 q
美国总统拜登24日签署了首份国家安全备忘录,详细说明了五角大楼、情报机构和其他国家安全机构应该如何使用和保护人工智能(AI)技术,并为在从涉及核武器到难民庇护的各种决策中如何使用这类工具设置了“护栏”。 d7 d3 ~* Y) u% T" F, v
这份新文件是拜登签署的一系列文件中的最新一份,旨在使用人工智能工具加快政府运作,同时限制类似开发“自主武器”的可能性。) C( L: G7 O7 s) t# O/ E; A6 ]
该命令为各机构就开始研讨应用或监管人工智能工具设定了最后期限,但其中大部分要在拜登离任后才全面生效,这就带来了下一届政府是否会遵守这些规定的问题。
( l+ o2 c: g! x- Q 拜登的助手们说,五角大楼、中央情报局甚至司法部都没有关于如何使用人工智能的指导方针,这阻碍了人工智能的发展。
" _+ ~! ?1 H6 W* S' [ “人工智能如果使用得当并用于特定目的,可以提供巨大的好处,”新备忘录总结道,“但如果被滥用,就可能会威胁到美国的国家安全。”8 |0 G' k1 n1 f& Q8 N
这样的结论现在已经成为老生常谈的警告。但它提醒我们,为人工智能制定规则要比在核时代签订军备控制协议困难得多。与网络武器一样,人工智能工具无法计数或清点,正如备忘录所明确指出的那样,“即使没有恶意”,日常应用也可能出错。. s4 Y2 b! I0 ?% B, @# X
这份新备忘录的非机密版本包含约38页,还有一个机密附录。其中一些结论是显而易见的:例如,它排除了让人工智能系统决定何时发射核武器的可能性,这是总统作为军队统帅的职责。
0 A# p% Z6 T4 J7 S& R 斯坦福大学学者赫布·林多年来一直在研究人工智能与核决策的交集,他说:“该文件让人们的注意力集中在这些工具如何影响政府作出最关键的决策上。”& H# {1 U, Y: A7 h0 z
“显然,没有人会把核密码交给聊天生成预训练转换器(ChatGPT),”林博士说,“但还有一个问题是,总统获得的信息有多少是通过人工智能系统处理和过滤的,以及这是否是一件坏事。”' R* {% S; D0 o" M
对于非核武器的规定则更为模糊。这份备忘录借鉴了之前的政府指令,旨在让人类决策者“参与”目标决策,或监督可能用于选择目标的人工智能工具。但这样的指令往往会拖慢反应时间。如果俄罗斯和中国开始更多地使用完全自主的武器,那么因为人类不再参与战场决策,这些武器的运行将达到惊人的速度。
. q+ r" y+ }# v. m( u 新的“护栏”还将禁止让人工智能工具决定是否给予难民庇护。规定将禁止基于种族或宗教来追踪某人,或者在没有人类评估的情况下将某人归类为“已知恐怖分子”。
0 z6 u+ P9 X; H$ s7 k 也许该命令最令人感兴趣的部分是,它将私营部门在人工智能方面的进步视为国家资产,需要受到保护,以免被外国对手窃取,就像早期的核武器一样。该命令要求情报机构开始保护大型语言模型或芯片的研发工作,将其视为国家财富,并向私营部门开发人员提供最新情报,以保护他们的发明。
/ ]' a$ i) q$ B1 e1 W 它还详细阐述了要将世界各地最优秀的人工智能专家引入美国,就像美国在二战后试图吸引核和军事科学家一样,而不是冒险让他们为俄罗斯这样的竞争对手工作。(编译/徐曼) |
|