拜登的人工智能行政命令还远远不够,但这是一个良好的开端

admin 2023-12-04 09:56:50 浏览量:6
问题描述:
最佳经验
内容来源:http://www.xxyiy.cn/news/show-18238.html

周一,乔·拜登总统发布了第一份旨在监管人工智能的行政命令。根据白宫的一份声明,这项全面的命令要求人工智能公司“与美国政府分享他们的安全测试结果和其他关键信息”,目的是让这些模型“在公司公开之前是安全、可靠和值得信赖的”。

该命令还包括一系列保护美国消费者免受人工智能相关欺诈的措施,同时也防范该技术的潜在危险,包括“对人工智能生成的内容进行清晰标记的水印”和加强“保护隐私的研究和技术”。拜登宣布,政府将为人工智能制定“新标准”,有朝一日可能用于开发病毒、疾病和病原体等危险的生物材料。

虽然一些批评人士指出,行政命令的措辞含糊不清,而且几乎没有关于这将如何发挥作用的方式,但它仍然是迄今为止应对人工智能的一些最具体和最实质性的政策。

人工智能政策研究所(AIPI)创始人兼执行董事丹尼尔·科尔森在接受《每日野兽》采访时表示:“对于那些一直在要求对这些系统进行安全和监管的人来说,这一行政命令是非常积极的一步。”“我对结果和这项行政命令的作用比预期的要满意。”

U.S. President Joe Biden delivers remarks on artificial intelligence in the Roosevelt Room at the White House in Washington, U.S., July 21, 2023.

伊夫林·霍克斯坦路透社报道

然而,人们仍然觉得,在人工智能监管方面,还有很多工作要做。最终,拜登的行政命令只是触及了控制一项非常强大的技术的后果所能做和应该做的事情的表面,这项技术已经通过颠覆不同的工作来改变人们的生活,比如开发人员、作家、艺术家和记者,但也通过更复杂的网络钓鱼攻击导致了网络安全风险的上升。

这种类型的监管也得到了美国人的支持——两党都支持。拜登发布行政命令后,AIPI进行的一项快速反应调查发现,绝大多数美国选民基本上支持这一声明和人工智能监管,69%的受访者表示支持,只有15%的受访者表示反对。这种支持也来自两党,64%的共和党人和65%的独立人士表示支持。

与此同时,75%的选民认为,政府应该在行政命令之外采取更多措施来监管人工智能,他们的大部分担忧与这项技术对劳动力市场构成的威胁以及这些强大模型可能带来的潜在生存威胁有关。

“今天,拜登-哈里斯政府通过一项开创性的人工智能行政命令,重申了对美国工人的承诺,”美国最大的工会联合会AFL-CIO主席利兹·舒勒(Liz Shuler)在一份声明中告诉《每日野兽》(the Daily Beast)。“劳联-产联赞赏工人权利和价值观在这一秩序中的核心地位——包括集体谈判的权利——同时承认,在将问责制、透明度和安全奉为人工智能的基石方面,还有很多地方要做。”

科尔森说:“这是我们迄今为止在正确方向上迈出的更大一步。”“美国公众非常支持这项行政命令,也支持政府采取更多措施来监管人工智能。”

美国人对人工智能监管的渴望比以往任何时候都更加明显。这项技术不仅威胁到他们的生计,而且如果被赋予创造一些潜在严重疾病和病原体的科学研究能力,它可能会带来更大的风险。

为了应对这些挑战,行政命令将重点放在八个领域,以遏制人工智能的风险:安全和保障标准;保护隐私;促进公平和公民权利;保护消费者、患者和学生;支持工人;促进创新和竞争;推进全球人工智能安全;确保政府负责任地使用人工智能。

在这些行动中,最重要的可能是要求人工智能开发商和公司与联邦政府分享他们的安全测试结果。这意味着,创造“最强大的人工智能系统”的公司必须在开始建造时通知政府,并在涉及到它们对美国消费者构成的潜在危害时,分享他们从测试中得到的任何和所有结果。

这最终会是什么样子还有待观察。然而,科尔森表示,这种框架为未来的人工智能监管奠定了坚实的基础。只有掌握了这些强大的大型科技公司在创建人工智能模型方面所做的具体工作的数据和信息,美国政府才能开始考虑如何开始监管它们。

科尔森说:“这项行政命令实际上是在建立一些必要的初步基础设施,使政府能够跟踪人工智能行业的进展、科技公司在做什么以及模型是什么。”

他补充说,绝大多数人工智能公司,如OpenAI和Alphabet,都没有公开发布他们创建的模型。这就造成了一个系统,也被称为“黑匣子”,用户实际上不知道他们使用的程序是如何制作的,也不知道影响他们的程序是如何制作的。这带来了明显的危险——尤其是当你考虑到这些人工智能模型在涉及偏见和幻觉(即人工智能倾向于编造事实)时所带来的风险时。

然而,有了这项行政命令,这些公司现在至少必须分享一些关于它们的模型是如何创建的以及它们究竟构成了什么风险的见解。这些信息可以引导未来的政策,以确定哪些模型可以发布,哪些模型永远不会出现。

OpenAI CEO Sam Altman testifies before a Senate Judiciary Privacy, Technology & the Law Subcommittee hearing titled 'Oversight of A.I.: Rules for Artificial Intelligence' on Capitol Hill in Washington, U.S., May 16, 2023.

ELIZABETH FRANTZ报道

这不是万能的——特别是如果白宫允许人工智能公司自己报告安全测试,而不是让政府官员或第三方为他们做。布朗大学技术责任中心主任苏雷什·文卡塔苏布拉马尼安在9月份参议员查克·舒默的人工智能峰会后接受了《每日野兽》的采访,他谴责政府倾向于权衡大型科技公司的观点和意见,而不是其他人工智能安全专家的观点和意见。

据他说,令人担心的是,如果我们允许像马克·扎克伯格和萨姆·奥特曼这样的人在谈判桌上占有更大的席位,这可能会导致监管和政策倾向于他们,而不是消费者。

“我们不会让狐狸来设计鸡舍,”文卡塔萨布拉曼尼亚当时告诉《每日野兽》。“我希望国会认真对待受技术影响的人们的观点,并确保我们人民制定规则,而不是科技公司。”

现在判断这项规定最终会产生怎样的影响还为时过早。但有一件事是肯定的:这项行政命令不会减缓强大人工智能的发展。这些复杂的生成模型给普通消费者甚至世界各国政府带来了风险。

然而,科尔森认为,这是一个开始——尽管是一个很小的开始——朝着真正安全和值得信赖的人工智能的未来迈进。

科尔森解释说:“许多人工智能安全人士希望放慢人工智能的发展速度,因为他们担心近期的模型会非常非常强大。”“这项行政命令绝对没有做到这一点。但至少政府正在尝试了解正在开发的模式以及它们是如何开发的。这绝对是必要的第一步,之后才会有更实质性的监管出台。”




这是水淼·Destoon文章发布王的试用版本发布的文章,故有此标记(2023-12-04 09:57:03)
举报收藏 0打赏 0评论 0