· “如果我们忽视它们,后果自负。许多人想忽视人工智能,因为它太复杂了。但在人工智能方面,我们不能当鸵鸟,把头埋在沙子里。”
·在白宫办公厅主任办公室的指导下,自今年春季早些时候以来,高级政府官员每周开会两到三次,以推进人工智能政策工作。在拜登的最高顾问每周六的战略会议上,人工智能也成为一致话题。
美国总统拜登当地时间6月20日在旧金山会见了一些人工智能专家。
随着欧洲议会批准具有里程碑意义的《人工智能法案(AI Act)》,美国也在加紧推进人工智能监管程序。
当地时间6月21日,美国参议院多数党领袖、民主党人查克·舒默(Chuck Schumer)在一次演讲中公布了他期待已久的人工智能监管立法框架,并警告说,“国会现在必须加入人工智能革命”,否则就可能失去监管这一快速发展技术的唯一机会。
前一天,美国总统乔·拜登在旧金山会见人工智能专家,讨论人工智能的“风险和巨大前景”。 “人工智能是总统及其团队的首要任务。”白宫在一份声明中表示。最近几个月,白宫高级官员每周都会举行两到三次会议,讨论人工智能议题。
舒默:最早明年AI将危及美国政治
“一些专家预测,在短短几年内,世界可能会与我们今天生活的世界完全不同。这就是人工智能:改变世界。”舒默在战略与国际研究中心(Center for Strategic and International Studies)的主题演讲中说。该中心是一个专注于外交政策和国家安全的两党非营利组织。
“我们别无选择,只能承认人工智能的变革即将到来,而且在许多情况下已经到来。”舒默说,“如果我们忽视它们,后果自负。许多人想忽视人工智能,因为它太复杂了。但在人工智能方面,我们不能当鸵鸟,把头埋在沙子里。”
美国参议院多数党领袖查克·舒默6月21日发表演讲,公布了他期待已久的人工智能监管立法框架。
舒默在演讲中指出,人工智能可以“让地球上的生活变得更好”——从对抗疾病和饥饿到让生活变得更轻松、更高效。但他也回应了科技专家的声音,警告其潜在危险,包括失业、错误信息传播以及在2024年总统大选期间出现的干扰。
舒默说,政治竞选活动可能会使用民主党或共和党候选人的虚假但逼真的画面,做出扭曲的声明,从而可能损害他们的竞选机会。聊天机器人可用于向数百万选民发送破坏性的错误信息,来影响他们的意见。
今年早些时候,美国前总统特朗普在纽约被提审时,社交媒体上流传着人工智能生成的虚假图像,这些图像显示他与警察发生肢体冲突。本月,共和党竞选人、佛罗里达州州长罗恩·德桑蒂斯的推特账号发布了几张特朗普拥抱、亲吻美国防疫专家安东尼·福奇的照片,疑似用人工智能制作。
“最早在明年,人工智能可能会被用来误导甚至完全抹黑我们的选举……”舒默说,“如果不采取措施确保人工智能保护我们国家的基础,那么我们的民主就会面临生存的风险。”
“人工智能安全创新”框架
舒默表示,今年上半年,他和他的团队一直在与100多名人工智能开发人员、企业高管、明升体育app家、人力资源专家等进行讨论,以制定立法框架。其推出的“人工智能安全创新(SAFE Innovation for AI)”框架包括五个核心支柱:
安全:通过检查来自外国敌对势力或流氓团体的人工智能威胁来支撑国家安全,并确保劳动力,特别是低技能、低收入劳动力的经济安全。
问责制:支持创建“负责任”的系统,以解决错误信息和偏见等问题;通过解决版权问题和保护知识产权来支持创作者。
基础:要求人工智能系统以民主价值观为核心,保护选举,促进人工智能的社会效益,同时避免潜在的危害。这部分内容还提到了遏制明升官网人工智能的发展。
解释:企业应该以简单易懂的方式分享人工智能系统如何得出特定答案,以便用户可以更好地理解系统为何产生特定答案以及该答案来自何处。
创新:支持美国在人工智能技术方面的创新,重点是释放人工智能的潜力并保持美国在技术方面的领先地位。
“创新必须是我们的北极星。”舒默说,“但是,如果人们认为人工智能创新不安全,如果没有足够的护栏——而且公众认为创新不安全——这将扼杀甚至完全停止创新。”
舒默透露,从今年秋天晚些时候开始,他将推出一系列“人工智能洞察论坛”,邀请顶级人工智能开发人员、企业高管、明升体育app家、社区领袖、劳动者、国家安全专家和其他人参加。他说,这些讨论将为向国会提出更详细的政策提案奠定基础。
舒默一直在主持一系列两党简报会,以帮助参议员跟上人工智能的步伐。他还组建了一个由他本人参与的两党人工智能工作组。商务、国土安全、情报和其他重要委员会的两党领导人也将参与立法的制定。
虽然立法通常要经过传统的委员会程序,包括数月的听证会、讨价还价和开场陈述,但舒默认为,需要一种新颖的方法来满足人工智能的发展需要。“人工智能发展如此之快,但也如此复杂,以至于需要一种新的方法。 ”他说,“听证会还不够。我们需要一种兼顾上述所有的方法,因为这就是人工智能的复杂性和速度所要求的。”
AI已成白宫核心优先事项
舒默呼吁采取行动之际,华盛顿正忙于回应包括OpenAI首席执行官山姆·奥特曼(Sam Altman)在内的人工智能专家的警告,即如果不加以控制,这项技术可能会导致人类“灭绝”。华盛顿也希望避免重蹈社交媒体和其他互联网技术缺乏早期监管的覆辙。
在当地时间6月20日访问湾区期间,拜登在旧金山与8位人工智能专家会面,其中包括Common Sense Media首席执行官吉姆·斯泰尔(Jim Steyer)、可汗学院创始人兼首席执行官萨尔·可汗(Sal Khan)、人道技术中心(Center for Humane Technology)执行董事兼联合创始人、谷歌前设计伦理学家特里斯坦·哈里斯(Tristan Harris)。
“我们需要管理社会、经济和国家安全面临的风险。”拜登说,“未来10年我们将看到比过去50年更多的技术变革,甚至可能不止如此。人工智能已经在推动美国人生活的方方面面发生变化。”
参加会议的专家之一、AI领域知名学者李飞飞形容这次谈话“非常热烈”,总统“不仅在听,而且还提出了问题”。“这是非常平衡和深思熟虑的。”她谈到拜登在谈话时的语气。
拜登说:“我想直接听取专家的意见,他们是这个问题上一些领先世界的专家。”他补充说,副总统卡马拉·哈里斯将于下个月举行一次人工智能峰会,重点关注消费者保护。
据美国有线电视手机版网(CNN)6月20日报道,在白宫,对ChatGPT的兴趣激增将AI从边缘推向了核心优先事项。在白宫办公厅主任办公室的指导下,自今年春季早些时候以来,高级政府官员每周开会两到三次,以推进人工智能政策工作。在拜登的最高顾问每周六的战略会议上,人工智能也成为一致话题。
据美国政治手机版网站Politico 6月20日报道,拜登政府的最新举措将建立在现有的“人工智能权利法案蓝图”(Blueprint for an AI Bill of Rights)的基础上。“人工智能权利法案蓝图”是去年10月发布的一套原则,旨在指导政府在使用该技术的同时确保隐私和公平。这些指导方针警告算法歧视,敦促数据保护,并强调人类对人工智能能力的选择。
拜登最近还与其他国家领导人讨论了人工智能问题,其中包括英国首相里希·苏纳克,英国政府将于今年晚些时候举行首届全球人工智能安全峰会。据路透社消息,预计拜登也将在印度总理纳莫迪访问美国期间,与其讨论这个话题。
“不要急”还是“不能慢”
同样在6月20日,美国一个跨两党、两院的立法者小组推出了一项立法,即“国家人工智能委员会法案(National AI Commission Act)”,该法案将创建一个蓝丝带专家委员会来研究和评估美国监管人工智能的最佳方式。
加利福尼亚州民主党众议员刘云平(Ted Lieu)和安娜·埃舒(Anna Eshoo)以及科罗拉多州共和党众议员肯·巴克(Ken Buck)正在合作制定众议院法案,而夏威夷州民主党参议员布莱恩·沙茨(Brian Schatz)将在参议院提出一项配套法案。据《华盛顿邮报》报道,法案要求国会和白宫任命来自政府、行业、民间社会和计算机明升体育app领域的20人成立一个委员会,制定人工智能监管战略。
刘云平警告同事不要急于通过立法。“我认为,在国会采取任何重大行动之前,至少获得一些专家建议并对此保持谦虚是有帮助的。如今,有很多我们不知道的事情。”他在接受采访时说,“如果我们犯了错误,那么我们需要国会采取另一项法案来纠正它。所以我认为还是谨慎一点比较好。”
但白宫显然更加着急。官员们表示,他们在紧急为将于今年夏天公布的几项政策行动奠定基础,以最大限度地发挥现有法规对人工智能的影响。
“这不是一个你可以花数年时间来掌握或监管的领域。你必须以周为单位来衡量时间。”白宫办公厅主任杰夫·赞茨(Jeff Zients)告诉CNN,“速度在这里非常重要。如果一个人行动太慢,你就会在采取行动时落后,而你的行动将被技术超越。因此,我们必须果断迅速地采取行动,动用我们所拥有的一切杠杆,以最大限度地发挥积极影响,同时最大限度地减少任何意外后果。”
一位美国高级政府官员表示,到下个月,谷歌、微软和OpenAI等领先的人工智能公司预计将宣布与白宫协调制定的隐私和安全承诺。
今年夏天,预计管理和预算办公室还将为联邦机构发布期待已久的人工智能技术使用和采购指南,利用联邦政府作为大客户的地位来塑造该行业。国家安全顾问杰克·沙利文(Jake Sullivan)及其团队也在制定政策以应对与人工智能相关的网络安全风险,并与七国集团协调建立围绕人工智能的国际规范。
高级政府官员拒绝透露其他即将出台的行政命令的细节,但表示预计在夏季会采取更多行动。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。