“在十多年的隐私漏洞和危及儿童的事件之后,政策制定者一直表示,他们不能信任硅谷开发自己的护栏。”
人工智能逼“人”吗?随着全球监管的呼声越来越高,这群美国头部企业自行其是。
周三,全球四大人工智能公司谷歌、OpenAI、微软和Anthropic宣布成立一个由行业主导的组织——前沿模型论坛(Frontier Model Forum),旨在为人工智能技术制定安全标准,推动下一代人工智能系统的安全研究和技术评估。该论坛还将成为企业和政府分享相关风险信息的中心。
ChatGPT制造商OpenAI负责全球事务的副总裁安娜·马坎朱(Anna Makanju)在一份声明中表示:“人工智能公司,尤其是那些开发最强大模型的公司,达成共识并促进深思熟虑和适应性强的安全实践至关重要,以确保强大的人工智能工具获得尽可能广泛的好处。”
美国媒体称,这一宣布是基于这些公司向白宫做出的“自愿承诺”。上周五,包括这四家公司在内的美国七大人工智能巨头自愿承诺,保证人工智能发展的安全性、可支持性、可信性和任性。具体内容包括企业必须交付相关系统进行独立测试,开发工具提醒公众内容是由人工智能技术生成的。此外,这些公司还同意寻找人工智能的方法来帮助应对社会的最大挑战,从癌症到气候变化,并投资于教育和新的工作岗位。
美国总统拜登在白宫发表了关于人工智能的演讲。来源:华盛顿邮报
《华盛顿邮报》认为,这一由行业主导的倡议表明,随着华盛顿的政策制定者开始努力应对新兴技术的潜在威胁,美国公司在制定人工智能发展和部署规则方面走在了他们的前面。报道还指出,一些人担心该行业存在的风险。“在十多年的隐私漏洞和危及儿童的事件之后,政策制定者一直表示,他们无法相信硅谷会开发自己的护栏。”
无独有偶,密苏里州共和党参议员乔希·霍利(Josh Holly)在周二的听证会上表示,这些人工智能公司是逃避监管的公司,并特别点名谷歌、Meta和微软。他们是人工智能的开发者和投资者。
“前沿模型论坛”仍处于早期阶段,其组织者表示,它可以为现有政府应对人工智能提供支持。在未来几个月,该机构将成立一个咨询委员会,以指导其战略和优先事项。创始公司还会成立基金、工作组、章程。
该组织还将向开发强大模型的其他公司开放,成员必须致力于安全并愿意参与联合倡议。
据国外媒体报道,欧盟也开始对人工智能进行监管,并于上月推出了首个监管框架,禁止将对人类构成“不可接受的风险”的人工智能,并对其认为“高风险”的技术的使用进行限制和管理。
评论前必须登录!
注册