据媒体报道,当地时间4月4日,美国总统乔·拜登与其科技顾问会面。拜登表示人工智能是否危险还有待观察,并强调科技公司有责任确保其产品在公开之前是安全的。
(资料图片仅供参考)
在拜登表态之前,美国社会对于ChatGPT的反对呼声愈演愈烈。在其他国家和地区,最激进如意大利,已明确禁止使用ChatGPT;随后德国也表示了采取类似措施的可能性;日本部分知名企业已禁止员工使用ChatGPT。
与此同时,ChatGPT的兴起打乱了欧盟出台《人工智能法案》的步伐,这项法案自2021年起就已经酝酿,欧盟需要进一步规划以适应新形势。英国于近日出台了《支持AI创新的监管方法》白皮书。值得注意的事,这两项率先推进的人工智能监管政策均旨在打造出全球人工智能创新中心。
反对ChatGPT呼声渐强
部分国家及企业已采取行动
据路透社报道,本周二,拜登告诉科技顾问,人工智能可以帮助解决疾病和气候变化问题,但解决因此引发的社会、国家安全和经济潜在风险也很重要。
“科技公司有责任确保他们的产品在公开之前是安全的。”拜登在科学技术顾问委员会会议开始时说。对于人工智能是否危险,他说“还有待观察,这是有可能的”。他以社交媒体为例,说明强大的技术如果没有正确的保护措施就可能造成危害。
3月30日,美国技术伦理组织人工智能和数字政策中心(Center for Artificial Intelligence and Digital Policy)已要求美国联邦贸易委员会(FTC)阻止OpenAI发布新的 GPT-4商业版。该组织在向FTC提出的投诉中称 GPT-4“有偏见、具有欺骗性,并对隐私和公共安全构成风险”。
该组织认为ChatGPT-4未能满足FTC的标准,即“透明、可解释、公平和经验合理,同时促进问责制”。该组织敦促FTC对OpenAI展开调查,并确保建立必要的防护措施保护消费者、企业和商业市场。
在该组织向FTC提出正式投诉之前,埃隆·马斯克、人工智能专家和行业高管等签署了一封公开信,呼吁暂停六个月时间开发比GPT-4更强大的系统,理由是这对社会存在潜在风险。
3月31日,意大利数据隐私监管机构因涉嫌非法收集个人数据、缺乏未成年人年龄核实等理由,下令禁止使用ChatGPT,直到其尊重隐私法规为止。Open AI必须在20天内与监管机构进行沟通采取有效措施,不然将面临最高2000万欧元或全球年营业额4%的罚款。
很快,德国也传出“封杀”ChatGPT的可能性。4月3日,德国商报消息,德国联邦数据保护专员Ulrich Kelber对该媒体表示,原则上,类似ChatGPT这样的AI软件在德国被禁用是有可能的。因为,OpenAI作为一家国外公司在德国数据保护机构管控范围内。
不过,德国数字部负责人Volker Wissing不希望在德国禁止使用ChatGPT.Volker认为,ChatGPT等大语言模型的快速发展为德国带来了巨大机遇,不希望过于严格的人工智能监管框架影响其发展速度,但同时需要建立一个透明、安全的管理方法。
据日经亚洲评论报道,早在3月初,包括软银和日立在内的日本公司已开始限制在业务运营中使用ChatGPT等交互式人工智能服务。
“不要输入公司身份信息或机密数据”,软银于2月警告员工不要使用ChatGPT和其他商业应用程序。软银计划建立规则来管理哪些操作可以使用该技术,以及哪些应用程序可以使用。日立将考虑为交互式人工智能的使用以及数据是否被正确使用建立新的道德规则,为此该公司将充实2021年制定的人工智能使用指南。
瑞穗金融集团、三菱日联银行和三井住友银行已禁止在运营中使用ChatGPT和类似服务。瑞穗限制员工从工作终端访问网站,以“防止因员工使用不当而导致客户和财务交易等重要信息泄露”。
欧盟和英国:为打造人工智能创新中心
积极设立监管政策
对于包括ChatGPT在内的人工智能,欧盟和英国则更加积极地推进监管框架建立。
欧盟于2021年底提出《人工智能法案》,旨在禁止部分人工智能应用程序,将人工智能的某些特定用途指定为“高风险”,使开发人员受到更严格的透明度、安全和人为监督要求。这项法案还侧重于解决人工智能在医疗保健、教育、金融、能源等各个领域引发的伦理问题和实施的挑战。
这份法案的初衷仍是积极的。欧盟内部市场专员Thierry Breton在2021年的一份声明中表示“人工智能已经存在了几十年,但在计算能力的推动下已经达到了新的能力。《人工智能法案》旨在加强从实验室到市场,欧洲作为人工智能全球卓越中心的地位,确保欧洲的人工智能尊重我们的价值观和规则,并利用人工智能的潜力进行工业应用。”
ChatGPT的兴起打乱了推进这项法案出台的进度。欧盟的监管计划不得不将ChatGPT带来的新情况考虑在内。今年2月,该法案的主要立法者Brando Benifei和Drago Tudorache 提议,人工智能系统在没有人类监督的情况下生成复杂文本应被列入“高风险”列表——这是为了阻止ChatGPT大规模制造虚假信息。
但这一提议在欧洲议会中受到质疑,有议员认为该修正案将使许多活动成为高风险活动,而这些活动根本没有风险。还有观点认为该提议对通用人工智能模型的其他风险覆盖不足。
上述两位主要议会立法者还致力于对 ChatGPT 和类似人工智能模型的开发者和用户提出更严格的要求,包括管理技术风险和运作透明化。他们还试图对大型服务提供商施加更严格的限制,同时为使用该技术的日常用户保持更宽松的制度。
英国于3月29日正式发布了《支持AI创新的监管方法》白皮书,针对人工智能监管建议及监管影响评估的意见征求将延续至今年6月21日。
“退出欧盟后,我们可以自由地建立一种监管方法,使英国成为人工智能超级大国。这种方法将在解决风险和公众关切的同时积极支持创新。”这份白皮书的部长序言中写道。英国科技框架提出了到2030年使英国成为科技超级大国的战略愿景,该框架将人工智能确定为五项关键技术之一。
监管在创造人工智能蓬勃发展的环境方面发挥着重要作用,管理风险即是监管的重要内容。白皮书提出“虽然我们应该利用这些技术的好处,但我们不应忽视使用这些技术可能带来的新风险,也不应忽视人工智能技术的复杂性可能给广大公众带来的不安。我们已经知道, 人工智能的某些用途可能会损害我们的身体、心理健康、侵犯个人隐私、损害人权等。”
白皮书概述了监管机构应考虑的五项原则,以便在其监管的行业中安全和创新地使用人工智能:
安全、保障和稳健性:人工智能的应用应以安全、可靠和稳健的方式运行,同时其风险得到谨慎管理。
透明度和可解释性:开发和部署人工智能的组织应能沟通何时以及如何使用它,并能够解释系统的决策过程,解释的详细程度应与使用人工智能带来的风险相匹配。
公平:人工智能的使用方式应符合英国现行法律,例如关于平等或数据保护的法律,不得歧视个人或造成不公平的商业结果。
问责制和治理:需要采取措施,确保对人工智能的使用方式和结果问责进行适当监督。
可竞争性和补救:人们需要有明确的途径对人工智能产生的有害结果或决定提出异议。
(文章来源:上海证券报)