ChatGPT让政府为人工智能监管手忙脚乱 - 彭博社
Lucy Papachristou, Jillian Deutsch
插图:阿恩·贝尔斯托夫为彭博商业周刊绘制要求政府对人工智能进行监管的呼声远早于 OpenAI 在 2022 年底发布 ChatGPT。但官员们尚未提出应对人工智能潜在可能导致大规模监视、加剧长期不平等或使人类陷入危险境地的方法。面对这些挑战,所谓的生成式人工智能——如 chatbot 这样能够自行创建内容的系统——带来了一系列新挑战。
“我们需要对此进行监管,我们需要法律,”纽约非营利研究机构 Data & Society 的执行董事 Janet Haven 表示。“科技公司可以随意构建并发布他们想要的任何东西,而社会则不得不调整和为这些东西让路,这种情况是颠倒的。”
目前针对人工智能的最成熟的监管提案来自欧盟,该提案最早于 2021 年发布了其 Artificial Intelligence Act。该立法的最终形式仍在讨论中,将在技术用于“高风险”案例时设立严格的保障措施,包括在就业决策或某些执法行动中使用技术,同时为低风险应用留出更多的空间以进行实验。该法案背后的一些立法者希望将 ChatGPT 划为高风险,但也有人反对这一想法。按照目前的写法,该法案侧重于技术的使用方式,而不是具体的技术本身。
在美国,地方、州和联邦官员已经开始采取一些步骤制定规则。拜登政府去年秋天提出了其“AI权利法案”,涉及歧视、隐私和用户选择退出自动系统等问题。但这些指导方针是自愿的,一些专家表示生成式人工智能已经引发了问题,包括大规模生产的虚假信息等问题,这些问题并未在蓝图中得到解决。人们越来越担心聊天机器人会让人们更难相信他们在网上遇到的任何事情。“这是朝着对真相的不关心的轨迹发展的一部分,”专门研究人工智能伦理的英国南安普敦大学教授威尔·麦克尼尔说。
美国一些公共机构正试图在生成式人工智能工具扎根之前限制其使用:纽约市教育局禁止在其设备和网络上使用ChatGPT。一些美国金融机构也禁止使用这一工具。对于人工智能更广泛的应用,根据麦肯锡公司2022年的一项调查,公司近年来迅速采纳了新的指导方针,风险缓解“没有实质性增加”。
没有明确的政策,似乎阻碍人工智能发展的主要因素是技术公司对自身设定的限制。“对我来说,引起警惕的是,如果组织在推动商业化的同时没有同等重视如何确保以负责任的方式进行,”波士顿咨询集团首席人工智能伦理官 史蒂文·米尔斯说道,“我们仍然不确定这些技术能做什么。”
谷歌、微软和OpenAI等公司正在研究生成式人工智能,并且他们已经公开表示他们对自己工作的伦理关切非常重视。但科技领袖们也警告不要制定过于严格的法规,总部位于美国的公司警告西方政府,过度反应将使正在积极追求人工智能的中国获得地缘政治优势。前谷歌首席执行官埃里克·施密特,现任非营利组织 特别竞争研究项目主席,在3月8日的国会听证会上作证,表示重要的是人工智能工具要体现美国价值观,政府应主要“在滥用的边缘工作。”
中国已经计划限制生成式人工智能的规则,并已经阻止公司使用路由到ChatGPT的应用程序或网站,据当地新闻报道。一些专家认为这些措施是为了实施围绕这些工具的审查制度,或者为了给中国竞争对手一个优势。但技术人员可能正在推进得太快,以至于官员跟不上。3月14日,OpenAI发布了ChatGPT技术的新版本,称其更准确、更有创造力和更具合作性。阅读下一篇:谷歌的计划是将AI应用到一切中来赶超ChatGPT