政府是否应监管人工智能技术?读者意见纷呈——《华尔街日报》
Demetria Gallegos
拜登总统一个月前发布了一项行政命令,旨在加强政府对人工智能的监管。但随着无数AI技术发展即将改变各产业和日常生活,关于监管力度——甚至是否需要监管——对AI和全球最有利的问题,各方意见分歧严重。
作为我们关于AI引发的伦理困境系列报道的一部分,我们想探讨政府应如何发挥作用来增强人工智能的益处并降低其风险。
我们向《华尔街日报》读者提出了以下问题:
鉴于AI可能带来的危害(如不准确或存在偏见),是否应该像药品审批那样,对重大新AI技术实施政府评估和批准流程?如果这会显著延迟新AI工具的发布又该如何权衡?
以下是我们收到的部分回复:
社交媒体的教训告诉我们什么?
必须监管!即使流程会延迟新AI工具的发布,我们也需要在AI发展初期就进行规范。我宁愿暂缓使用AI工具,也要换取彻底的评估流程和实质性监管。如果连AI创造者都认为它可能危害人类,是时候倾听警告了。我们现在正见证着早期社交媒体监管缺失如何引发了技术安全闸门的讨论。必须吸取教训,在(可能)为时已晚前掌控AI的发展。
- 托里·维克伦德,华盛顿特区
遵循互联网模式
对人工智能应实行最小化甚至零政府监管。我们如今享受的互联网高速创新正是在最低监管环境下实现的。我发现ChatGPT彻底改变了我的数据科学工作方式,若仅因它可能被诱导说出不当或不准确内容就封禁这项技术,那将非常糟糕。
- 比彻·亚当斯,加利福尼亚州都柏林
为何如此匆忙?
我们为何要急于推出新AI工具?硅谷通过过快"升级"产品已制造了大量实体废弃物,同时迫使消费者不断适应那些可能过早发布的软件补丁,也造成了巨大的精神损耗。
ChatGPT发布时就存在缺陷,简单测试就能发现它会输出荒谬的"事实"。显然我们需要放慢脚步,确保AI真正造福人类而非带来更多焦虑和终将被淘汰的浪费性新产品。毕竟我们已有足够工具进行基础运算,而谷歌搜索的准确性通常远高于ChatGPT(尽管即使在那里也需要层层验证信息准确性)。
所以是的,延迟发布吧,我们需要建立政府评估审批流程。
- 徐曦,纽约州莫里森维尔
我们需要人工智能监管局
鉴于这项技术的极端复杂性,应该设立一个美国农业部(可以称之为“USDAI”)来提供一些监督。遗憾的是,政府并不具备监管这一发展所需的技能。但政府可以阻止AI在工作场所大规模取代人类,这目前AI最糟糕的结果。
最近拨打过公司求助热线的人,都体验过电话那头没有一个真正的人类能够恰当回应你那个不符合“按1选择…”菜单的特殊问题。
- 休·杰米森,俄亥俄州都柏林
美国不是欧盟
不。在欧盟,当然可以,因为那里的文化更习惯于监管而非创新。这样的监管在美国行不通。然而,联邦贸易委员会(FTC)应该特别积极地起诉那些发布导致伤害的生成式消费者人工智能的公司,并且在联邦法院中,对于能够被认定为某些伤害的近因的公司,侵权诉讼权应给予相当大的自由度。让我们用美国法律那套久经考验的系统来解决问题,但要强调力度和执行力。这将与消费者软件安全漏洞在法院的处理方式形成对比。
- 特蕾西·贝丝·米特拉诺,纽约州佩恩延
让创造者承担责任
不应该有任何限制,但人类需要对他们AI引擎可能做的事情负责。例如,AI引擎很容易设计出针对公司计算机的拒绝服务攻击。如果AI随后执行了这个计划(如果它能访问互联网,它就可以做到),那么参与其中的人需要被追究责任。理论上,设计这个计划、安排未来的攻击时间,然后只需等待,是相当容易的。有人可以做空一家公司的股票,等等。或者他们可以计划对电网发起攻击,并想出办法从攻击中获利(或将攻击卖给外国行为者)。
- 杰克·亚历山大,加利福尼亚州萨克拉门托
是的,在某些行业需要监管
如同生活中的大多数事情,这要视情况而定。如果人工智能被用于诊断和治疗疾病,它就相当于医疗设备,逻辑上应受FDA监管。银行和投资决策是另外两个显然需要管控的领域。这些案例中基础监管机制已然存在。或许最令人担忧的是国税局及州税务机构使用AI审核纳税申报,因其可能影响大量人群。谁来监管这些监管者?
- 乔伊斯·L·迪扬,宾夕法尼亚州德文
教育优于监管
与其政府监管,不如将资金和精力用于教育公众认识AI的局限性,并鼓励人们批判性思考AI提供的信息。社交媒体同理。
- 卡尔·C·哈根,内华达州法伦
狐狸看守鸡舍
让政府的"真理部"官僚担任新AI技术的事实核查员或分析师,充其量是盲人引路。最糟情况下,这将形成真正的"狐狸看守鸡舍"局面——因为AI可能直接影响政府权力。
我更相信普通民众能阅读观点、考量信息来源、评估犯罪受益方并得出结论。用户会迅速发现缺陷并在公共媒体上曝光。
- 威廉·卢埃林,科罗拉多州利特尔顿
规模过大难以监管
监管是徒劳之举。尽管初衷良好,但随着技术发展成熟,管理将愈发困难。这就像试图规范数据结构或编程技术,很可能收效甚微。
AI技术即将无处不在。理解AI内部原理的IT专业人员正呈指数级增长。监管对象是什么?如何准确判断代码行为?滥用行为将层出不穷,包括那些鼓吹监管的行业巨头——他们往往试图设立准入壁垒以扼杀竞争。
我们应聚焦于识别并防范利用该技术作恶的恶意行为者。
- 小戈登·戴维斯,宾夕法尼亚州西切斯特
反复验证机制
建议政府协同AI领域专家设计参数指标,当AI程序偏离预期或失控时触发预警。开发者需依据这些参数测试程序,确保其表现符合预期后再公开发布。
由于参数阈值已预先设定,可缓解常规"政府滞后效应"。在设置防护栏的前提下,允许AI有机发展,方能实现重大突破。
- 特里·麦卡锡,纽约州米尔伍德
问题复杂化
“考虑到人工智能可能带来的危害(如不准确或偏见),是否应该…” 你是说,让一个经常不准确或偏见的组织,比如政府,来决定哪些不准确或偏见是可以接受的,哪些是错误或误导信息?哦,是的,这正是我们需要的。
- 大卫·赫福德,华盛顿州斯波坎
不要限制人工智能
对生成式人工智能产生的内容中偏见和错误信息的担忧既为时过早又为时已晚。说为时过早,是因为对这些模型如何工作的真正缺乏理解很可能会导致不理想的监管,阻碍技术的发展。(软件版权保护就是一个例子。)说为时已晚,是因为一旦模型被训练,它就无法“忘记”——其训练数据中的任何不良影响都无法从模型的参数中去除。
在这两者之间,我宁愿保护不足也不愿过度保护。我对用考虑不周的监管来阻碍技术的担忧,超过了对生成式人工智能产生的内容中不准确、偏见或错误信息的担忧——这些一直是人类之间交流的产物,人类学会用批判性思维技能根据已知的来源和自身的偏见来过滤和解读接收到的信息。公平地说,随着更多企业将生成式人工智能整合到面向消费者的产品中,而消费者并未意识到这一点,这将变得更加具有挑战性。
即便如此,我既不需要也不希望本届政府或其他任何机构以保护我为名,来监管这项新兴技术。
- 安·德弗兰科,科罗拉多州苏必利尔市
让市场管理风险
别让政府插手。让那些开发并向消费者出售AI聊天机器人的公司为它们造成的伤害和损失承担经济责任。这将迫使它们不发布危险且不可靠的产品。如果它们这样做,就会破产。
鉴于我们政府的政治化现状,审查将导致延误,给中国和俄罗斯等全球不良行为者提供机会,赶上并超越我们目前在人工智能领域的领先地位,这对我们不利。让政府远离。
- 埃德温·维兹卡隆多,佛罗里达州惠灵顿市
德米特里娅·加列戈斯是《华尔街日报》纽约编辑部的一名编辑。她的邮箱是[email protected]。