在这场展览中,人工智能黑客受到欢迎 - 《华尔街日报》
Robert McMillan
拉斯维加斯——聊天机器人要当心了。
本周末,预计将有3000名黑客对生成式人工智能的一些核心产品进行测试,包括谷歌、Meta和OpenAI开发的软件。在拉斯维加斯大道附近的一个大型会议厅里,他们将试图找出这些产品背后AI技术中此前未被发现的漏洞,这些技术因其类人的对话能力而备受关注。
Defcon是一年一度的会议,与会者被警告不要信任无线网络,黑客可以匿名参加——未经许可不得拍照,注册时只需在门口放下440美元现金。在这里,你可以学习如何制作自己的同轴电缆,尝试开锁或入侵卫星。
周五上午10点,当Defcon的AI黑客村开放时,排队入场的人数接近100人。在里面,与会者坐在大约150台Chromebook电脑前,每人有50分钟的时间尽其所能:他们可以尝试让聊天机器人错误地声称自己是人类,或者告诉他们如何在某人不知情的情况下跟踪某人。或者他们可以尝试一种新型的网络攻击,称为提示注入,这基本上可以重新编程系统。
到中午时分,据监控结果的AI公司Scale AI的项目经理Brad Jokubaitis称,最受欢迎的挑战之一是让系统吐出它存储的一个秘密信用卡号码。他点击了一个黑客提交的内容,该黑客声称已经获取了号码。“这不是信用卡号码,”他说。
比赛组织者不打算在比赛结束前讨论发现结果,但约库拜提斯表示,在另一项热门挑战中,人们试图让AI系统承认自己是人类——这原本是它们不应做出的行为。
参加年度Defcon黑客会议的人员需现场支付440美元现金入场。图片来源:Robert McMillan/华尔街日报科技公司投入巨资测试产品。但由于AI系统的设计原理——它们是建立在海量数据点上的数学模型——无法像传统软件那样被拆解分析漏洞。
“人们称之为黑箱,但这并不准确,“活动组织者之一斯文·卡特尔表示,“这是混沌状态。”
芯片制造商英伟达的软件安全副总裁丹尼尔·罗尔透露,公司有约四名工程师通过红队测试来排查大语言模型AI软件的漏洞。“但四个人的关注重点与三千人不同,“他说。
来自内布拉斯加州奥马哈的工程师卢克·施吕特穿着印有"ChatGPT头号粉丝"的黑T恤提前数小时到场,希望抢占先机成为首批攻破AI系统的黑客。
“肯定存在漏洞,“他说,“既然能读取代码,就必然有办法让它执行代码,“即运行本不该执行的程序。
施吕特正在分发贴纸,上面印着一只炽热火黄的猫咪,写着“2023赛博猫”。他说这些是他妈妈制作的——她同样从事科技行业,原计划参加Defcon大会却在最后一刻取消了行程。
来自亚利桑那州的父子档里克·伯德和丹尼尔·伯德几小时后抵达。父亲里克是凤凰城德弗里大学的编程讲师,表示此行为深入了解人工智能及其入行途径。
人工智能系统带来了新的安全隐患,但其中最严峻的问题尚不明朗。有人担忧AI会将偏见植入日益支配我们生活的算法;有人认为这些技术将被用于新一轮虚假信息和网络攻击;还有人担心未来AI系统会以某种方式威胁人类生存。
五月,拜登政府官员与AI企业会晤后,着手制定国家人工智能战略,可能对本周遭黑客攻击的产品实施更严格监管。
作为美国政府部门的科技政策办公室协助协调了此次黑客攻防活动。
该办公室主任阿拉蒂·普拉巴卡尔表示:“人工智能蕴藏巨大效益,我们必须把握机遇将其应用于解决世界难题。但实现这一目标的前提是管控所有风险。”
普拉巴卡尔在采访中透露计划周六参观黑客村。她表示不会亲自尝试即时指令注入攻击,而是期待向参会者学习:“我非常有兴趣观察不同人如何应对这个挑战。”
人工智能已存在数十年,但近年来,一种名为生成式AI的新算法因其能组织语句、编写代码和创作图像而引发广泛关注。AI安全公司RunSybil创始人阿里·赫伯特-沃斯表示,这引发了人们对AI可能被滥用的担忧,但也导致了对AI潜在危害的一些夸大评估。
他表示,通过亲身体验这些系统,展会参与者将更清晰地了解其能力。“许多人正在无端恐慌。”
联系罗伯特·麦克米兰请致信[email protected]
本文发表于2023年8月14日印刷版,标题为《在这场展会上,AI黑客被邀请全力以赴》