Meta的克莱格表示正在努力防止新的AI聊天机器人发出“不当”回复 - 彭博社
Nate Lanxon, Jackie Davalos
在 Meta 平台公司的一系列新人工智能产品中,有一个被训练成像侦探一样说话但看起来像巴黎希尔顿的聊天机器人,还有一个穿着盔甲的角色叫做地牢主,以 Snoop Dogg 为原型。
它们处于 Meta 严肃推动的一系列生成式人工智能工具的有趣一端,这些工具可以回应数十亿用户每月使用的应用程序中的消息 —— 而这项任务落在了 Meta 的全球事务总裁尼克·克莱格身上,他要确保雇主在多年来备受批评的情况下,公司能够负责任地使用这些产品。
“我们经历了数千小时的红队测试 —— 压力测试 —— 以使它们尽可能安全,”克莱格在彭博原创系列节目 AI IRL 的最新一集中说道。“我们无法保证它们不会在任何时候说出不当或不受欢迎的内容,但我们可以不断对其进行再训练。”
克莱格表示,在高级领导层做出关于公司人工智能工具发展方向的决定时,“我从一开始就参与其中”,以预见这些新产品可能会遇到的法律、监管、道德、伦理、文化问题。Meta 多年来一直在其面向消费者的产品中使用人工智能,特别是在确定向用户展示哪些帖子和广告方面。它还严重依赖人工智能来帮助检测和打击虚假信息的传播。但现在,人工智能不仅是公司问题的解决方案;它也可能带来巨大的麻烦。Meta 必须面对由人工智能工具提出的一系列新问题,这些工具可能会偏离用户的预期或传播虚假信息。一些用户已经据报道,Meta 于上个月与名人聊天机器人一起宣布的人工智能生成的贴纸可能会产生令人担忧的图像。
Clegg,前欧洲议会议员和曾任英国副首相,于2018年被Meta聘用,负责全球游说工作,当时该公司正面临各种隐私问题和选举干预危机。现在Meta和其他公司正在开发人工智能系统,受到政府、监管机构和伦理学家的密切关注。
到目前为止,美国只要求科技公司签署自愿协议来保护他们的人工智能产品。Clegg与美国总统乔·拜登在白宫会面,展示了其中一些达成的协议。与此同时,欧洲比美国更快地在规范人工智能方面取得进展。欧洲议会在6月批准了一项法案,将规定人工智能技术的使用范围,并对违规行为处以巨额罚款。
Clegg表示,Meta对一些数据集和大型语言模型采用透明、开源许可证的做法将是保障道德使用的关键。
“我们越开放地讨论这些新技术的运作方式,我们就越能公开讨论风险和好处,用户的控制措施以及我们如何与他人合作,”他说。
观看完整的AI IRL节目,或者赶上所有以前的剧集。