人类是虚假信息的最大问题,而不是人工智能,专家表示 - 彭博社
Nate Lanxon, Jackie Davalos
立法者、事实核查组织和一些科技公司正在努力应对新一波人工智能生成的网络虚假信息威胁,但专家表示,公众对机构的不信任以及在识别网络上的虚假图片、视频和音频剪辑方面普遍缺乏素养,这些努力都受到了破坏。
“社交媒体和人类使得即使我们进来,事实核查并说,‘不,这是假的,’人们也会说,‘我不在乎你说什么,这符合我的世界观,’”加州大学伯克利分校的深度伪造分析专家汉尼·法里德说。
“为什么我们生活在一个现实似乎很难把握的世界里?”他说。“这是因为我们的政客、媒体机构和互联网煽动了不信任。”
法里德在 新一季的彭博原创系列AI IRL的第一集中发表讲话。
专家们多年来一直警告人工智能可能加速虚假信息的传播。然而,今年在引入了一批新的强大生成式人工智能工具后,对此采取行动的压力明显增加。这些工具使得生产视觉和文本变得廉价且容易。在美国,人们担心人工智能生成的虚假信息可能影响2024年的美国总统选举。与此同时,在欧洲,最大的社交媒体平台被要求 根据新法律在其平台上打击虚假信息的传播。
到目前为止,人工智能生成的虚假信息的影响和影响力仍不清楚,但有理由担忧。彭博社报道上周,在斯洛伐克一场竞争激烈的投票前几天,流传着政治家的误导性人工智能生成的深度伪造声音。一些美国和德国的政治家也分享了人工智能生成的图像。
哈佛大学伯克曼-克莱因中心的研究员、曾任推特前身公司X的主管Rumman Chowdhury同意,人类的错误是打击虚假信息的问题之一。
“你可以有机器人,你可以有恶意行为者,”她说,“但实际上,在网上大部分虚假信息往往是由那些不知情的人分享的。”
Chowdhury表示,互联网用户通常更擅长识别虚假文本帖子,这要归功于多年来收到可疑电子邮件和社交媒体帖子的经验。但随着人工智能使更逼真的虚假图像、音频和视频成为可能,“人们需要一定程度的教育。”
“如果我们看到一个看起来真实的视频 — 例如,一枚炸弹击中五角大楼 — 大多数人会相信它,”她说。“如果我们看到一篇帖子,有人说,‘嘿,一枚炸弹刚刚击中五角大楼,’我们实际上更有可能对此持怀疑态度,因为我们在文本上接受的训练比在视频和图像上接受的训练更多。”
观看 现在的完整剧集 或者赶上所有以前的剧集。