《华尔街日报》为您解答关于人工智能的所有疑问
Bart Ziegler
如今,人工智能似乎无处不在。专家们表示,它将对一切事物产生深远影响。
但许多人仍然对这项技术感到困惑。
我们询问了《华尔街日报》的读者对人工智能有哪些疑问。他们提出了很多问题。许多人对它的影响、风险以及如何最好地利用它造福人类表示困惑。
以下是对其中一些问题的回答。
我真的不理解人工智能以及它的发展方向。请解释一下它是什么。
人工智能是一个广泛的术语,涵盖多种技术,因此定义各不相同。但可以简单地理解为:它是一种数字技术,主要通过分析输入或遇到的信息中的模式,来模拟人类智能的分析能力。
这意味着它可以快速解释大量信息,解决复杂问题,或控制复杂的技术流程。
早期展示类似思维的机器的一个例子是1997年IBM计算机深蓝击败国际象棋世界冠军加里·卡斯帕罗夫,这是人工智能的前身。如今,人工智能已融入我们的生活。它为你提供亚马逊上的产品推荐和Netflix上的视频推荐。它为苹果的Siri和亚马逊的Alexa提供支持。科学家们使用人工智能设计药物,零售商提供客户服务,制造商优化生产。
那些“聊天机器人”AI系统又如何呢?
这些系统让我们能就几乎任何话题提问,并以对话形式即时获得答案。根据使用的聊天机器人,它们可以撰写定制论文报告、根据你输入的食材生成食谱、编写软件代码、根据描述生成图像、解数学方程——甚至创作诗歌、剧本和歌词。
与早期大多数AI不同,它们通过互联网向所有人开放,并提供免费版本。这使AI技术得以覆盖更广泛的用户群体。其中包括OpenAI的ChatGPT、谷歌的Bard、微软的 Copilot(原Bing Chat)以及Anthropic的Claude AI。
这些新型AI为何能回答几乎所有类型的问题?
这些被称为生成式AI或大语言模型的强大计算机系统,通过“训练”吸收了海量信息——数千亿词汇。想象一下,如果你能阅读互联网上几乎所有内容,并具备复述记忆的能力。这正是这些AI系统的运作方式,其素材来自数百万网站、数字化书籍杂志、科学论文、报纸、社交媒体帖子、政府报告等来源。
这些系统将文本分解为单词或短语,并为每个部分分配编号。通过由精密计算机芯片构建的神经网络(模拟人脑神经元结构),它们借助数学公式在这些文本片段中发现模式,并学会预测单词序列中的下一个词。随后利用自然语言处理技术,它们能够理解我们的提问并作出回应。
这对普通民众意味着什么?我不知该感到不安、恐惧还是欢迎。
或许三者兼有。积极的一面是,相比网络搜索返回的杂乱链接,AI聊天机器人提供的信息更简洁、精准且实用,其类人对话能力令人称奇。
但存在重大缺陷。首先,AI的思考方式与人类截然不同****。“这并非真正的智慧,它根本不理解自己所言,“东北大学体验式人工智能研究所执行主任乌萨马·法亚德本月在接受《华尔街日报》“万物皆未来"播客采访时表示。
法亚德指出,由于AI运作类似自动补全工具,它可能错误猜测应答中的下一个词,更会把这个错误词汇"作为输入基础进行叠加”,从而放大错误。
此外,若训练材料包含网络盛行的阴谋论、偏见或虚假信息,AI可能会照单全收。
此外,训练文本通常已有数月甚至超过一年的历史,这可能导致回答过时。部分聊天机器人(如微软的Copilot和谷歌的Bard)可通过互联网搜索为基于训练的信息补充最新内容。然而直到12月下旬,Bard仍告诉我迈克·彭斯正在考虑竞选总统——而实际上他早在10月就已退出竞选。
它们还会自相矛盾:当我咨询另一款聊天机器人比较公路自行车与混合动力自行车时,它先是说明公路自行车采用下弯式车把,但几行文字后又错误地声称它们使用平把。
关于AI"幻觉”——即编造内容却以事实呈现的现象该如何理解?
当AI系统在其训练材料中发现无关、错误或无意义的模式(专家称之为"噪声”)时,就可能产生幻觉。IBM指出:“AI幻觉类似于人类有时在云中看到人形或在月球上看到面孔。”
幻觉可能误导聊天机器人用户。6月,曼哈顿一名联邦法官对两位使用ChatGPT搜索既往案例以支持其人身伤害诉讼的律师处以罚款,因为他们引用的案例最终被证实纯属虚构。
即便是AI推广者也可能中招。2月谷歌在线推广Bard时,曾询问该AI詹姆斯·韦伯太空望远镜的发现。Bard回答称它拍摄了"首张太阳系外行星照片",而实际上欧洲望远镜早在多年前就已实现这一成就。谷歌高管当时表示:“这充分说明(我们)需要严格测试。”
AI提供商正在采取哪些措施来减少幻觉现象?
他们表示,除其他措施外,正更加谨慎地筛选训练材料中的信息。同时采用能更好理解AI如何处理文本的方法,并通过更广泛的人工用户测试来检测产生幻觉的倾向。
AI系统发布后,提供商还会收集公众关于错误答案及类似问题的反馈。
聊天机器人是否会警告用户可能提供错误信息?
许多聊天机器人在主页上告知用户这一点。谷歌声明"Bard可能展示不准确信息(包括人物相关),请二次核对其回复";OpenAI提示"ChatGPT可能犯错,请核实重要信息";微软则称"Copilot由AI驱动,可能出现意外或错误"。
人们利用AI制造虚假新闻报道、图片或视频怎么办?能阻止吗?
这展现了AI令人不安的能力——政客能被P进未出席活动的照片,电视新闻主播的视频可被篡改台词。部分伪造内容逼真,连AI都难辨真伪。
7月白宫宣布,主要AI提供商同意开发数字水印技术标记系统生成的图像/内容。检测伪造的软件也已问世。Adobe则从反向着手,开发了认证图像真实性的技术。
与此同时,人工智能供应商正试图通过屏蔽请求中的特定词汇或短语,来阻止虚假媒体和政治虚假信息的生成。例如,如果你要求Copilot生成一张著名政治家戴手铐的图片,它会拒绝。微软Copilot营销总经理迪维亚·库马尔表示:“为了防止滥用,我们采取了许多预防措施和审核政策。”
然而,这些保障措施远非万无一失。所有这些意味着,如果你看到一些看起来不太对劲的图片和其他媒体内容,你需要保持怀疑态度。
如果我们能看到人工智能在回答中使用的来源,比如报告中的脚注或引用,那不是更好吗?
这将大有帮助,但存在技术障碍。由于人工智能聊天机器人的训练方式——识别输入材料中的模式,而不是简单地充当事实仓库——并且因为它们使用数学公式而非文本搜索来生成回答,所以很难提供其训练中使用的文本引用。
我问Bard一个关于大型语言模型的问题。它给出了有用的信息,于是我要求查看其来源。Bard回应说:“我为之前关于LLMs的回答中没有提供引用而道歉。以下是我用来汇编这些信息的一些资源,”随后是一长串链接。但这些并不是Bard获取信息的地方。谷歌的一位发言人告诉我,“产品团队能给出的最好解释是,你查询中的引用是Bard试图提供帮助”,但它们并不“反映用于训练Bard的具体信息”。
同样地,巴德有时会在回答中附带网络材料的链接,即使您并未要求提供。但谷歌另一位发言人再次强调:“这些链接并不代表训练数据的直接来源。”
与此同时,微软的Copilot将其必应传统的网络搜索功能与ChatGPT生成的AI文本相结合(微软持有OpenAI的股份)。其回应也会提供某些材料的网络链接。但微软的库马尔表示,与巴德一样,“这些引用仅来自并指向必应的网络内容,而非训练数据。”
还应考虑哪些其他措施来帮助我们辨别AI生成信息的质量?某种评级系统会有效吗?
建立一个通用标准或组织来评估聊天机器人回答的准确性、相关性、避免幻觉等方面是个绝佳的主意。目前尚不存在这样的标准,但已有多个学术团体和科技杂志对AI进行评估。
加州大学伯克利分校的一个团队创建了“聊天机器人竞技场”,用于比较不同AI系统对同一问题的回答。《PC Magazine》对聊天机器人进行了测试,结果显示,2024年以商业为导向的Jasper排名第一,其次是巴德、必应/Copilot和ChatGPT。
其他人则认为,聊天机器人应通过发布“透明度报告”来公开披露其缺陷和局限性,以此承担起责任。“透明度报告”应描述其错误和限制。
2023年,谷歌、微软、OpenAI等公司的高管及其他专家公开警告了人工智能的危险性。他们究竟在担忧什么?
这些专家担心,随着各类人工智能(不仅限于聊天机器人)能力不断增强,它可能协助恐怖分子发动毁灭性网络攻击,或制造出引发大流行病的不可阻挡的生物制剂。他们甚至担忧AI可能失控,接管军事设施等关键系统,对人类构成生存性威胁。这种担忧部分源于人类可能不再完全清楚这些系统的运作原理及其实际行为。
另一些专家则认为这些是源自1950年代计算机诞生初期的牵强科幻情节,强调人类终将保持对AI的最终控制权。
2023年3月,AI业界众多人士联署声明呼吁暂停开发更强大的版本。这一暂停实现了吗?
没有。更先进AI系统的开发仍在继续,甚至可能加速推进。
“AI企业正不计后果地竞相构建越来越强大的系统,却缺乏确保其安全性的可靠解决方案,“未来生命研究所执行主任安东尼·阿吉雷在9月表示。这个非营利组织正是此前公开信的发起方,该信件获得超过3万名研究人员、行业领袖及其他专家联署支持。
有人认为政府需要监管人工智能,以尽可能确保其安全性。这可能包括哪些措施?
今年5月,微软和OpenAI的总裁支持美国成立专门机构来许可主要人工智能系统的呼吁。与此同时,国会讨论了制定保障措施的立法可能性,而拜登政府则在10月发布了一项行政命令,要求最强大人工智能系统的开发者与政府分享其安全测试结果及其他信息。
11月,来自二十多个国家的代表齐聚英国布莱切利公园——二战期间专家破解纳粹德国密码的地方,共同承诺在人工智能安全领域展开合作。他们在联合声明中表示:“这些AI模型最强大的功能可能引发严重甚至灾难性的危害,无论是有意还是无意造成的。”
12月,欧盟就人工智能监管达成协议。其中一项条款要求AI系统披露用于训练大语言模型的材料细节。
我听过很多关于人工智能的末日预言,但它有哪些积极的应用?
人工智能正在推动或彻底改变医学、科学、工业、教育和日常生活等诸多领域。
AI能通过分析X光片和核磁共振成像早期检测疾病;在天文学中,它可通过处理望远镜数据帮助发现新行星;汽车的车道保持和自动刹车等驾驶辅助技术也依赖AI;它还助力物流公司优化路线,协助建筑师设计建筑。
华尔街用它来协助制定资产管理计划,监管该行业的机构则用它来侦测欺诈行为。旅游网站利用它提供航班和酒店的个性化推荐。在教育领域,它能提供虚拟辅导和个性化学习。
简而言之,生活中未被人工智能触及的领域正变得越来越少。
巴特·齐格勒是《华尔街日报》前编辑。可通过[email protected]与他联系。