人工智能:中文科技变得更具说服力 - 彭博社
Catherine Thorbecke
可能改变你想法的技术。
来源:DuKai 摄影师/Moment Mobile/Getty Images
你认为与新兴技术工具的互动能否改变你坚定的信念?或者让你做出你本不会做出的决定?我们大多数人认为自己太聪明了,但越来越多的证据表明情况并非如此。
在新一代生成性人工智能技术方面,“说服”的力量已被识别为一种潜在的灾难性风险,与模型可能获得自主权或帮助制造核武器的担忧并列。此外,旨在影响行为的低风险设计已经在我们日常使用的许多产品中无处不在,促使我们在社交平台上无休止地滚动,或打开Snapchat或Duolingo以继续“连续使用”。
彭博社观点失去这个小岛对美国海军将是一个巨大问题MicroStrategy具有出售的波动性通用汽车在中国的道路无处可去最高法院应为跨性别青少年站出来但来自中国的这一新兴技术的最新进展引发了新的国家安全担忧。由美国国务院资助并由一家澳大利亚智库发布的新研究发现,中国科技公司正处于创造和部署具有“前所未有的说服能力”的技术的边缘。
从安全的角度来看,这可能会被北京或其他行为者滥用,以影响政治观点或制造社会动荡和分裂。换句话说,这是一种在没有任何战斗的情况下制服敌人的武器,这是中国哲学家孙子所倡导的战争策略。
这份报告来自澳大利亚战略政策研究所,上周发布,指出中国的商业部门“已经是全球领导者”,在开发和采用旨在通过利用生理或认知脆弱性来改变态度或行为的产品方面。为了实现这一目标,这些工具在很大程度上依赖于分析它们收集的个人数据,然后量身定制与用户的互动。该论文指出了一些中国公司,称它们已经在使用这种技术——涵盖生成性人工智能、虚拟现实以及新兴的神经技术领域——以支持北京的宣传和军事目标。
但这也是一个全球性问题。中国的私营部门可能在开发劝说方法方面迅速领先,但它遵循的是美国大型科技公司开发的剧本,以更好地理解其用户并保持他们的参与。应对北京风险将要求我们正确分析我们如何让科技产品影响我们的生活。但新的国家安全风险,加上人工智能和其他新创新如何迅速提升这些工具的有效性,应该在这个劝说已经深深植根于硅谷产品设计的时刻,成为一个警钟。
解决这个问题的部分原因是它可能是一把双刃剑。一个 科学 研究在今年早些时候发布,发现与AI模型聊天可以说服阴谋论者减少他们的信念,即使在那些表示这些信念对他们的身份很重要的人中。这突显了大型语言模型的积极“说服力”和它们与个性化对话互动的能力,研究人员表示。
如何防止这些力量被北京或其他不良行为者用于恶意活动,将成为政策制定者面临的一个日益挑战,这超出了切断对先进半导体的访问。
要求更高的透明度将是一个开始的方法,要求科技公司在内容以可能影响行为的方式进行定制时提供明确的披露。扩大数据保护法,或为用户提供更清晰的选择退出其信息被收集的方式,也将限制这些工具单独针对用户的能力。
优先考虑数字素养和教育也是提高对说服技术的认识、算法和个性化内容如何运作、如何识别策略以及避免被这些系统潜在操控的必要措施。
最终,需要更多的研究来保护人们免受说服技术的风险,而这些工具背后的公司领导这一行动将是明智的,像 OpenAI 和 Anthropic 已经开始在AI领域这样做。政策制定者还应要求公司与监管机构和相关利益相关者分享研究结果,以建立对这些技术如何被对手利用的全球理解。这些信息可以用于制定明确的标准或有针对性的监管。
如此复杂的技术所带来的风险,可能让北京操控你所相信的或你是谁的能力,仍然看起来像是一个遥远的科幻担忧。但对全球政策制定者来说,赌注太高,不能等到这一切被释放后再做反应。现在是全球重新审视我们给予科技公司多少个人信息和影响力的时刻。
更多来自彭博社观点:
- ChatGPT的 $8万亿礼物 给大型科技公司:奥尔森和西尔弗曼
- ChatGPT 尚未足够重要 以至于需要广告:戴夫·李
- 特朗普是一个黄金机会。中国将浪费它:裴敏欣
想要更多彭博社观点? OPIN <GO>****。或者你可以订阅 我们的每日通讯**。**