关于人工智能应用的思考_风闻
周格拉底-2018-06-20 15:01
将AI(人工智能)用于人类情感分析是目前研究前沿热点,研究人员使用AI+大数据技术理解人的情感,再通过输入选择性信息,从而影响人的决策。在商业领域中,商家可以利用这种技术来判断消费者的消费倾向,然后通过数字传媒精准推送营销信息来影响消费者购买决策;在政治领域,竞选团队可以凭此来判断选民的政治倾向,进而通过各种传媒工具来影响选民的投票决策。
这种技术其实是一把双刃剑,一方面,如果让机器能更好的理解人的情感,就能设计出更高智能的机器为人类服务,从而增进社会福利;另一方面,如果让机器能洞悉人的情感,那么也让他人或者机器本身利用这种技术操纵人的情感成为可能,最终阻碍社会的进步。
此类技术应用能否用于真正造福人类完全取决于用于影响决策的信息输入的真实有效性。
社交媒体的兴起极大改变了人获取信息的方式,其去中心化的传播特点一方面使信息的传播速度能以指数级增长,另一方面,因为缺少传统主流媒体过滤不良信息的机制,也使得信息的真实有效界限日益模糊。
根据行为心理学的原理,大众接受信息的意愿程度往往不取决于其是否真实有效,而取决于受众的心理状态,如果大众长期选择性的接受信息会导致人的认识偏差,就有如长期偏食会影响生理健康一样,这种认识偏差最终会固化成一种观念和态度上的偏见。
在移动互联网时代,这种选择性接受信息到固化成观念和态度偏见的过程会被AI技术应用进一步强化,最终导致在网络群体中,具有相似属性、观念或偏见的人相互聚集在一起,形成排他性极强的“虚拟原始部落”。
此类技术如果被别有用心的人利用会导致巨大的社会危害,其有害程度甚至远远高于邪教。
在国外选举政治中,利益集团利用这种技术去操纵选举已经成为公开的秘密。前段时间媒体曝光的Cambridge Analytica公司,就为很多国家的竞选团队提供这种操纵选民情感的技术支持。选举团队可以跟第三方公司购买用户信息,然后分析每一个家庭里的基本政治倾向和获取信息的媒介习惯,据此有选择的输入信息操纵其情感。例如:向具有反移民倾向的选民散播一些“移民有可能是小偷、有可能是强奸犯”的信息,触发其恐惧情感,使之更反移民。这种的操弄在AI技术的加持下,可以在社交媒体上可以达到前所未有的高度,而且完全是量身订做。这从某种程度来说完全是愚民操作,怎么可能会选出符合大众需要的领导人?
在国内商业领域,随着广大用户媒体习惯的改变,不少厂商将大量营销预算用于网络营销推广。厂商一方面与具有媒体垄断势力的信息平台合作,选择性的向大众推送不真实或带偏见的营销信息;另一方面大肆雇佣网络水军,在新媒体渠道上大发营销软文,建立虚假口碑,刻意散布对竞争对手不利的信息,更有甚者还会恶意抹黑竞争对手,攻击表达正确意见的KOL,花钱删除不利于己的信息等等。此类种种作为的成本无疑最终会转嫁给消费者承担,既加重了消费者负担,又干扰了消费者的决策,还损害了市场的有效性。如果这种操作有AI技术加持,其负面效果无疑会成倍放大,而消费者最终还不自知。长期以往,无疑会导致劣币驱逐良币,完全背离优胜劣汰的市场竞争原则,阻碍社会进步!