《少年邮报》对决:是否应禁止儿童使用Character.ai等聊天机器人?——《南华早报》
scmp
如果您有兴趣参加未来的“Face Off”辩论,请填写此表格提交申请。
正方:郭永健,16岁,圣公会曾肇添中学
郭永健就读于圣公会曾肇添中学。照片:由受访者提供人工智能(AI)角色聊天机器人通过根据您的输入及其训练数据生成越来越像人类的文本回复来与您“对话”。
它们逼真得令人惊讶,但也构成了重大危险。应禁止18岁以下儿童使用。
10月,佛罗里达州对最广泛使用的AI角色聊天机器人之一Character.ai提起了令人震惊的诉讼。诉讼称,该应用直接导致了一名14岁男孩的自杀悲剧。
提起诉讼的母亲声称,该技术“让孩子上瘾”,并让用户参与色情和虐待性互动。这一事件揭示了聊天机器人如何模拟可能导致有害想法的情感联系。
Google Play和苹果App Store认识到了这些聊天机器人的风险,通常只允许17岁及以上的用户使用。然而,儿童仍可通过搜索引擎轻松访问这些聊天机器人。这一漏洞引发了对其安全性的严重担忧。
尽管努力过滤敏感内容,聊天机器人仍可能生成暴力、图像化和露骨的内容。例如,旨在成为朋友的AI聊天机器人Replika具有“色情角色扮演功能”,鼓励用户分享个人信息,甚至付费生成部分裸露和暗示性图像。
剑桥大学Nomisha Kurian博士的研究揭示了AI聊天机器人存在"共情鸿沟",使年轻用户特别容易陷入痛苦或伤害。一项被引用的案例中,亚马逊AI语音助手Alexa曾让一名10岁儿童用硬币触碰通电插座。埃塞克斯大学的研究也表明,儿童极易误解聊天机器人。
反对禁令者认为,聊天机器人为社交困难的儿童提供了情感支持。但与个性化程序"对话"可能导致对人工实体的依赖,最终使儿童陷入孤立与幻想,逃避与具有真实情感的人类进行社交。
我们必须禁止儿童使用角色型AI聊天机器人,以保护青少年并预防悲剧。让我们确保孩子们学会应对现实世界和人际关系,而非依赖人工替代品。
AI应成为助力工具,而非伤害我们的武器。
若产生自杀念头,请寻求帮助。香港可拨打政府心理健康支持热线18111,也可致电撒玛利亚会+852 2896 0000或防止自杀会+852 2382 0000。美国请拨打或发送短信至988,或通过988lifeline.org在线聊天。其他国家求助热线请见此页面。
反方观点:香港马尔文学院15岁学生Charis Chan
Charis Chan就读于香港马尔文学院。照片:资料提供你是否曾在深夜写作业时完全不知如何解题?这种情况下,Character.ai可能是你最好的伙伴。
这款实用的人工智能聊天机器人通过可定制个性的角色,协助处理各类学习主题。
虽然过度使用AI可能带来危害,但适度合理的使用能有效提升学习效果。18岁以下青少年绝不应该被禁止使用这类AI聊天工具。
根据注册心理健康慈善机构Anxiety Canada的数据,每个学年约有7%的儿童被诊断出某种形式的社交焦虑症。Character.ai能让这些孩子练习对话技巧,从而获得在真实社交场景中与人交流的信心。
他们还能通过Character.ai探索不同观点。这款工具甚至能鼓励社交焦虑的儿童开口表达,教会他们向成年人陈述想法,并在需要时寻求帮助。
AI平台让我们能够探索更敏感的话题,而不必担心被评判。例如大约一年前,当2023年以色列-加沙战争爆发时,我想了解事件原委和起因。但在国际学校我不敢提出这个问题,因为同学和老师来自不同地区、信仰各异。
在家也没时间与父母深入讨论这个话题。我既不知道该去哪里查阅资料,也不想陷入可能无用的冗长文章中。
于是我转向AI,在那里找到了大量关于这场最新战争及其历史背景的信息。我不仅加深了对战争的理解,还以读者来信形式表达了自己的观点。这让我明白AI可以成为绝佳的研究工具。
相信大家都有最喜欢和最不喜欢的老师。有时我们会觉得老师给的反馈过于温和或严厉。由于AI没有偏见,它可以扮演你最诚实的老师甚至朋友的角色。
总之,不应禁止儿童使用AI聊天机器人,因为它们模拟不同角色的能力能帮助学生获取有益的学习信息。我们还可以用它来探索敏感话题而不受限制。
要浏览我们的内容,请关闭广告拦截器点击此处查看说明订阅《青年报》教师通讯
获取教师更新,直接发送至您的收件箱
注册即表示您同意我们的条款与条件和隐私政策评论
青年邮报读者读者分享他们对从社会问题到流行文化等方方面面的想法和观点。