《华尔街日报》:ChatGPT与新型大学教育
wsj
图片来源:lionel bonaventure/法新社/盖蒂图片社编者按:本期《未来视角》中,学生们探讨了聊天机器人与学术诚信问题。下周我们将提问:“最新报道显示,到2097年社保基金将面临22万亿美元缺口,其信托基金预计最早在2034年只能支付80%的应发款项。你迄今为止所有工作都从工资中扣缴了社保金,而大学毕业后的工作将缴纳更多。你是否期待退休时能领回这些钱?你认为自己有生之年能领取到社保福利吗?“学生请于1月23日前点击此处提交250词以内的观点。最佳回复将于当晚刊登。
仅是一种工具
ChatGPT本质上只是个语言模型,无法产生新观点。虽然它能辅助写作和头脑风暴,但无法创造实质性内容。它会编造证据(如律师使用时就发现其引用了不存在的案例),不能理解内容且常犯错误。使用ChatGPT的学生既可能构成抄袭,又可能提交明显错误的作业。
问题在于学生而非ChatGPT。抄袭和劣质论文是学术界存在数百年的问题。解决前者需要学生自查作业确保原创性;解决后者则要求教授对作业实施更严格标准。
ChatGPT仅仅是一种工具,其能力存在根本性局限。自20世纪80年代以来,教师和教授们对计算器与作弊的担忧如出一辙,但我们已经越来越清楚认识到它们的局限性。每年有成千上万高中生使用计算器参加SAT和ACT考试,鲜有STEM课程禁用计算器,许多课程甚至强制要求使用——因为就像ChatGPT一样,计算器永远无法取代人类思维。
——俄亥俄大学数学系 埃文·卡莱尔
法律工作助手
法学院学生正争先恐后地利用AI来简化繁忙的生活。教授们通过在课程大纲中制定新AI政策予以回应。有些教授甚至鼓励在课堂作业中使用AI,比如每周的博客写作。尽管去年纽约律师因使用AI生成虚假引用的法律简报而遭法官处罚的警示案例犹在耳畔,法学生们仍看到了AI的价值。就连较为谨慎的同学也会委托AI撰写千篇一律的求职信,或通过AI重温基础法律问题。那些更敢冒险的同学则用AI辅助灵感迸发,或生成法律分析初稿。
这对某些律师是件好事。在大语言模型爆发前,AI已逐步取代法律工作中许多枯燥环节。借助AI,筛选数千页证据材料或判例法并生成刻板法律术语的效率显著提升。在AI帮助下,律师能将更多时间投入复杂法律问题与客户关系维护,因此早期接触AI的法学院学生将比抗拒技术的同行更具优势。但值得注意的是,这些法律苦差通常并非由精英律师处理,而是由律师助理或地方小型律所承担。所以当顶级律所的律师们把玩ChatGPT时,其他人可能会饭碗不保。
——亚伦·鲍姆,哈佛法学院
学术不端的便利性
几周前的考试季,我和一位同学在讲座上比邻而坐。我瞥见她打开ChatGPT,直接将论文题目粘贴进程序。最初我感到愤怒——自己坚持学术诚信的努力仿佛遭到了嘲弄。但当讲座结束她合上电脑时,我突然意识到:我既不确定她是否会提交AI生成的论文,也不清楚这样做的后果。
早在小学时代,老师就反复告诫我们剽窃的严重性和注明出处的必要性。人们常夸大AI对教育的威胁,但它确实为学术不端创造了新途径。如果AI能直接告诉你论文该包含哪些观点,听课的意义何在?毕竟构思内容本占写作的半壁江山。我们究竟该将其视为作弊,还是效率工具?
——露西·克雷斯韦尔,伦敦国王学院政治学系
我们必须适应变革
AI不会消失,我们必须学会共存。多数高校(包括我的学校)将AI使用规范交由教师决定,这意味着剽窃的本质定义未变:任何未注明且实质性非原创的内容都属作弊。若学生存心舞弊,再严苛的聊天机器人禁令也无济于事。
部分教授因担心作弊回归纸笔考试,但这绝非良策。作为历史课助教,我让学生先用聊天机器人写论文,再批改评分。多数人发现AI文章仅具基础框架却缺乏深度,还有些人认为其分析框架根本站不住脚。它能罗列传记事实和简单对比,却无力整合文献线索——若称这些文字"大二水平”,恐怕是对真实大二生的侮辱。
尽管如此,学生们仍能通过聊天机器人实时获得对其想法的反馈,通过对话打磨论点。虽然人工智能在定性分析上表现欠佳,但在翻译、模式识别和定量分析方面却出类拔萃。我们应当教导学生将聊天机器人作为工具来使用,而非将繁重的研究工作全盘交由AI处理,从而欺骗自己。
——凯文·霍夫曼,耶鲁大学历史学博士
点击此处提交对下周《未来视角》栏目的回应。