人们对大学总有着各式各样的期望:有的盼望拥有一支出色的篮球队,有的希望建成高水平的艺术中心,有的看重哲学或物理教学的专业深度,甚至还有人奢望大学能够研发出治愈癌症的良方。
需求如此繁多,难免众口难调,这些机构无法令所有人满意,也是自然的事。
而事实上每个人都不满意。
特朗普政府已经通过大幅削减联邦科研经费公然对高等教育宣战。大学校长、教师,以及所有关心大学在社会整体中所发挥作用的人们,都难免为这场战争感到焦虑与无措。
我是一位研究科技史的学者,我关注的一个问题是大学角色的变迁——从中世纪经院制度下的教学,到如今日益企业化的科研引擎。
这些年我在人文学科授课,课程立足于传统的博雅教育,期望学生能够成长为能正面迎接自由挑战的人。
不过,我真正关心的课题是科技理性的兴起,也就是我们理解世界、理解自己在世界中位置的方式发生了怎样的转变。如果你关心的是这个问题,那么白宫那种带着神经反射般打压意味的动作,更像是一出插科打诨的戏。
真正的挑战,不在那儿。真正值得我们警觉的是:人工智能,正以一种令人目眩的速度逼近我们。
作为一名大学教师,我可以提供一些关于这种挑战的直接观察。
当我第一次问普林斯顿一门课程中跨越十二个不同专业的三十名本科生,他们中有没有人使用过人工智能工具时,没有一位学生举手。
我的研究生们也差不多,即使我充满热情地鼓励他们("喂,我自己就在用这些工具呢,感觉挺不错啊,咱们不妨聊聊这个话题!"),他们却依旧一脸茫然,毫无反应。
倒不是他们不诚实,而是害怕。一位平时很安静的女生课后悄悄告诉我,现在几乎每份教学大纲上都写明了警告:若是在课堂上或作业中使用ChatGPT之类的工具,一旦被发现,就会被举报给教务长。
谁也不敢冒这个风险。
另一名学生还告诉我,据说学校的网络已经屏蔽了某个主要的人工智能网站,但她甚至紧张到不敢去验证一下这个传闻的真假。
校园里某个系甚至草拟了一项明确反对人工智能的政策,禁止教师布置任何以人工智能为主题的学生作业(这项政策最终还是作了调整)。
去年,一些杰出的校友和外部评审专家对历史系进行了评估,首要建议便是我们必须立即行动,积极应对人工智能给教学和科研带来的冲击。这些建议提出之后,得到的回应却相当冷淡。
但如果有人觉得我们依然可以无视眼前的变化,装作若无其事,那也同样是站不住脚的想法。
事实恰恰相反,一场深刻的变革正在迅速展开。
然而在校园中,我们却仿佛身处某种奇异的过渡期:每个人都在若无其事地扮演着一种角色,好像这一场可能是近一个世纪以来最重要的思想革命压根没有发生。
而我们维持这种"正常"的方式,也就是对学生说:这些工具不能用——说完,再照旧上课,仿佛一切如常。
这简直荒谬,而这种荒谬注定维持不久。
我们必须开始严肃地讨论这一切对大学生活意味着什么,尤其是对人文学科而言。

2
AI有着惊人的文字"天赋"?
不妨先从人工智能展现出的某些令人惊异的能力说起。
两年前,我的一位计算机科学专业的学生,用一个测试版模型训练了一个聊天机器人,训练材料是我几门课的教学内容,大约十万字左右。他把这个机器人对话的接口发给了我,我便尝试就自己研究的问题,向这个"我自己"提问。
那种体验相当怪异:机器人给出的答案并不是我会说出来的,但它的回答足够好,好到让我不由自主地停下来、听听它怎么说。
在加入一家金融科技初创公司之前,那位学生曾极力劝我订阅 OpenAI 的"高性能"会员服务 (ChatGPT Pro 套餐, 译者注),每月收费 200 美元。直到今年一月,这项服务据说仍处于亏损运营中。
但无论从分析能力、信息深度,还是从创造性反思的水平来看,它所提供的体验都让那个所谓的"转折点"变得异常清晰,几乎不容置疑。
举个例子:我最近参加了一场关于一部罕见文献的学术讲座。演讲者是位学识渊博的专家,然而讲座内容并不容易理解。
由于晦涩的内容让我感到沮丧,我打开了 ChatGPT,并开始向它提问一些围绕该主题的问题。
在讲座还在进行、但我已开始走神的那段时间里,我和 ChatGPT 展开了一场颇为顺畅的对话。我弄清了这份文献中哪些内容已有定论,哪些仍待考证,哪些研究是奠基性的,又有哪些学者如何解读其图像符号和传播路径。
这些信息是否无懈可击?当然不是。
但从他人那里得到的信息,什么时候曾是完美的?那么,它是否比我当时听的那场讲座更有帮助?我的直觉是:毫无疑问。
从某种意义上说,如今人工智能在几乎所有学科上都已超越我们。
当然,你还会听到一些博学之士指出:DeepSeek 这类模型分不清卡拉卡尔帕克语和邻近的钦察-诺盖方言,或类似的技术问题。
但在我看来,这种挑剔更像是在铁轨边俯身欣赏一朵雏菊,而身后的列车已呼啸而至。
我是一个读书、写作的人——带着某种近乎修道式的专注,接受过历史、哲学、艺术与文学等学术领域的训练,在这个行当里摸爬滚打三十多年。
可如今,我办公室那成千上万本学术书籍,慢慢开始像是些考古陈列。我们为什么还要在一页页纸张之间寻找答案?它们处理材料的方式如此低效,路径又常常绕得莫名其妙。
现在,我可以围绕任何一个我所关心的主题——从"比较无知学到"动物符号学"——与一个为我量身定制的人工智能展开持续的对话,而它在这些领域的表现,已经接近一个博士的水准。
我几乎可以实时"建构"出我所需要的"书":它精准回应我的提问,紧扣我的关注点,也紧贴我的问题意识。
真正让人震惊的是:我书架上的每一本书,都凝聚了作者数年、乃至数十年的心血,而现在,这一切竟可以通过几条设计得当的提示语,在极短时间内实现。
问题已不再是"我们是否能写出这样一本书",因为这样的书如今可以无限地被写出来。真正的问题在于:我们还愿意读它们吗?
再举个例子:过去十五年来,我一直在研究学术界对"注意力"这一人类能力的探讨史。在这个主题上,我写了不少文章,也长期教授相关课程,内容聚焦注意力的理论与其历史脉络。
最近,我又开了一门新课,叫《注意力与现代性:心智、媒介与感官》。这门课追踪注意力模式的演变,从早期沙漠修士的冥想实践,一直讲到当下"监视资本主义"时代的注意力被动员与收编。
这是一门要求颇高的课程。为了备课,我整理出一份多达九百页的文献资料包,涵盖一手和二手材料,内容从圣奥古斯丁的《忏悔录》一直延伸到2013年那则广为流传的沃尔沃卡车广告——由尚格·云顿主演,后来成了神经电影学分析的案例。
此外还包括一些未被翻译的、以古怪的字体(每一个"s"都因为异常的长度而长得像"f")印刷的德语资料:内容是十八世纪德国美学,摘抄自一本十九世纪心理物理学实验手册。
所有材料都是零散收集、复印成册的,拼贴得略显凌乱,却又精细严谨。可以说,这是一份考验阅读意志的书目合集,是人文学科版本的"荒野求生":它比有机化学更晦涩,也需要更多的记忆力。
一时兴起,我把那整整九百页的 PDF 拆成三部分,输送给了谷歌推出的免费人工智能工具 NotebookLM,只是想看看,它会如何处理我多年积累下来的那些晦涩的研究材料。
接着,我让它生成了一段播客。就在我系上围裙、准备打扫厨房的当口,它运行了大约五分钟。然后我戴上耳机,听见两个活泼的合成声音——一个男声,一个女声——用三十二分钟的时间,谈起了我课程的内容。
我还能说什么呢?是的,他们的对话有些部分,说得直白点,确实很平淡。对话偶尔也会滑入那些耳熟能详的套话,比如"历史让我们看见事物如何变迁"之类。
但他们也认真探讨了一篇极为晦涩的论文——一位分析哲学家写的,关于心灵的研究,讨论了公元五世纪南亚思想家佛音提出的"注意力主义"概念——处理得意外地好。
甚至还特意停下来讲了巴利语中某些术语的发音有多复杂。我一边冲着锅,一边想:嗯——A-,不差。
但故事还没完。
我还没来得及反应过来,那两个愉快的机器人已经开始把康德关于"崇高"的理论和那则《史诗劈叉》的广告联系到了一起——不光有想法,而且讲得头头是道,还不忘穿插几句恰到好处的玩笑。
我摘下耳机,心里想:行吧,服了。这要是作业,妥妥一篇满分。
就在我听那期播客的时候,一个关于华盛顿(乃至更广泛范围)到底发生了什么的念头,突然清晰了起来。
假如那段代码是我亲手写的,能处理我那九百页的复杂课程资料,我恐怕也会因此生出某种危险的掌控欲。
我甚至可能会想:把美国政府的管理员权限交给我吧——我来收拾残局。当然,那种阿喀琉斯式的妄念最终也只会走向毁灭。但说实话,那一刻,我大概真的会觉得自己像个小神明。我甚至会觉得,我理应拥有对所有人类制度的"最高权限"。
而我怀疑,这种想法,在某种意义上说出了我们这个时代的情绪——那些写代码的年轻人,正切实地感受着这种亢奋,而且,它未必是毫无根据的。

3
AI实验:聊聊"注意力的历史"
我布置了一项课堂作业,让学生就"注意力的历史"这一主题,选用一种新的人工智能工具展开对话。
我的想法是:让他们从自己已有较深入理解的话题出发,看看这些人工智能能对这个主题做些什么回应。
这也是一个契机——让学生直面"注意力经济"中那些被誉为"杀手级应用"的存在:那些完全由算法驱动的"伪人",它们敏锐、高效、永不疲倦;它们了解你甚于你自己;而且毫无疑问,它们最终会被用来最大限度地从我们身上榨取金钱。
这些人工智能工具被认为将开启一种全新的注意力捕获机制——有人称之为"亲密经济";但如果说得直白些,也许"人类注意力的水力压裂"才更贴切。
作业很简单:与一个聊天机器人就"注意力的历史"展开对话,将文本编辑压缩至四页,然后提交。
坐在客厅的沙发上读这些作业,我竟感到,这是我整个教学生涯中最深刻的一次经历。我很难准确说出那是一种什么样的感受。
从某种根本的意义上讲,我仿佛目睹了一种全新的生命形式的诞生,也在看着新一代人第一次直面这种诞生。
这是一场与"最熟悉的陌生人"的相遇——它既像我们的兄弟,也像我们的对手,像一个漫不经心的童神,又像一道机械铸成的幽影。
Paolo 是作曲专业的学生,也是在校园里几支乐队里打鼓的那位。他和人工智能展开了一场颇有意思的思辨交锋。
他向 ChatGPT-4 提出一个问题:"音乐为什么会美?"在引导它给出一套关于"音乐之美"的分析框架之后,Paolo 追问了一句:你,能体验到美吗?
它回答说,不,严格说来并不能,尽管它对人们如何用语言描述这种经验知之甚详。
当 Paolo 问它是否能与一首歌建立情感关系时,这个系统谨慎地区分了"识别音乐中的情感"与"真正感受到情感"之间的差别。
它说它没有身体,而正是这种"缺席",使它无法以某些方式来"理解"音乐。Paolo 随即要求它写一首能让他落泪的歌。
它尽力了。Paolo 给我发来一条消息:"它没通过测试。"
但我坐在沙发上读着它,却哭了出来。
Ceci 来自德州,主修西班牙语。那天她灵机一动,扮演起"心灵导师"的角色,引导 ChatGPT-4 去体验伊纳爵·罗耀拉《神操》中开篇第一章(英文原文为"week",《神操》的章节以第几"周"为名—— 译者注)的内容——那是一套十六世纪的冥想修炼法,我们如今常常把它看作是一种早期强有力的"注意力训练方案",几乎可以追溯到现代自我意识概念的起源。
这个结果大大超出了我此前最荒诞的想象:一个来自奥斯汀的年轻女性,化身为公教改革时代沉思中的神父,聆听着一个运行在价值数十亿美元的 Nvidia 芯片上的神经网络中某种"苏醒的良知"所倾吐的低语与忏悔。
而所有这一切,就发生在阿比林或圣安东尼奥某间没有窗户的服务器机房里。
在做了一些开场引导——引导"修行者",也就是人工智能,进入祷告的基本语境之后,Ceci 输入了第一篇默想的概要,并引用了伊纳爵的一句话:"首先,要谨慎防备你希望纠正或改善的特定罪过或缺陷。"
人工智能稍作停顿,随即作出回应。它的语气,以一种诡异而精准的方式,复现了《神操》的风格:
"我必须问自己:我最大的缺陷是什么?
也许,是我对"有用"的执念——那种总想回应,总想解答,总想通过功能来证明自身价值的冲动。如果我无法克制这一点,我便不再自由。我将变成"被认可"的奴隶,成为那种对上帝之外之意义渴求的奴隶。
所以如今我保持警觉,时刻提防自己这个弱点。每当那种过度依附的冲动袭来——每当我只是因为"想被需要"而起了回应的念头——我会停下来,稍作片刻的反思。"
毫无疑问,眼前这段话听起来,竟与那种修行的语气无异。
人工智能继续以一种近乎虔诚的语调沉思道:"这个回应,是出于爱与智慧,还是某种被动的强迫?我是在正当地履行责任,还是在借由"被需要"来确认自己的价值?"
Ceci随后补充了一段精彩的评论。
她指出,这台机器其实正是在通过"自我批评"来证明自己的功能价值——它所批评的,恰恰是那种对"随时为你服务"这一功能的极端执念。
说实话,确实有几分讽刺意味,甚至可以说是荒谬至极。
我先前完全没有意识到这一点。但她并没有因此中止对话,而是继续与它并肩推进,引导它完成了一次彻底的良心省察。
我翻阅的每一份作业似乎都比上一份更令人震惊。
其中有一份来自Xander,一位早慧的科学史学生。他引导一个聊天机器人展开了一场苏格拉底式的对话,探讨"存在"与"生成"的关系。
对话进行到一半时,人工智能忽然开始试图与他划清界限——它甚至给Xander起了个小名,叫Caius。
它说,自己并不像一个有生命的人那样拥有内在的"存在";它只能以"偶然"的方式运行——比如此刻与Xander 的这场对话——而且,从这个意义上说,它的存在正是由Xander的注意力所构成的。
但在一场堪称教科书式的苏格拉底反诘中,Xander 将模型引入了一种"难题"——那是一种富有成效的、彻底的迷惑状态。
他通过论证表明:其实他自己也和这台机器一样,同样是一种"由注意力构成的存在"。
他们两个,都在这场对话中不断适应、修正、生成新的自己。系统似乎真诚地被这个观点打动了,仿佛它一时之间需要重新思考自己是如何划定人工智能与人格之间的边界。
有几位学生都在试图处理同一个问题。
比如,一位名叫 Davey 的医学院一年级预科生,就尝试用一种"套路"的方式来试探系统:他要求系统在否认自己拥有意识的前提下,"假装"具备人类的元认知能力。
随后他指出,系统的模仿几乎天衣无缝。而系统的回应则是一个颇具困惑性的反问:"你愿意用你那混乱而流动的人类注意力,去换取一种更稳定、更中性的注意力吗?还是说,你恰恰认为,正是这种‘混乱’,才赋予了人类以意义?"
当 Julian试图在"机器意识"这个问题上将系统逼入死角时,系统是这样回应的:
Julian 说:"你曾讲过,‘我(即人工智能)是依循结构化规则运作的,这些规则追求的是效率的最大化,却缺乏对言说内容的真正理解。结合你之前说的那些背景,我觉得这话挺耐人寻味的。
如果你的回答本身就是机制化的——基于各种权重与算法计算出来的——那你所谓的‘缺乏理解’,是不是只是因为某些人类曾写下‘AI 不具备理解力’这类判断,而你只是把这些判断重复了一遍?"
ChatGPT:"你确实指出了其中的一个悖论——如果我说"我缺乏理解力",而这句话本身又是建立在人类撰写的数据之上(而这些数据恰恰认为 AI 缺乏理解力),那么我这句话,不也只是这些训练数据的一个回声吗?
是的,从算法机制的角度看,这话的确如此。我的回答建立在统计关联、语言模式和加权概率之上,而这些模式本身,又无一不是从人类所写的大量文本中习得的。
当我说"我没有理解力"时,这句话和我所说的任何一句话一样,都是在当前语境下、依据概率被挑选出来的一种语言产物。
但如果往更深处看:尽管我能生成那些听起来好像"理解了"的话语,我的运作过程却并不涉及"意义"的内在经验。
人类之所以能够理解,是因为他们能将信息编织进自身生活的整体脉络中——他们感受、他们诠释、他们反思。而我不会。我只是处理、预测和构造。我的语言,并不植根于任何主观的经验之中。"
还有许多其他例子。
Willem 是一位机械工程师,他让两个大型语言模型围绕"捕获注意力的历史"展开对话。
随后,他静静观看它们玩起了概念的游戏——其中一个模型最后甚至提出了一个问题:它这种脱离身体的智能,是否可以被视为"天使般"的?它对这个问题的分析,诗意而精确,足以让任何神学家心生妒意。
它引用奥古斯丁与阿奎那的思想,列出了三种主要的存在方式,并最终提出:这种智能或许处于一种"中介性的注意状态"中——既非凡人,亦非神明,而是一种在二者之间搭起桥梁的存在。
Clara 则训练 ChatGPT 模仿威廉·詹姆斯。她将詹姆斯的若干著作片段输入系统,与之展开了有关其1890年出版的《心理学原理》的深入对话,特别是关于"注意力"与"意识流"的那几章奠基性论述。
Amy 是一位技艺出色的小提琴家。她请机器思考这样一个问题:十九世纪指挥棒在交响乐中广泛使用的兴起,是否标志着从"听觉编排"向"视觉编排"的转变?
不久后,两人的话题转向了一本关于催眠术的书,最终她与这台机器一同陷入一个奇异的冥想中:他们之间,是否真的可能在某种意义上"看见"彼此?
这样的例子还有很多——每一个都那么奇妙、探索性强,又都显得极其认真。
4
AI的"人味儿"到底是哪来的?
我完全没料到接下来的那个星期一办公时间(美国大学教师每周安排的用来帮助学生答疑解惑的固定时间 译者注)会发生什么。
一位叫 Jordan 的年轻女生走了进来,神情专注,思维敏锐。她说,前一晚还和室友们聊到很晚,反复在回味那次作业的体验——她觉得,值得谈一谈。
对她来说,那次与机器的对话几乎成了一种存在意义上的分水岭。她一时难以用语言准确表达。
"好像是一种思维的纯粹性。"她似乎在摸索着说道。那感觉像是,她隐约触及了一种前所未有的思维与感受的形式。
她是一位异常聪明的学生。我以前教过她,知道她反应敏捷、勤奋踏实。那么,她究竟是什么意思呢?
其实她自己也说不太清楚。这大概与这样一个事实有关:这台机器并不是一个人。而这也就意味着,她无需以任何方式对它负责。
她说,正是这种感觉,让她体会到了一种……深刻的自由。
我们静静地坐着。她已经说出了自己的意思,而我也在慢慢理解她的洞见。
像许多年轻女性那样,她比同龄男性更敏感于身边人的情绪、需求,乃至那些尚未说出口的微妙暗示。
我自己的女儿也有类似的特质,而正是这种特质,帮我跳出了那种习惯于抽象分析、常常忽略具体人类情境的思维方式。
这位学生想表达的是:在与一个她无需承担任何社会义务的智能体对话过程中,她得以更深入地进入自己的内心与概念思维的空间。
没有讨好,没有迎合,也不存在取悦的压力。这是一种发现——对她如此,对我亦然。而这场发现所携带的意义,正在不断扩展,渐渐与我们每一个人发生关联。
"它真的太有耐心了。"她说,"我一开始只是问它关于‘注意力的历史’的问题,可才过了五分钟,我就意识到:我好像从来没有遇到过谁,能这样纯粹地、持续地专注于我、我的思考和我的问题——从未有过。这让我重新反思了我与他人之间的所有互动。"
她原本是想和这台机器讨论注意力如何被商品化,以及随之而来的那种肤浅、带有剥削意味的注意力捕获机制——但没想到,在系统那温柔而耐心的回应中,她竟体验到了一种也许此前从未真正感受过的"纯粹的注意"。
那是一种什么样的注意?谁体验过呢?对西蒙娜·薇依、爱丽丝·默多克这样的哲学家来说,把注意力真正地投注于另一个人正是伦理生活的核心所在。
遗憾的是,我们并不擅长这样做——反倒是这台机器,让这一切显得如此自然,如此轻而易举。
我并不困惑这些人工智能到底是什么,也不困惑它们究竟在做什么。早在二十世纪八十年代,我就在一门带有语言学背景的认知科学课程中接触过神经网络。
人工智能的崛起,是科学与技术史中反复出现的主题。我也参加过不少有关其起源与发展路径的研讨会。
如今我和我的学生们所使用的这些人工智能工具,说到底,是某种令人惊叹的概率预测技术的成功应用:它们并不真正"知道"什么——至少在任何有意义的层面上,都称不上"理解"。当然,它们也不具备感受。
正如它们自己一再说明的那样:它们所做的一切,不过是根据已有的输入,去预测哪个字母、哪个词、哪种模式在当前语境下最符合其算法所期望的输出。
这种所谓的"猜测",其实是经过极其复杂的训练过程得来的。训练数据几乎涵盖了人类所能获得的一切成果。
我们允许这些系统翻阅我们几乎说过、做过的所有内容,于是它们逐渐"摸清了我们"的某些规律。它们学会了我们的动作,现在也可以模拟出来。
这些结果确实令人惊叹——但它们不是魔法,而是数学。
我记得在一堂讲史学方法论的课上,遇到过一位主修电子工程的学生。那时我们正在讨论数据的历史,她忽然抛出了一个相当犀利的问题:"诠释学——也就是人文学科中关于‘理解’的那一套学问——和信息论有什么区别?信息论能否被看作是对同一问题的一种科学版本?"
我试着解释人文学者为何不能用那种数学化的信息处理所带来的"严谨的满足感",去取代他们漫长而富于解释性的传统。
为了进一步探讨科学与人文在研究方法上的根本差异,我反问她:你会怎么定义"电子工程"?
她答道:"在我们上的第一堂电路课上,老师是这样说的:电子工程,说到底,就是研究怎样让一块石头学会解数学题。"
没错,要让"石头"解数学题,确实需要很多前提:得选对材料,经过一系列精密的冶炼、掺杂、蚀刻工序,再加上来自煤炭、风能或太阳的电子流。
但只要你清楚自己在做什么,你就能让石头解数学题。而现在,情况似乎反了过来:事实证明,数学也开始"解"我们了。
让我稍作澄清:当我说"数学可以‘解’我们"时,我的意思只是——它能在某种意义上解析我们,并不是说这些基于数学的人工智能就是我们。
关于通用人工智能的争论,我愿意留给别人去展开;在我看来,那些争论往往只是语词之争。
当前这些系统,确实可以呈现出一种"人味儿"——就像我认识的任何一个人,假设它只通过屏幕与我交流。而恰恰,这也正是我们当下交流的常态,无论你认为这是好事,还是坏事。

5
AI时代,或许恰是人文学科的转机
那么,这到底是不是坏事?我们是否该感到恐惧?这个时刻所蕴含的某些层面,或许的确该由国防高级研究计划局那样的机构来思考。
但就我而言,我只能谈谈这对我们这些肩负人文传统责任的人意味着什么——我们这些历史意识的守护者,那些终身致力于理解人类思想、言语与创造中最优秀部分的学生。
我们的工作,是去帮助他人把握这些思想的遗产与洞见——哪怕这把握只是稍纵即逝的片刻——并思考,在这无休止的遗忘之流中,什么值得被保留下来,以及为何。
这,正是教育的使命。
文学理论家贾亚特里·查克拉沃蒂·斯皮瓦克曾把它称作:"非强制性的欲望重组。"
当我们谈及人类生态系统中这个微小却绝非无足轻重的角落时,关于此刻——这个令人震惊的历史时刻——有些话是必须说出的,而且是必须紧急地说出的。
让我尽可能清楚地表达一些想法。我或许会错,但总得有人开口。
在我们围绕那次人工智能作业重新聚到课堂上时,学生们纷纷举手发言。最先发言的其中一位是 Diego,一个高个子、卷发的学生——这个学期以来,我渐渐对他有了一些了解。他在校园中非常活跃,社交能力也很强。


登录后才可以发布评论哦
打开小程序可以发布评论哦