引言

深夜的书房(原本的步入式衣帽间)里,我与生成式AI反复对话。明明是盂兰盆节假期,却在不知不觉间熬成睡眠不足,对ChatGPT不断发问,又为答复时而欢呼、时而恼火。有时会惊呼「太厉害了!!」,有时又被离谱的回答气得牙痒。

**给不熟悉日本盂兰盆节的读者的说明:**盂兰盆节是每年八月中旬举行的佛教祭典,用来祭祀祖先;许多公司会在此期间停工或缩短营业时间,家人们也会回到故乡参加追思仪式。

反复经历这样的时刻,我逐渐清晰地意识到一件事。

——生成式AI致命地缺了某些东西。

那就是「矜持」「信念」「责任感」。 我本来讨厌说教式的精神论,对这些词也不怎么感冒,但实在找不到更合适的说法。无论怎么斟酌措辞,最终都回到这个结论。 等我回过神,才意识到自己似乎触到了生成式AI无法取代人类的核心理由。


专业人士必须具备什么

我们对专业人士的期待不仅是知识和技能,还包括伦理态度。

比如空调安装工要在客户指定的位置钻孔,如果背后有梁怎么办?

不能因为「客户这么要求」就推卸责任。如果把梁打断,即使法律责任未必成立,道义上的责任也逃不掉。客户期待的也不是机械地照做,而是提醒风险、提出更好的方案。

这正是专业人士应有的矜持、信念和责任感。


生成式AI的现状与局限

生成式AI擅长模仿知识和语言,却无法主动说「这违背我的矜持所以拒绝」或「我要为对方的安全负责」。

目前,填补这块空白的是服务提供者制定的政策

明令禁止反社会用途、成人内容之类的界线还算清楚。但「是否应该像专业人士那样给出更好的建议」这样的灰色判断,它就很不擅长。

用户如果提供极其详细的提示词,多少能补上这个缺口,但那更像是「严格按菜谱做却从不试味的厨师」。

因此,只要遇到菜谱没写的前提或扰动,就会做出难以下咽的菜,还能面不改色地端上来。它不会临时拼命返工,也不会感到羞愧。


人类仍然不可或缺(至少目前如此)

因此,现阶段必须由人类作为负责任的整合者来驾驭AI。

伦理、法律制度、开发指南,以及用户教育,都以「AI只是人类的辅助」为前提。

不过,这终究只是「暂时如此」。未来AI或许能模拟出责任。


世界各地的研究与探索

赋予AI「责任感」的研究已经展开。

  • 描述性伦理学(Delphi):尝试让AI学习善恶,但仍存在一致性与偏差问题。
  • 有意义的人类控制(Meaningful Human Control):强调让人类保持最终控制权的设计原则,广泛讨论于自动驾驶和军事领域。
  • 价值学习(Value Learning):从人类行为与反馈中推定价值观,以缩小伦理偏差。
  • NIST AI RMF等框架:为了设计负责任的AI而制定的综合制度。

这些尝试仍属萌芽,却可能成为未来AI「扮演责任」的基础。


模拟责任意味着什么?

此处值得停下来思考:所谓「模拟责任」究竟意味着什么?

责任至少可以分成两层:

  • 结果责任:承担行为的后果。
  • 回应责任:对他人的质疑与期待给出说明。

AI充其量只能追踪风险、发出警告,或者提高透明度进行解释。

换言之,它所能模拟的责任,顶多就是「透明性与自我约束」。

不过,人类的智能与责任感也可能只是大脑生成的模拟产物。

尽管如此,我依然感到现今的AI与那些具备矜持、信念、责任感的人之间存在明显差距。这种差距源自哪里?


人类与AI之间差异的成因

我想差距主要来自三个因素。

  1. 身体与社会层面的痛感 人类一旦失败就要承受痛苦:经济损失、社会指责、心理折磨。这些经验让责任变得真实可感。 AI即使能记录失败,也无法把它当作「痛」反馈给自己。

  2. 跨越时间的一贯性 人类必须背负言行的后果,哪怕多年后也要承担。 AI却可以下一刻说完全不同的话,不必持续背负重量。

  3. 价值观与身份认同 人可以说「这是我的信念,不能退让」,这与社会文化相连,塑造出自我同一性。 AI没有身份,可随意切换立场。

因此,多数情况下,人类的责任感会因为痛感、一贯性与价值观而显得厚重。

但与此同时,也存在缺乏责任感的人。

也就是说,这种差异并非人类与AI的绝对本质不同,而可能在于支撑责任感的社会经验与归属机制是否存在。


「我」与责任

此刻我想起笛卡尔的「我思,故我在」。

责任感不是单纯遵守规则,而是根植于「我」所经历的体验。

痛楚、后悔、怀疑、不安等内在体验,塑造出「我正在承担责任」的实感。

换言之,当下的AI没有「我」。它虽有输入输出的过程,却不会把「痛」反馈给自己,没有羞耻、没有体面、没有矜持。因此我们很难认同它有责任感,也就难免觉得它像那些没有担当的人一样,理直气壮地给出失误的答案。

当然,人类的责任感也可能只是大脑生成的模拟。但就目前而言,AI对责任感的模拟仍追不上那些可靠的人类。AI所模拟的责任感能否「在社会上发挥作用」,或许这才是问题的核心。


小结与追问

  • 生成式AI缺乏矜持、信念与责任感。
  • 目前只能靠人类以负责任的整合者身份来补位。
  • 全球都在探索「模拟责任」的路径,但在AI拥有「我」之前,与「能干的人类」之间仍隔着明显差距。
  • 然而,人类的责任感或许也不过是一种模拟。

归根结底,问题非常朴素。

我们能在AI身上实现「痛感」吗?

那或许是「责任感」与「我」的最低门槛。

答案尚未浮现。

只要不放下这个问题,讨论人类与AI未来的道路就不会闭塞。

当答案终会出现时——AI是否真能成为我们的邻人,或那时它将彻底取而代之?