はじめに

深夜の書斎(元ウォークインクローゼット)で、私は生成AIと延々とやり取りをしていた。盆休みのはずが、気づけば寝不足になりながら、ChatGPTに問いを投げ、返答に一喜一憂していた。ときに「スゲー!!」と唸らされ、ときに腹立たしいほど噛み合わない返答にイライラする。
そんな時間を繰り返すうちに、はっきりと気付かされたことがある。

――生成AIには、致命的に欠けているものがある。

それは「矜持」 「信念」 「責任感」。
根性論や精神論が嫌いな私にとって、これらは正直あまり口にしたくない言葉だ。だが他に言いようがなかった。何度使っても、何度言葉を選び直しても、結局ここに行き着いてしまった。
そして気づけば私は、生成AIが人間の代わりになれない理由の核心に触れているのではないか、と強く感じるようになった。


プロフェッショナルに求められるもの

人は専門職に、知識や技能だけでなく、倫理的な態度を期待する。
たとえばエアコンの工事業者が顧客に指示された位置に穴を開ける場合、その背後に柱が通っているとしたらどうだろう。
「顧客の指示だから責任はない」とはならない。柱を壊してしまえば法的には争いがあるとしても倫理的責任は間違いなくあるだろう。顧客も「言われた通りに作業すること」を望んでいるのではなく、リスクを知らせ、より良い提案をすることを当然のこととして期待している。
こういったものこそがプロフェッショナルに求められる矜持・信念・責任感である。


生成AIの現状と限界

生成AIは知識や言語表現を巧みに模倣できる。だが「矜持に反するから拒否する」「相手の安全のために責任を持つ」といった態度は持ちえない。
現状、その穴を埋めるのはサービス提供者によるポリシー設定だ。
反社会的利用やアダルト用途を禁止するなど明確な線引きは可能である。しかし「専門家としてより良い提案をすべきか」といったグレーゾーンの判断は苦手である。
ユーザーが詳細にプロンプトを与えれば多少は補えるが、それは「責任感ある専門家」というより「完璧にレシピ通りに料理するが味見をしない料理人」に近い。
故にレシピに書いていない前提条件や外乱があるととんでもなく不味い料理が出来上がり、それを平気な顔をして差し出すのである。急遽必死に作り直して提供したり、恥じたりはしないのだ。


人間が不可欠である(今のところ)

このため、現時点では人間が責任ある統合者としてAIを扱う枠組みが欠かせない。
倫理、法制度、開発ガイドライン、そして利用者自身の教育が「AIは人間の補助に過ぎない」という事を前提としている。
ただし、これはあくまで「今のところ」に過ぎない。将来、AIが責任をシミュレートできるようになる可能性は否定できない。


世界で進む研究と模索

AIに「責任らしさ」を与えようとする研究はすでに始まっている。

  • 記述倫理学(Delphi):善悪をAIに学ばせる試み。だが一貫性や偏りの問題が残る。
  • Meaningful Human Control:AIが完全自律するのではなく、人間が最終的な統制を持つ設計原則。特に自動運転や軍事分野で議論されている。
  • 価値学習(Value Learning):人間の行動やフィードバックから価値観を推定し、倫理的ズレを小さくする研究。
  • NIST AI RMFなど:責任あるAIを設計するための包括的な制度化。

これらはまだ萌芽的であるが、将来AIが「責任を演じる」ための土台になるかもしれない。


責任をシミュレートするとは何か?

ここで立ち止まって考えたい。責任を「シミュレートする」とは何を意味するのか。

責任には例えば二つの層があると考える事ができる。

  • 結果責任:行為の結果を引き受けること。
  • 応答責任:他者の問いや期待に説明で応えること。

AIができるのは、せいぜい結果の危険をトラッキングして警告する、あるいは根拠を透明化して説明する、といった範囲だ。
つまりAIの責任は「透明性と自己制約」という形でシミュレートされるに過ぎない。
とはいえ、人間の知能や責任感もまた脳が生み出したシミュレーション的な産物に過ぎない可能性は否定できない。
それでも私は、現在のAIと、それを持つ人間の矜持・信念・責任感の間に、明確な差を感じている。ではその差はどこから生じるのだろうか?


人間とAIの差を生む要因

その差は、主に三つの要因から生まれているのではないか。

  1. 身体的・社会的な痛み
    人間は失敗すれば痛みを負う。経済的損失、社会的非難、心理的苦悩。これらが責任を「実在的なもの」として体感させる。
    AIは失敗を記録できても、それを「痛み」として自分に返すことができない。

  2. 時間を超えた一貫性
    人間は行為や発言の結果を将来も引き受けざるを得ない。医師の誤診は数年後に裁かれることもある。
    AIは次の瞬間に異なることを言えてしまい、その重みを継続的に背負わない。

  3. 価値観とアイデンティティ
    人間は「これは自分の信念だから譲れない」と言える。これは社会や文化と結びつき、自己同一性を形作る。
    AIにはアイデンティティがなく、立場を自由に切り替えられる。

こうして多くの場合、人間の責任感は痛みや一貫性、価値観と結びつくことで厚みを帯びて見える。
しかし同時に、無責任さや倫理観の欠如を示す人間も存在する。
つまり差は人間とAIの絶対的な本質の違いではなく、責任を支える社会的経験や帰属の仕組みの有無にあるのかもしれない。


「私」と責任

ここで私はデカルトの「我思う、ゆえに我あり」を想起する。
責任感とは、単なる規則遵守ではなく、「私」に帰属する経験に基づいている。
痛みや後悔、疑念や不安といった「私」の内的体験が「責任を負っている」という実感を作り出す。
すなわち、現在のAIには「私」がない。入力と出力をつなぐプロセスはあるが、「痛み」が自分に返ってこないし感じる仕組みがない、恥も外聞も、プライドも矜持も実装されていない。だからこそ、私たちはそこに責任感を認めにくいし、生成AIは時に責任感のないダメな人の様な、ある意味リアルな受け答えや成果を平気で出力するのである。
もちろん、人間の責任感もまた脳の活動が生んだシミュレーションに過ぎないのかもしれない。しかし現時点では"出来る"人間のシミュレーションには追い付いていない。AIのシミュレーションされた責任感が「社会的に機能するのか」これが本質なのかもしれない。


まとめと問い

  • 生成AIには矜持・信念・責任感が欠けている。
  • 現状、それを補うのは人間が責任ある統合者として設計・運用する枠組みである。
  • 世界では「責任のシミュレーション」を模索する研究が進んでいるが、AIに「私」がない限り、“出来る"人間との差は依然として大きい。
  • ただし、人間の責任感すらシミュレーションかもしれない。

結局のところ、問題は単純だ。
AIに「痛み」を実装できるのか?
それこそが「責任感」と「私」の最低条件なのかもしれない。

答えはまだない。
だがこの問いを手放さない限り、AIと人間の未来を語る道は閉ざされない。
そしていつか、その答えが見つかったとき――AIは本当に、私たちの隣人になれるのか、あるいはその時こそ真に取って代わられるのか。