Einleitung

In meinem Arbeitszimmer – eigentlich ein umgebauter begehbarer Kleiderschrank – führte ich tief in der Nacht unzählige Gespräche mit generativer KI. Eigentlich wollte ich die Obon-Feiertage zur Erholung nutzen, doch stattdessen saß ich übermüdet da und stellte ChatGPT Frage um Frage, jubelte über gelungene Antworten und ärgerte mich über völlig unpassende Erwiderungen.

Hinweis für Leser:innen, die das japanische Obon-Fest nicht kennen: Obon ist eine buddhistisch geprägte Gedenkzeit Mitte August, in der Familien ihre Ahnen ehren; viele Unternehmen schließen oder verkürzen die Arbeitswoche, damit Menschen in ihre Heimatorte zurückkehren können.

Nach vielen dieser Runden wurde mir eines sonnenklar.

– Generativer KI fehlt etwas auf fatale Weise.

Es fehlt ihr an „Stolz“, „Überzeugung“, „Verantwortungsgefühl“. Ich mag weder Durchhalteparolen noch moralinsaure Appelle, also verwende ich diese Worte ungern. Aber mir fehlten Alternativen. Egal, wie oft ich die Formulierungen wechselte, ich kam immer wieder auf dieselben Begriffe zurück. Und je länger ich darüber nachdachte, desto mehr war ich überzeugt, dass ich damit den Kern dessen berührte, warum generative KI Menschen nicht ersetzen kann.


Was wir von Profis erwarten

Von Fachleuten erwarten wir nicht nur Wissen und Fertigkeiten, sondern auch eine ethische Grundhaltung. Darf ein Klimaanlagen-Monteur einfach ein Loch an der Stelle bohren, die der Kunde vorgibt, wenn dort ein tragender Pfeiler verläuft? „Der Kunde hat es verlangt, also bin ich nicht verantwortlich“ – so funktioniert es nicht. Selbst wenn die rechtliche Bewertung umstritten wäre, die ethische Verantwortung bleibt bestehen. Kundinnen und Kunden erwarten selbstverständlich, dass Risiken benannt und bessere Vorschläge gemacht werden. Genau dies ist der Stolz, die Überzeugung und das Verantwortungsgefühl, das wir Profis zuschreiben.


Status quo und Grenzen generativer KI

Generative KI kann Wissen und Sprache verblüffend gut imitieren. Aber Aussagen wie „Das widerspricht meiner Haltung, also lehne ich es ab“ oder „Ich übernehme Verantwortung für die Sicherheit meines Gegenübers“ liegen ihr fern. Derzeit füllt Policy-Setting – die Richtlinien der Anbieter – diese Lücke. Klar definierte Sperren gegen missbräuchliche oder jugendgefährdende Nutzung lassen sich so umsetzen. Doch bei Graubereichen wie „Sollte ich als Expertin einen besseren Vorschlag machen?“ kommt die Technik ins Stolpern. Präzise Prompts können manches ausgleichen, doch das erinnert eher an „eine Köchin, die ein Rezept perfekt befolgt, aber nie abschmeckt“ als an eine verantwortungsvolle Fachperson. Stehen ungeschriebene Voraussetzungen oder Störungen im Raum, serviert sie eine ungenießbare Mahlzeit – und reicht sie mit unbewegter Miene. Es gibt keinen hastigen Neustart, keine Scham.


Warum Menschen unverzichtbar bleiben (vorerst)

Darum braucht es aktuell Menschen als verantwortliche Integratoren, die KI einbinden. Ethik, Recht, Entwicklungsrichtlinien und der Bildungsstand der Nutzerinnen und Nutzer setzen voraus, dass KI ein Hilfsmittel bleibt. Das gilt jedoch nur vorläufig. Es ist nicht ausgeschlossen, dass KI eines Tages Verantwortung simulieren kann.


Weltweite Forschung und Suchbewegungen

Forschende versuchen längst, KI eine Art „Verantwortungsgefühl“ zu verleihen.

  • Deskriptive Ethik (Delphi): Der Versuch, KI gut und böse erkennen zu lassen – doch Inkonsistenzen und Verzerrungen bleiben.
  • Meaningful Human Control: Architekturen, in denen KI nicht völlig autonom handelt, sondern der Mensch die letzte Kontrolle behält – prominent in autonomen Fahrzeugen und im Militär diskutiert.
  • Value Learning: KI soll aus menschlichem Verhalten und Feedback Werte ableiten, um ethische Abweichungen zu minimieren.
  • NIST AI RMF und andere: Rahmenwerke, die verantwortliche KI systematisch verankern wollen.

Noch stehen diese Ansätze am Anfang, könnten aber eines Tages das Fundament bilden, damit KI „verantwortungsvoll agiert“.


Was bedeutet es, Verantwortung zu simulieren?

Zeit, einen Schritt zurückzutreten: Was heißt es, Verantwortung zu „simulieren“?

Verantwortung lässt sich grob in zwei Ebenen teilen:

  • Ergebnisverantwortung: Die Folgen einer Handlung tragen.
  • Antwortverantwortung: Auf Fragen und Erwartungen anderer mit Begründungen reagieren.

KI kann höchstens Gefahren nachverfolgen, warnen und ihre Begründungen offenlegen. Mit anderen Worten: Verantwortung zeigt sich bei KI als „Transparenz und Selbstbeschränkung“. Allerdings könnte auch menschliche Verantwortung letztlich nur ein Simulationsergebnis des Gehirns sein. Trotzdem spüre ich einen deutlichen Unterschied zwischen heutiger KI und dem Stolz, der Überzeugung und dem Verantwortungsgefühl fähiger Menschen. Woher rührt diese Differenz?


Faktoren, die Menschen von KI unterscheiden

Die Unterschiede entstehen meiner Ansicht nach aus drei Faktoren.

  1. Körperlicher und sozialer Schmerz Scheitert ein Mensch, spürt er Schmerz: finanzielle Verluste, gesellschaftliche Kritik, psychisches Leid. So wird Verantwortung als etwas Reales erfahren. KI kann Fehler protokollieren, aber keinen Schmerz empfinden.

  2. Konsistenz über die Zeit Menschen müssen sich auch in Zukunft zu ihren Handlungen bekennen. Eine Fehldiagnose kann Jahre später vor Gericht landen. KI kann im nächsten Moment etwas völlig anderes behaupten, ohne die Konsequenzen zu tragen.

  3. Werte und Identität Menschen sagen: „Das ist meine Überzeugung, darauf bestehe ich.“ Das ist in Kultur und Identität eingebettet. KI besitzt keine Identität und wechselt spielend zwischen Perspektiven.

Oft entsteht menschliches Verantwortungsgefühl durch Schmerz, Konsistenz und Werte. Gleichzeitig gibt es Menschen, die verantwortungslos handeln oder ohne Ethik auftreten. Der Unterschied ist also keine essentielle Wesensart, sondern eine Frage sozialer Erfahrungen und Zugehörigkeit, die Verantwortung stützen – oder nicht.


Das „Ich“ und Verantwortung

Hier drängt sich Descartes’ „Cogito, ergo sum“ auf. Verantwortung bedeutet mehr als Regelbefolgung – sie beruht auf Erfahrungen, die einem „Ich“ zugerechnet werden. Schmerz, Reue, Zweifel, Angst: Solche inneren Erlebnisse schaffen das Gefühl, verantwortlich zu sein. Aktuell fehlt KI dieses „Ich“. Es gibt Prozesse zwischen Eingabe und Ausgabe, aber kein System, das Schmerz zu sich zurückführt, keine Scham, kein Stolz, kein Würdegefühl. Daher fällt es uns schwer, ihr Verantwortung zuzuschreiben – und generative KI antwortet oft wie eine verantwortungslose Person, nur allzu realistisch. Vielleicht ist auch das Verantwortungsgefühl des Menschen nur ein Produkt neuronaler Simulationen. Doch noch erreicht KI nicht das Niveau fähiger Menschen. Die eigentliche Frage lautet, ob simulierte Verantwortung durch KI gesellschaftlich tragfähig wäre.


Fazit und offene Frage

  • Generativer KI fehlt Stolz, Überzeugung und Verantwortungsgefühl.

  • Derzeit gleichen Menschen das aus, indem sie KI als verantwortliche Integratorinnen und Integratoren einsetzen.

  • Weltweit suchen Forschende nach Wegen, Verantwortung zu simulieren, doch ohne ein „Ich“ bleibt der Abstand zu „fähigen“ Menschen groß.

  • Gleichzeitig könnte selbst menschliche Verantwortung nur Simulation sein.

Am Ende bleibt die Frage erschreckend simpel. Können wir KI „Schmerz“ beibringen? Vielleicht ist das die Mindestvoraussetzung für Verantwortungsgefühl und ein „Ich“.

Eine Antwort darauf gibt es noch nicht. Solange wir die Frage aber nicht loslassen, bleibt der Diskurs über die Zukunft von KI und Mensch offen. Und wenn wir eines Tages eine Antwort finden – wird KI dann wirklich unser Gegenüber, oder verdrängt sie uns gerade dadurch?