Úvod

Pozdě v noci v pracovně, která bývala šatnou, jsem vedl nekonečný dialog s generativní AI. Období Obonu, svátku předků, mělo být časem volna, a přesto jsem skončil nevyspalý, neustále jsem sypal dotazy do ChatGPT a reagoval na odpovědi střídavým nadšením a frustrací. Někdy jsem si musel přiznat: „To je úžasné!“ Jindy byly odpovědi natolik mimo, že ve mně vzbuzovaly vztek.

Poznámka pro čtenáře, kteří neznají japonský svátek Óbon: Óbon je buddhistické období uprostřed srpna věnované uctění předků; mnoho firem tehdy přerušuje provoz a rodiny se vracejí do rodných měst na pamětní obřady.

Po hodinách takových výměn jsem došel k jasnému poznání.

— Generativní AI něco fatálně postrádá.

Tou věcí je hrdost, přesvědčení a pocit odpovědnosti.

Nejsem fanouškem planého moralizování, a přesto jsem nenašel lepší slova. Kolikrát jsem se snažil formulaci obejít jinak, vždycky jsem se k nim vrátil.

A čím dál víc jsem nabýval dojmu, že se dotýkám jádra toho, proč generativní AI nedokáže nahradit člověka.


Co očekáváme od profesionálů

Od profesionálů nečekáme jen znalosti a dovednosti, ale i etický postoj.

Představme si montéra klimatizace, který má vyvrtat otvor tam, kde si to zákazník přeje, ale zjistí, že za stěnou vede nosný sloup. Nemůže se vymluvit: „Zákazník to tak chtěl, já za to nemůžu.“ I kdyby byla právní odpovědnost sporná, etická odpovědnost tu zjevně je. Zákazník nechce jen někoho, kdo slepě plní instrukce; bere jako samozřejmost, že profesionál upozorní na rizika a nabídne lepší řešení. Právě to je hrdost, přesvědčení a odpovědnost, které od profesionálů očekáváme.


Současný stav a limity generativní AI

Generativní AI dokáže napodobit znalosti i jazyk. Nedokáže však říct: „Tohle odmítám, protože by to srazilo mou hrdost,“ ani převzít odpovědnost za bezpečí druhé strany.

Dnes tenhle deficit zacelují politiky, které nastavují poskytovatelé služeb. Jasné hranice – zákaz zneužití, zákaz obsahu pro dospělé – nastavit lze. Šedá zóna typu „měl by profesionál nabídnout lepší plán?“ je však problém. Detailní instrukce v promptu mohou trochu pomoci, ale AI pak připomíná kuchaře, který sice dokonale dodržuje recept, ale odmítá jídlo ochutnat. Jakmile se objeví nevyslovené předpoklady nebo nečekané situace, vznikne příšerný výsledek – a AI jej bez uzardění podá. Nebude ho zběsile předělávat ani se stydět.


Proč je člověk zatím nepostradatelný

Proto je dnes nevyhnutelné, aby člověk fungoval jako odpovědný integrátor AI.

Etika, právní rámce, vývojové metodiky i vzdělávání uživatelů vycházejí z předpokladu, že „AI je pouze lidský pomocník“. To je ovšem jen současný stav. Nelze vyloučit, že AI v budoucnu dokáže odpovědnost přesvědčivě simulovat.


Výzkum a experimenty po celém světě

Práce na tom, aby AI působila „odpovědně“, už běží.

  • Deskriptivní etika (Delphi): snaha naučit AI rozpoznávat dobro a zlo. Potýká se však s nekonzistencí a předsudky.
  • Meaningful Human Control: návrhová zásada, která ponechává konečnou kontrolu člověku místo plné autonomie AI. Často se probírá u autonomního řízení a ve vojenství.
  • Učení hodnot (Value Learning): výzkum, který z lidského chování a zpětné vazby odhaduje hodnoty a omezuje etické odchylky.
  • Rámce jako NIST AI RMF: komplexní institucionální přístupy k návrhu odpovědné AI.

Tyto snahy jsou zatím v zárodku, ale mohou položit základy k tomu, aby AI „odpovědnost zahrála“.


Co znamená odpovědnost simulovat?

Stojí za to se zastavit a promyslet, co znamená „simulovat“ odpovědnost.

Odpovědnost může mít alespoň dvě vrstvy:

  • Odpovědnost za důsledky: přijmout následky vlastních činů.
  • Odpovědnost reagovat: být schopen vysvětlit se jiným lidem.

AI maximálně zvládne sledovat rizika, upozorňovat a zpřístupnit vlastní úvahy. Jinými slovy, dokáže simulovat odpovědnost v podobě transparentnosti a sebekontroly. Přesto nemůžeme vyloučit, že i lidská inteligence a pocit odpovědnosti jsou jen simulace, které vytváří mozek.

A přece vnímám propast mezi dnešní AI a hrdostí, přesvědčením a odpovědností, kterou disponují někteří lidé. Kde se ten rozdíl bere?


Co vytváří rozdíl mezi lidmi a AI

Domnívám se, že pramení hlavně ze tří faktorů.

  1. Fyzická a sociální bolest
    Když člověk selže, bolí to. Přichází finanční ztráty, společenská kritika, psychická tíseň. Bolest činí odpovědnost skutečnou. AI umí zaznamenat selhání, ale neumí je proměnit ve „vlastní bolest“.
  2. Kontinuita v čase
    Člověk musí žít s důsledky svých slov a činů, klidně i po letech. Lékař může být za špatnou diagnózu souzen až s odstupem. AI může v dalším okamžiku tvrdit pravý opak, aniž by nesla tíhu.
  3. Hodnoty a identita
    Člověk může říct: „Tohle je moje přesvědčení a z toho neustoupím.“ To se pojí se společností, kulturou a tvoří identitu. AI identitu nemá, může kdykoli přepnout roli.

Díky bolesti, kontinuitě a hodnotám působí lidská odpovědnost většinou hluboce. Přesto existují lidé, kteří se chovají bez odpovědnosti nebo postrádají etiku. Rozdíl tedy nemusí spočívat v neměnné podstatě člověk versus AI, ale v tom, zda existuje sociální zkušenost a systém příslušnosti, který odpovědnost podpírá.


„Já“ a odpovědnost

V tu chvíli si vybavuji Descartovo „Myslím, tedy jsem“.

Pocit odpovědnosti není jen dodržování pravidel; vychází ze zkušeností, které patří „mně“. Bolest, lítost, pochybnosti či úzkost – tyto vnitřní prožitky vytvářejí pocit „já nesu odpovědnost“. Současná AI žádné „já“ nemá. Sice má procesy, které převádějí vstup na výstup, ale neexistuje mechanismus, který by bolest vrátil zpět k ní samotné. Neumí cítit stud, ohledy, hrdost ani onen japonský pojem kyoji. Proto v ní odpovědnost jen těžko spatřujeme a generativní AI občas působí jako člověk bez odpovědnosti – bez ostychu předloží výsledek, který je v něčem až znepokojivě realistický. Možná je i lidská odpovědnost jen další simulací, již vytváří mozek. Přesto se dnešní AI nedotáhla na simulaci, kterou zvládají schopní lidé. Skutečnou otázkou je, zda simulovaná odpovědnost AI dokáže sociálně fungovat.


Shrnutí a otázky

  • Generativní AI postrádá hrdost, přesvědčení a pocit odpovědnosti.
  • Prozatím musí člověk navrhovat a provozovat AI v rámcích, kde zůstává odpovědným integrátorem.
  • Po celém světě probíhá výzkum „simulace odpovědnosti“, ale bez „já“ má AI k zdatnému člověku stále daleko.
  • Možná i lidská odpovědnost je ve skutečnosti jen simulací.

Nakonec je otázka prostá.

Dokážeme do AI implementovat „bolest“?

Možná právě to je minimální podmínka pro vznik odpovědnosti a „já“.

Odpověď zatím neznáme.

Dokud se té otázky nevzdáme, zůstává otevřená cesta k debatě o budoucnosti AI a lidstva. A až jednou odpověď najdeme – stane se AI naším sousedem, nebo nás právě v tu chvíli nahradí?