Introducere

Într-un birou improvizat dintr-un fost dressing, am continuat până târziu în noapte să discut cu o inteligență artificială generativă. Ar fi trebuit să fie vacanța de Obon, însă fără să-mi dau seama am ajuns să stau treaz până târziu, aruncând întrebări către ChatGPT și trecând de la încântare la frustrare în funcție de răspunsuri. Uneori mă făcea să exclam „Uau!”, alteori replica era atât de nepotrivită încât devenea enervantă.

Notă pentru cititorii care nu cunosc festivalul japonez Obon: Obon este o sărbătoare budistă din mijlocul lunii august dedicată strămoșilor; multe companii acordă liber în acea perioadă, iar familiile revin în orașele natale pentru ritualuri comemorative.

După multe ore petrecute astfel, am ajuns la o constatare clară.

—Inteligenței artificiale generative îi lipsește ceva fatal.

Este vorba de demnitate, convingeri și simț al responsabilității.

Ca persoană care nu agreează discursurile bazate pe forță de voință sau moralism, nu îmi place să folosesc aceste cuvinte. Totuși, oricât am încercat să reformulez, m-am întors mereu la ele.

Pe măsură ce reflectam, am avut tot mai mult impresia că ating nucleul motivului pentru care IA generativă nu poate înlocui ființele umane.


Ce așteptăm de la profesioniști

Așteptăm ca profesioniștii să aducă nu doar cunoștințe și îndemânare, ci și o atitudine etică.

Imaginați-vă un instalator de aer condiționat care trebuie să dea o gaură în locul indicat de client, dar descoperă că acolo trece un stâlp de rezistență. Nu poate spune pur și simplu „așa mi s-a cerut, deci nu e vina mea”. Chiar dacă răspunderea juridică ar putea fi disputată, responsabilitatea etică este evidentă. Clienții nu doresc doar executarea orbească a instrucțiunilor, ci se așteaptă firesc ca profesionistul să semnaleze riscurile și să propună o soluție mai bună.

Acea demnitate, acele convingeri și simțul responsabilității reprezintă exact ceea ce cerem de la profesioniști.


Unde se află IA generativă și care sunt limitele ei

IA generativă poate imita abil cunoașterea și expresiile lingvistice. Ce nu poate face este să refuze fiindcă i-ar fi lezată demnitatea sau să-și asume responsabilitatea pentru siguranța celuilalt.

În prezent, această lipsă este acoperită prin politicile definite de furnizorii de servicii.

Este posibil să trasezi limite clare—de exemplu, interdicția pentru utilizări antisociale sau conținut pentru adulți. Dar zona gri a întrebărilor precum „Ar trebui un profesionist să propună o variantă mai bună?” rămâne dificilă.

Un prompt detaliat poate compensa parțial, însă rezultatul seamănă mai degrabă cu un bucătar care urmează rețeta la perfecție fără să guste preparatul. Dacă există presupuneri nespuse sau perturbări care nu apar în rețetă, rezultatul poate fi dezastruos—iar IA îl oferă fără să clipească. Nu va reface grăbită mâncarea și nici nu se va rușina.


De ce oamenii rămân indispensabili (deocamdată)

Prin urmare, pentru moment nu putem renunța la cadrele în care oamenii acționează ca integratori responsabili ai IA.

Etica, sistemele juridice, ghidurile de dezvoltare și educarea utilizatorilor pornesc toate de la premisa că „IA este doar un instrument de asistență pentru oameni”.

Aceasta este însă doar o situație prezentă. Nu putem exclude posibilitatea ca în viitor IA să învețe să simuleze responsabilitatea.


Cercetări și experimente aflate în derulare la nivel mondial

Au început deja eforturi pentru a conferi IA „ceva care seamănă cu responsabilitatea”.

  • Etică descriptivă (Delphi): încercarea de a învăța IA ce este bine și rău, deși rămân probleme de consistență și bias.
  • Meaningful Human Control: principiu de proiectare care menține controlul final la oameni, în loc ca IA să opereze complet autonom, discutat mai ales în domeniile auto și militar.
  • Învățarea valorilor (Value Learning): cercetări ce deduc valorile din comportamentul și feedbackul uman pentru a reduce divergențele etice.
  • Cadre precum NIST AI RMF: abordări instituționale cuprinzătoare pentru a proiecta IA responsabilă.

Aceste direcții sunt încă incipiente, dar ar putea deveni fundația care va permite IA să „joace” responsabilitatea în viitor.


Ce înseamnă să simulezi responsabilitatea?

Merită să ne oprim și să ne întrebăm ce înseamnă să „simulezi” responsabilitatea.

Responsabilitatea poate fi privită, de exemplu, ca având două niveluri:

  • Responsabilitatea pentru rezultat: asumarea consecințelor acțiunilor.
  • Responsabilitatea de răspuns: capacitatea de a oferi explicații la întrebările și așteptările celorlalți.

Ceea ce poate face IA este cel mult să urmărească riscurile rezultate și să emită avertismente sau să facă transparente explicațiile. Cu alte cuvinte, responsabilitatea IA este simulată sub forma transparenței și auto-limitării.

Totuși, nu putem exclude posibilitatea ca inteligența și responsabilitatea umană să fie, la rândul lor, produse simulate de creier.

Chiar și așa, simt în continuare o diferență clară între IA actuală și demnitatea, convingerile și responsabilitatea oamenilor care le posedă. De unde provine această diferență?


Factorii care creează diferența dintre oameni și IA

Această diferență pare să provină în principal din trei factori.

  1. Durerea fizică și socială
    Oamenii suferă dacă greșesc: pierderi financiare, reproș social, chin psihologic. Acestea fac ca responsabilitatea să fie trăită ca ceva real.
    IA poate înregistra eșecul, dar nu îl poate resimți ca „durere”.

  2. Coerența în timp
    Oamenii sunt nevoiți să-și asume consecințele faptelor și declarațiilor lor și în viitor. Un diagnostic greșit poate fi judecat după ani.
    IA poate spune altceva în clipa următoare, fără să poarte în continuare greutatea acelui rezultat.

  3. Valorile și identitatea
    Oamenii pot afirma „nu pot renunța la asta, este convingerea mea”. Astfel de valori sunt legate de societate și cultură și modelează identitatea.
    IA nu are identitate și își poate schimba poziția oricând.

Astfel, responsabilitatea umană pare de cele mai multe ori solidă tocmai fiindcă este legată de durere, coerență și valori. Dar există și oameni lipsiți de responsabilitate sau de etică.

Prin urmare, diferența poate să nu fie o esență absolută între oameni și IA, ci existența sau absența experiențelor sociale și a mecanismelor de apartenență care susțin responsabilitatea.


„Eu”-l și responsabilitatea

Aici îmi vine în minte „Cogito, ergo sum” al lui Descartes.

Simțul responsabilității nu este o simplă conformare la reguli, ci se bazează pe experiențe care aparțin „mie”.

Durerea, regretul, îndoiala și neliniștea—aceste trăiri interioare creează percepția că „eu” port responsabilitatea.

Cu alte cuvinte, IA actuală nu are un „eu”. Există un proces care leagă intrările de ieșiri, dar nu există un mecanism prin care „durerea” să se întoarcă asupra sa; nu simte rușine, orgoliu sau demnitate. De aceea ne este greu să-i atribuim responsabilitate și, uneori, IA generativă produce răspunsuri sau rezultate cu aerul unei persoane iresponsabile, dar convingătoare.

Desigur, este posibil ca și simțul responsabilității umane să nu fie decât o simulare creată de activitatea cerebrală. Însă, pentru moment, simularea oferită de IA nu a ajuns la nivelul oamenilor „capabili”. Poate că adevărata întrebare este dacă responsabilitatea simulată de IA poate funcționa social.


Concluzie și întrebări deschise

  • IA generativă duce lipsă de demnitate, convingeri și simț al responsabilității.

  • În prezent, aceste lacune sunt acoperite de cadre în care oamenii proiectează și operează IA ca integratori responsabili.

  • În lume continuă cercetările care încearcă să „simuleze responsabilitatea”, dar atâta timp cât IA nu are un „eu”, distanța față de oamenii „care se descurcă” rămâne mare.

  • Totuși, este posibil ca și responsabilitatea umană să fie o simulare.

În cele din urmă, întrebarea este simplă.

Putem implementa „durerea” într-o IA?

Poate aceasta este condiția minimă pentru responsabilitate și pentru existența unui „eu”.

Nu avem încă un răspuns.

Dar atâta timp cât nu abandonăm această întrebare, discuția despre viitorul comun al oamenilor și al IA rămâne deschisă. Iar într-o zi, când vom găsi un răspuns—vom putea oare conviețui cu IA ca cu un vecin adevărat, sau tocmai atunci vom fi înlocuiți?