Inteligența artificială democratizează informația sau devine un instrument de expunere?
Introducere — „linkul” pe care mi l-a adus IA
Într-o zi i-am cerut unei IA pe care o folosim la birou să-mi explice cum se utilizează un instrument oferit de un anumit furnizor. Nu vorbim despre un OSS celebru sau despre un produs comercial susținut de o comunitate activă; există ceva informații online, dar răsfirate. IA mi-a oferit soluția perfectă și, ca „material de referință”, mi-a pus la dispoziție un link.
Am deschis linkul și pagina s-a încărcat fără probleme. Informația căutată era chiar acolo, însă titlul spunea:
„Strict confidențial — nepublic”
Cum? Al cui era acest document intern? Uitându-mă mai atent, am realizat că nu aparținea nici companiei mele, nici furnizorului oficial; părea mai degrabă manualul intern al unei alte firme care folosește același instrument.
Ce noroc, nu?
…
Deloc. A fost momentul în care m-a străbătut un fior rece.
Dacă ignori IA și cauți manual cu niște cuvinte cheie potrivite, pagina tot apare, dar abia pe la a douăzecea pagină de rezultate. În mod normal, nu ai fi ajuns niciodată acolo.
Partea I: „Democratizarea” pe care o aduce IA
Motoarele de căutare clasice ne puneau să căutăm pepite într-un munte de nisip. Companiile s-au străduit să ridice răspunsurile potrivite în top, dar există limite: site-urile mari domină primele pagini, iar informația esențială ajunsă mai jos devine greu de găsit. În schimb, dacă IA găsește o potrivire, îți pune în mână chiar „pepita”, chiar dacă se află pe un site obscur.
- Chiar și informațiile obscure, de care un om ar avea nevoie de zeci de minute sau ar renunța, apar instantaneu dacă întrebarea se potrivește.
- Oameni care nu aveau acces la expertiză sau la know-how pot acum să ajungă la răspuns doar punând întrebarea.
Este, fără îndoială, democratizarea accesului la informație. Așa cum internetul a deschis cunoașterea, IA o desprinde și mai mult din monopolul elitelor și al experților.
Efectul este evident și în educație sau cercetare. Cunoștințele care altădată necesitau consultarea de cărți de specialitate sau reviste academice pot fi acum obținute imediat de studenți ori profesioniști. Startup-urile pot schița strategii fără contracte scumpe cu consultanți, iar un individ poate să creeze o aplicație peste noapte.
Aceeași logică se aplică și la publicare. Internetul a oferit oricui șansa de a-și transmite ideile, dar dacă nu ești cunoscut, șansele să fii descoperit rămâneau mici.
Acum însă? IA scoate la suprafață chiar și informații care au un rang de căutare infim, probabil publicate din greșeală și fără vreo optimizare SEO. Mi-a oferit un răspuns perfect aliniat întrebării mele pentru că exista undeva acel conținut.
Putem spune că publicarea și accesarea informației pentru cei care o caută a fost democratizată la un nivel pe care internetul singur nu l-a atins.
Partea a II-a: Fața întunecată — transformarea în „expunere”
Dar această democratizare este, în același timp, o expunere — asta am realizat brusc în acea clipă.
Informațiile acelei companii au devenit publice din cauza unei setări greșite. Desigur, chiar și cu motoarele de căutare tradiționale exista șansa să fie găsite. Pagina era indexată, cu acces deschis.
Fără IA, însă, probabil că nu ar fi observat nimeni. Puțini oameni ajung să parcurgă rezultatele până la pagina 20. Informații care înainte ar fi putut fi „salvate” pentru că nimeni nu le vedea ajung acum instantaneu la oricine le cere.
În cazul meu era vorba doar despre instrucțiuni pentru un instrument — nimic cu adevărat secret — și nici cererea nu venea din rea-voință, așa că nu au existat consecințe.
Dar ce se întâmplă dacă o persoană cu intenții negative cere informații sensibile lăsate din greșeală publice? Am realizat brusc că secretele „de facto” nu mai există. Faptul că ceva este greu de găsit sau de corelat nu mai oferă protecție.
„E îngropat, deci suntem în siguranță” nu mai funcționează în era IA. Odată ce a fost indexat, cel care îl caută îl primește imediat.
Sigur, marile modele comerciale precum ChatGPT au politici și filtre pentru a refuza solicitări malițioase și vor fi îmbunătățite în continuare. Dar ce ne facem cu un model construit de o persoană, fără niciun filtru?
Ne aducem aminte de vremurile în care virușii de tip Winny făceau ravagii. Au fost scurgeri de la documente militare până la liste de clienți și fotografii private, transformate într-o problemă socială. Companiile își obligau angajații să semneze că nu vor folosi Winny. (Notă: Winny în sine era doar un instrument de partajare P2P, deci reacția era disproporționată, dar așa stăteau lucrurile atunci.)
Răspunsurile precise furnizate de IA ar putea provoca un impact de o mie de ori mai mare. Odată ce informația se află într-o stare susceptibilă de a fi scursă, ajunge în mâini nepotrivite cu o viteză incomparabilă. Nici măcar nu mai ai nevoie de malware. O singură greșeală este suficientă.
IA îți oferă răspunsul fără ezitare. Nu are etică, nici simțul responsabilității. (Modelele cu politici pot „ezita”, dar oricine poate deja construi un model fără cenzură — sunt disponibile pe platforme precum Hugging Face.)
În era IA nu mai există „e sigur pentru că e îngropat”.
Mai mult, expunerea nu se produce o singură dată. IA învață, rezumă și redistribuie informația altor utilizatori, ceea ce înseamnă că scurgerea se poate transforma simultan în „difuzare” și „fixare”. Informația poate circula aproape permanent prin intermediul IA înainte ca cineva să realizeze că s-a produs o scurgere.
Partea a III-a: Asimetria vitezei
Aici intervine o problemă și mai mare: asimetria vitezei.
- IA colectează, optimizează și livrează informația cu o rapiditate uimitoare; puterea de a o livra exact cui o dorește este incomparabilă cu căutarea clasică.
- Legile, regulamentele, normele etice sau schimbarea de mentalitate din societate nu evoluează mai repede decât în ritm de ani.
Această asimetrie amplifică senzația de risc.
În trecut, răspândirea informației a trecut prin etape: ziare, televiziune, motoare de căutare. Fiecare avea o anumită fricțiune și întârziere, timp în care societatea putea să creeze reguli. IA reduce fricțiunea aproape la zero și distribuie „răspunsul optim” instantaneu, oriunde în lume.
Rezultatul este că informațiile corecte, zvonurile greșite, datele incomode sau scurgerile accidentale circulă toate cu aceeași viteză către oricine le dorește, imediat ce au fost învățate de IA. Un viitor în care articolele academice ale experților și zvonurile anonime pline de erori sunt rostite cu aceeași greutate de către IA a început deja.
Partea a IV-a: Cine poartă responsabilitatea?
În cazul meu, am deschis linkul. Nu a fost acces neautorizat: apărea în căutări și nu am spart nicio autentificare. Problema este că decizia „am voie să văd asta?” a fost aruncată pe umerii omului, iar decizia „putem să arătăm asta?” nu a fost luată niciodată.
IA oferă răspunsul, dar nu se întreabă dacă ar trebui să o facă. Așa cum am scris în articolul precedent, IA nu are demnitate, convingeri sau simț al responsabilității. Prin urmare, doar omul poate suplini responsabilitatea.
Am intrat pe pagina principală a site-ului respectivei companii și am trimis un e-mail la adresa de contact, deși poate părea un gest minor. Nu este vorba să mă laud, dar în felul acesta am compensat lipsa de responsabilitate a IA cu responsabilitatea, conștiința și teama unui om.
Cititorii atenți înțeleg că nu toată lumea va reacționa la fel. Unii vor răspândi informația, alții o vor alimenta involuntar în seturile de antrenament ale IA. Din câte știu, incidentul acesta încă nu a devenit o problemă socială de dimensiunea scandalurilor cu viruși Winny, dar am senzația că nu mai e mult până acolo.
Concluzie — către o „responsibility by design” pentru era IA
IA democratizează informația cu o forță mult mai mare decât internetul de la începuturi, atât la capitolul acces, cât și la cel al distribuției. Dar reversul este că dezvăluirile neintenționate pot ajunge la răuvoitori „corect și rapid”.
Partea înfricoșătoare este că nu mai funcționează scenariul „era public, dar nu l-a găsit nimeni, deci e în regulă”. Odată indexată informația din cauza unei setări greșite, ajunge imediat la cine o vrea, chiar și cu intenții rele.
Și nici măcar nu este nevoie de o setare greșită. Informațiile publicate cândva fără grijă, dacă sunt corelate toate, pot contura o imagine pe care nu ai vrut să o dezvălui. Am făcut un experiment: am lăsat ChatGPT să citească toate articolele acestui blog. A reușit să-mi contureze profilul cu o precizie surprinzătoare, undeva la 60% după cum am simțit. Nu a nimerit compania la care lucrez și nici vârsta exactă (doar aproximativ), și au existat greșeli, dar analiza era totuși destul de aproape de realitate. ※ Cercetările din stilometrie arată că se poate identifica autorul din doar câteva zeci de rânduri de text.
În funcție de datele analizate, se pot obține rezultate și mai precise. Chiar și un set de informații aparent inofensiv poate dezvălui realități neprevăzute atunci când este corelat în ansamblu. ※ OSINT (Open Source Intelligence — colectare și analiză pe baza informațiilor publice) devine mai puternic și mai accesibil pentru oricine, inclusiv pentru un hărțuitor care vrea să-și urmărească ținta.
Provocarea nu mai este doar întărirea securității. Avem nevoie de un design al responsabilității și al securității potrivit erei IA — reguli și măsuri care să țină pasul cu viteza democratizării informației.
IA a adus cunoașterea mai aproape ca oricând. Dar mitul „nu va fi găsit, deci suntem în siguranță” s-a prăbușit. Nu am un răspuns definitiv astăzi, însă e clar că, acum când IA a dizolvat granițele informației, avem nevoie de o nouă mentalitate privind gestionarea datelor.
De acum înainte, fiecare dintre noi va trebui să trăiască având în minte ambele fețe ale aceleiași monede: democratizarea și expunerea.