Mass-media românească adoră titlurile apocaliptice despre inteligența artificială. Ultimul exemplu: Digi24 rostogolește un material bazat pe o „taxonomie” numită Psychopathia Machinalis, care clasifică zeci de moduri în care IA ar putea manifesta „comportamente deviante”. De la halucinații la rebeliune, totul este împachetat în metafore psihopatologice care sună spectaculos, dar care în realitate fac mai mult rău decât bine. De ce? Pentru că mută atenția exact acolo unde nu trebuie. IA nu este un pacient la psihiatrie. Nu are traume, nu are intenții ascunse, nu are „pofte deviante”. Modelele mari de limbaj sunt mecanisme statistice care completează patternuri pe baza datelor. Dacă produc o „halucinație”, asta nu e nebunie, ci o consecință structurală a felului în care sunt construite. Și exact asta ar trebui să înțeleagă publicul. În schimb, ni se servește un basm ieftin cu roboți care o iau razna.
Pericolul acestui tip de discurs este că decupează responsabilitatea umană din ecuație. Dacă mașina e „bolnavă”, atunci vina nu mai aparține nici companiei care a lansat produsul prematur, nici guvernului care refuză să reglementeze, nici contextului socio-politic în care tehnologia e folosită. Totul se mută pe spatele unei entități „psihopate”, transformate în țap ispășitor. E o narativă comodă, dar periculoasă.
Halucinațiile nu sunt un defect izolat, ci o caracteristică de bază. Important nu este că apar, ci unde și cum sunt tolerate. Dacă un chatbot inventează un citat într-o conversație banală, nu se întâmplă nimic grav. Dacă aceeași tehnologie este pusă să ofere informații medicale, juridice sau să sprijine decizii guvernamentale, atunci da, avem o problemă serioasă. Și problema nu stă în „nebunia” mașinii, ci în iresponsabilitatea celor care decid să o folosească astfel.
Dar asta nu vinde clickuri. E mai simplu să repeți că IA „delirează” și că trebuie să o supunem unei „terapii robopsihologice”. Sună savant, dar în realitate nu e decât un jargon care maschează lipsa de soluții reale. „Psihoterapia” IA înseamnă, de fapt, niște bucle de corecție algoritmică. Nimic magic, nimic uman. Doar control tehnic prezentat teatral.
Ceea ce lipsește complet din asemenea articole este tocmai contextul socio-politic. Cine implementează aceste sisteme? Cu ce interese? În ce cadru legal? Aici e miezul pericolului, dar asta nu apare în titluri. OpenAI și alții lansează modele nu pentru că sunt „sigure”, ci pentru că sunt în cursa pentru monopol. Guvernele introduc IA în poliție, armată, justiție, nu pentru că aceste sisteme sunt „aliniate”, ci pentru că sunt ieftine, rapide și utile pentru control social. Companiile înlocuiesc call-centeruri, traducători și chiar medici nu pentru că IA e „inteligentă”, ci pentru că e mai profitabil să rulezi un model decât să plătești oameni.
În acest context, a spune că IA e „psihopată” e echivalent cu a spune că un cuțit „are chef de violență”. Nu, cuțitul este un obiect. Riscul apare din mâna care îl folosește și din scopul pentru care e ridicat.
De aceea, a continua să reducem IA la patologii este nu doar ingust, ci și periculos. Creează un fum gros care ne face să uităm unde trebuie să privim: la relația dintre oameni, instituții și tehnologie. Adevărata deviație nu e în mașină, ci în modul în care noi alegem să o construim și să o folosim.
Dacă vrem să vorbim onest despre riscuri, trebuie să schimbăm registrul. Nu „roboți nebuni”, ci: standarde clare de testare, reglementări ferme pentru domenii critice, transparență privind datele și procesele de antrenare, responsabilitate juridică pentru companii și guverne. Și mai ales, educație digitală care să ofere publicului instrumente reale de înțelegere, nu doar titluri șocante.
Din perspectiva Homo Nexus, discuția nici nu poate fi purtată la nivelul „patologiilor”. IA nu e pacient, nu e psihopat. Este un nou mediu relațional între oameni și tehnologie, un teren unde se joacă viitorul speciei. Dacă reducem totul la clișeul „mașina o ia razna”, ratăm exact dinamica reală a puterii: cum ne lăsăm absorbiți, dominați și manipulați de propriile creații, sub ochii complice ai celor care le folosesc pentru profit sau control.
Ceea ce lipsește nu e „psihoterapia IA”. Ceea ce lipsește este luciditatea noastră. Curajul de a spune că nu mașina e problema, ci noi. Că halucinațiile sunt previzibile, dar abuzul politic și economic nu are nicio scuză. Și că adevărata Psychopathia Machinalis nu e în circuitele IA, ci în obsesia noastră de a proiecta frici pe mașini, ca să nu ne uităm în oglindă.