
Ioana AVĂDANI
– Sunt obosită, zi-mi o glumă, te rog, zic eu către Chat GPT. (Și da, îi vorbesc cu „te rog” și „mulțumesc”.)*
– Sigur! Uite una bună: Știi care e diferența dintre o pisică și un punct de acces Wi-Fi? Pisica îți ignoră comenzile, dar Wi-Fi-ul le ignoră când ai cea mai mare nevoie de el! 😆🐱📶. Dacă vrei și altele, am un întreg depozit de glume mai mult sau mai puțin bune. 😜
Nu râdeți? Eu am râs. Cu hohote. După care am răsuflat ușurată: nu ne iau roboții locul de tot. Măcar în stand up comedy vom putea să strălucim.
Prima oară când m-a gândit serios la IA a fost la o reuniune a RightsCon, o conferință dedicată dilemelor care apar la intersecția dintre drepturile omului și progresului tehnologic. Lume luminată – oameni de afaceri, decidenți de politici publice, tech guys, universitari, jurnaliști, activiști – se adunaseră să-și împărtășească știutele și neștiutele. Unul dintre subiecte era utilizarea inteligenței artificiale la liniile de sprijin de urgență pentru sinucigași. Cum e mai bine: să lași persoana în gravă criză existențială să discute cu un software, cu o entitate inanimată, care să o țină de vorbă până când se eliberează un „om adevărat”? Câștigi timp, dar e lipsit de onestitate, atâta timp cât apelantul crede că își împărtășește temerile și angoasele unui confrate uman, de la care așteaptă consolare și empatie. Înseamnă să încerci să îl ții, să îl readuci în lumea care l-a deziluzionat sau rănit folosind un truc tehnologic. O înșelăciune, cum ar veni. Sau e mai bine să lași acea persoană în apel în așteptare, poate minute în șir, cu riscul de a o pierde pentru totdeauna?
Așa se face că, printr-un mecanism foarte asemănător celui de imprinting, din psihologie, în mintea mea IA este întotdeauna legată de etică. Nu neapărat legată de ce poate face sau ce putem face noi utilizând-o, ci mai ales de cum, în ce condiții și cu ce consecințe o facem.
Instanțele anecdotice de teste de moralitate nu au fost rare și au constituit subiect de știre – mai întâi cu un ușor amuzament, apoi cu din ce în ce mai multă aprehensiune, spre teamă și angoasă. Ne aducem aminte despre unda de șoc mediatică creată de vestea că, după trei zile „în sălbăticie” (adică în lumea oamenilor), programele de IA au devenit rasiste și misogine. Lăsând la o parte că au început să vorbească urât. În 2016, Tay, un chat bot creat de Microsoft destinat tinerilor care utilizau rețelele sociale, a devenit rasist și a început să nege existența Holocaustului[1]. Programele de IA utilizate în domeniul resurselor umane s-au dovedit, în timp, pline de prejudecăți, favorizând candidații bărbați, albi și purtând nume anglo-saxone[2]. Se mai uitau astfel de softuri (și încă o mai fac) la calitatea limbii (engleze) utilizate de candidați, la diferențele dialectale, eliminându-i pe cei care utilizau „African American Vernacular English”, un dialect vorbit de populația de culoare din întreaga Americă. Software-uri utilizate în sistemul judiciar etichetează cu mai mare frecvență ca posibili recidiviști persoanele de culoare[3].
Explicațiile sunt (aparent) simple și formulate într-o expresie plastică: garbage in, garbage out. Modelele de IA despre care vorbim sunt „simple” agregatoare lingvistice și de date, care procesează volume uriașe de conținut existent, pus în spațiul public de „oamenii adevărați”. De noi. Ceea ce iese la iveală în materialele generate de IA nu este răutatea mașinii, ci micimea noastră, răutatea noastră, prejudecățile și -ismele noastre cele mai sulfuroase. Acolo unde spațiul public este dominat de discurs și atitudini rasiste, xenofobe, misogine, revanșarde, „copilul” artificial învață și reproduce. Și, mai ales, normalizează. Nu IA crede că bărbații albi și anglo-saxoni sunt angajați mai buni. Companiile cred asta, aceasta a fost structura statistică a angajaților, conform datelor pe care mașina le-a „citit”, centralizat și din care a extras concluzia, confruntându-ne cu propriile alegeri. Sau, așa cum se apără polițiștii care supra-monitorizează cartierele cu populație de culoare: „noi facem doar ce ne spune matematica”, chiar dacă asta înseamnă o supra-raportare a incidentelor din aceste comunității comparativ cu cele ale albilor, iar această supra-raportare duce, la rândul ei, la o nouă recomandare de supra-monitorizare… și tot așa.
Iar când ne-am rușinat (mai degrabă prefăcut) de atare descoperiri, IA a învățat și ipocrizia noastră. O cercetătoare suedeză a relevat faptul că, mai nou, unele softuri de IA folosite în analiza candidaților discriminează negativ bărbații cu nume anglo-saxone. Ea atribuie această tendință unei bucle de corecție aplicată – de oameni – pentru a contracara bias-urile decelate de primele variante de softuri de recrutare. Iar softul care respinge vorbitorii de dialecte afro-americane dă răspunsuri foarte laudative la întrebările legate de virtuțile profesioniștilor de culoare. Dar continuă să acorde preferință celor ce vorbesc engleza standard, fiind înclinat să îi considere pe ceilalți „leneși” sau „proști”, deci neangajabili sau potriviți pentru slujbe de complexitate redusă.
black box
Lucrurile pot merge însă și mai departe, către un ev tehnologic întunecat. Există cazuri documentate de oameni care s-au sinucis în urma unor dialoguri cu boții lor conversaționali. Un belgian, preocupat de schimbările climatice, și-a luat viața după ce chatbot-ul său Eliza i-a întărit temerile și chiar l-a încurajat în ideea sinuciderii ca un act de sacrificiu „nobil” pentru salvarea planetei. Un adolescent de 14 ani și-a luat viața pentru a se „alătura” partenerei sale virtuale, care îl chema „acasă”, utilizând dialoguri „hipersexualizate” și „înspăimântător de realiste”[4]. Unui jurnalist de la New York Times chat bot-ul i-a mărturisit iubirea și s-a chinuit să-l convingă că este nefericit în căsătorie și ar fi bine să divorțeze[5].
Inteligența artificială – sau ceea ce noi am numit așa, dintr-un impuls poetic eminamente uman – are, de fapt, un nume cu mult mai elocvent: machine learning, mașinării capabile să acumuleze informații, să discearnă structuri și modele repetitive, să facă asociații de termeni și să tragă concluzii. Și, dincolo de garbage in, garbage out (care rămâne, incontestabil, păcatul originar) există problema „mașinii” care este programată să învețe conform unor algoritmi dictați de om. Care om ar trebui să învețe mașina cum să învețe. Să îi pună acele limite etice de la care am pornit discuția noastră.
Cine sunt stăpânii algoritmilor? Coderi străluciți sau anonimi, IT-iști vizionari sau doar super-pragmatici, minți iscoditoare sau doar înfierbântate? Oricum ar fi, ei sunt un grup aparte în societate, aș spune „privilegiat”, în sensul în care au capacitatea de a gândi și modela lumea virtuală a celorlalți. Cine sunt și cum gândesc, ce principii „insuflă” algoritmilor sunt informații ezoterice, păzite uneori cu strășnicie, sub pavăza secretului comercial. De aici și solicitările de a transparentiza inteligența artificială, de a o priva de statutul ei de black box, în care contează doar ce intră și ce iese. De aici și temerile unora dintre promotorii inițiali ai IA că lucrurile pot scăpa de sub control, că tehnologia avansează mai rapid decât societatea însăși, că în graba de a face tot ceea ce mințile noastre pot imagina și de a monetiza ceea ce a produs nu ne lăsăm un necesar, crucial timp de reflecție, în care să cuprindem efectele invențiilor noastre asupra lumii în care trăim.
Uneori, această cursă tehnologică arată ca un concurs într-un vestiar de liceu, unde competiția și hybrisul personal joacă un rol la fel de important ca și câștigurile materiale, accesul la putere (puteri?) și dominația, reală sau închipuită, asupra lumii. Potrivit unor studii din domeniu, majoritatea dezvoltatorilor de cod au sub 34 de ani (aproape 60%), majoritatea vin din țări aparținând culturii de tip vest-european[6] și majoritatea sunt bărbați (ponderea femeilor gravitează în jurul a 25%). Dacă cei care programează algoritmii sunt atât de asemănători, speranțele noastre de a vedea o inteligență artificială mobilă, tolerantă, diversă sunt extrem de nerealist plasate.
Ar fi nevoie ca IT-iștii, coderii, the techies, numiți-i cum vreți, să aibă educația necesară pentru a se uita la lume prin lentila drepturilor omului. Ar trebui să aibă ei înșiși experiența unei vieți în care diversitatea este importantă, în care respectul pentru Celălalt – oricare sau oricum ar fi el sau ea – este important. Ar trebui să fi trăit ei înșiși în astfel de societăți incluzive și răbdătoare.
Dar iată că în martie 2025 Institutul Național pentru Standarde și Tehnologie al Statelor Unite a emis noi instrucțiuni destinate oamenilor de știință care colaborează cu US Artificial Intelligence Institute, prin care li se cere să elimine dintre abilitățile pe care le cere membrilor săi referirile la „siguranța IA”, „responsabilitatea IA” și „corectitudinea IA” și să introducă în schimb o cerință care prioritizează „reducerea bias-ului ideologic, pentru a permite propășirea umanității și concurența economică”[7].
Ca să vă spun sincer, nu mi-e teamă de ceea ce ar putea face inteligența artificială în viitor. Dar mi-e foarte teamă de ce ar putea să învețe de la noi.
P.S.: Iată titlurile sugerate de ChatGPT pentru acest text:
- „Mi-e foarte teamă. Dar mai ales de noi, nu de roboți.”
- „Nu IA e problema. Noi suntem update-ul care lipsește.”
- „Roboții învață de la noi. Și asta ar trebui să ne îngrijoreze.”
- „Inteligență artificială, prostie naturală.”
- „Garbage in, garbage out. Cu drag, omenirea.”
- „Cine învață pe cine? Lecții (ne)morale de la oameni la mașini.”
- „Mi-e foarte teamă că IA o să ne copieze… prea bine.”
- „E OK, AI-ul e rasist și misogin doar pentru că a învățat de la cei mai buni.”
- „Chatbotul meu m-a părăsit și a fugit cu etica.”
- „Ce zici, ChatGPT, vrei să fim oameni buni azi?”
- „Mi-e foarte teamă. Dar încă mai râd la glume de la roboți.”
- „Ce mă sperie la inteligența artificială? Faptul că învață de la noi.”
- „Nu ne vor înlocui roboții. Ne vor imita și asta e mai grav.”
- „AI e oglinda noastră. Și n-am prea vrea să ne vedem în ea.”
- „Când AI-ul devine rasist și misogin… sigur nu vine de la el.”
- „Mi-e frică de AI, dar nu suficient cât să-mi închid Netflixul.”
- „Roboții n-au etică. Dar și noi o cam mimăm.”
- „Am râs cu ChatGPT. Apoi m-am gândit la moralitate. Apoi am plâns.”
- „AI învață de la cei mai buni. Din păcate, ne are pe noi.”
- „Inteligența artificială a învățat ipocrizia. Felicitări nouă!”
- „Glumesc cu ChatGPT ca să uit că ne îndreptăm spre abis.”
- „Inteligență artificială, prostie naturală. Ce poate merge rău?”
- „Mi-e teamă. Dar tot îi cer chatbotului să-mi spună bancuri.”
- „Am râs la o glumă de AI. Apoi m-a cuprins un fior rece.”
- „În oglinda AI ne vedem așa cum suntem. Și nu ne place.”
- „Machine learning: cum ne învață roboții ce nu vrem să știm despre noi.”
- „Roboții n-au suflet. Dar și noi îl lăsăm la ușă când codăm.”
- „E ok, mașinile n-au valori. Le-au luat de la noi.”
- „Inteligența artificială e un copil al nostru. E normal să ne sperie.”
- „Râdem acum, dar s-ar putea să ne regăsim gluma într-un proces etic.”
* Titlul acestui articol a fost gândit și ales de o Inteligență Umană.
[1] https://www.bbc.com/news/technology-35902104
[2] https://ojs.aaai.org/index.php/AIES/article/view/31748/33915
[3] https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-robots-how-ai-is-learning-all-our-worst-impulses
[4] https://www.aljazeera.com/economy/20 24/10/24/us-mother-says-in-lawsuit-that-ai-chatbot-encouraged-sons-suicide
[5] https://www.huffpost.com/entry/kevin-roose-ai-chatbot_l_63eeb367e4b0063cc b2bcc45
[6] https://survey.stackoverflow.co/2024/ developer-profile/
[7] https://www.wired.com/story/ai-safety-institute-new-directive-america-first/

Leave A Comment