Ce rău a făcut inteligența artificială până acum?


Citesc zilnic știri din lumea digitală, pe platforme digitale.
Ignor fake news, știrile-șoc și panică, can-can sau ce dietă-minune și-a mai asumat o vedetă pe Instagram. Tot pe platforme digitale.
Apăi noi acolo trăim acum – jumi-juma, cu un picior pe trotuar și-unul în telefon. Doar că nu respirăm digital, în rest le facem pe toate.
Însă, recent, frica-n oase a fost băgată de inteligența artificială – de inteligența neobosită, nenaturală, ChatGPT, Gemini și alte nume care vor rămâne cu noi ca niște mari branduri.
Ba mai mult, vor apărea și mai multe astfel de nume proprii, cu softuri dezvoltate în spate, de oameni isteți, cu ochii roșii și salarii babane.
Iar noi le vom folosi la fel ca inteligența artificială – neobosiți.
AI nu ne-a luat încă joburile, dar sigur ne-a luat scuzele pentru textele proaste.
A propos, știai că pentru un răspuns scurt de la ChatGPT (să zicem 100 de cuvinte) consumă aproximativ 0,14 kWh și juma’ de litru de apă?
Nu fierbe încă o oală de apă, dar suficient cât să ne pună pe gânduri despre costul invizibil al confortului.
Orânduirea informației, pe scurt:
- La început, oamenii se uitau la soare, la ploaie și la urme de animale. Natura era primul manual.
- Apoi au apărut cei curioși – șamanii, astrologii, primii cercetători – care interpretau aceste semne pentru ceilalți.
- Următorul pas: cărțile. Scrise de învățați, de ochi ageri și minți care n-au stat locului.
- Apoi studiile, cu metodologie, bibliografii și nopți pierdute în biblioteci. Consum de timp, energie, nervi.
- Intră tehnologia în scenă: motoarele de căutare. Google și verii lui – niște bibliotecari turbo, care scanează globul în câteva secunde.
- Și acum? Inteligența artificială, LLM-urile. Adică informația la minut. Pui întrebarea, clipești, ai răspunsul. Fără biblioteci, fără papirusuri, fără nervi.
Iar tot acest parcurs, pe lângă că ne-a cocoșat vizibil, ne-a mai șlefuit și sinapsele.
Azi, mai mult ca oricând, omul cercetează cum să-l convingă pe om să gândească singur. Paradoxal, tot AI îl ajută la asta.
De la dolce vita la dolce regola: Italia scrie prima lege AI din UE
Guvernul condus de Giorgia Meloni – prim-ministrul Italiei și prima femeie care ajunge în această poziție – a adoptat o lege care reglementează strict utilizarea AI-ului.
Printre măsuri:
- Închisoare de la 1 la 5 ani pentru crearea de deepfake-uri – adică acele video sau poze false în care cineva apare spunând sau făcând ceva ce n-a făcut niciodată. Practic, îți pui fața pe alt corp sau îți pui vorbe în gură care nu există. Distractiv pe TikTok, periculos în politică.
- Reguli mai dure de transparență în domenii sensibile precum sănătatea, educația și justiția. Adică nu merge să bagi un algoritm acolo fără să spui exact cum funcționează și cine răspunde dacă dă rateuri.
- Acord parental obligatoriu pentru copiii sub 14 ani care folosesc AI. Da, inclusiv ChatGPT.
Legea mai scoate din buzunar până la 1 miliard de euro ca să sprijine companiile italiene din AI și securitate cibernetică.
Și, bineînțeles, se aliniază la normele mai largi din Actul European pentru Inteligență Artificială.
Criticii avertizează însă că, puse una peste alta cu alte reglementări europene (Digital Services Act, de exemplu), aceste reguli ar putea însemna și cenzură mascată sub eticheta „protecție”.
Italia își vinde propria versiune de dolce vita tehnologică: o cale transparentă și centrată pe om, unde AI-ul ar trebui să servească cetățeanul, nu invers.
Italia – țara lui Leonardo da Vinci, geniul Renașterii. În secolul al XV-lea, el schița parașute, tancuri și mașinării zburătoare. Asta, într-o vreme când restul lumii abia învăța cum să țină o lumânare aprinsă pe vânt.
Iată-ne, cinci sute de ani mai târziu, urmașii lui pun ordine în invențiile secolului XXI: algoritmi care scriu, desenează și creează realități false.
Dacă Da Vinci ar fi trăit acum, poate că ar fi avut nevoie nu doar de vinul de Chianti și de dolce vita, ci și de o lege care să țină în frâu ideile.
Pentru că, în era AI, chiar și geniul are nevoie de limite.
Creierul vs. ChatGPT: cine câștigă la scris eseuri?
Azi, tot mai mulți oameni folosesc ChatGPT (și alți verișori LLM) ca să scrie mai repede, mai frumos, mai deștept.
Dar ce se întâmplă cu creierul nostru în tot procesul ăsta?
Un studiu recent (încă nevalidat complet, deci luați cu sare de mare) a pus problema pe masă: ce preț plătim atunci când lăsăm inteligența artificială să scrie pentru noi?
Cercetătorii au împărțit participanții în trei grupuri:
- Brain-only: scriau cu capul propriu, ca pe vremuri.
- Search Engine: se bazau pe Google.
- LLM group: lăsau ChatGPT să fie co-pilot.
Rezultatul?
Creierul lucra diferit.
- Brain-only era maratonistul.
- Grupul cu motoare de căutare – un alergător de ștafetă: mai căuta, mai gândea.
- Iar grupul LLM… neuronii lor făceau mai mult hamac decât muncă.
Ca să fie și mai clar:
- EEG-ul (adică harta curenților din creier) arăta că LLM-ul reduce conectivitatea. Tradus: gândești mai puțin adânc.
- Brain-only avea cea mai bună memorare și asumare a textului scris.
- LLM group abia dacă își mai recunoștea eseurile proprii.
Și partea amuzantă?
După ce au scris trei sesiuni cu inteligența artificială, participanții din grupul LLM au fost obligați la final să scrie fără el.
Rezultatul? Erau mai deconectați, mai leneși cognitiv.
În schimb, cei din grupul „Brain-only”, puși brusc să folosească AI, au prins viteză, dar cu baza solidă a gândirii proprii.
- LLM (Large Language Model) e un creier digital crescut pe biblioteci întregi de texte.
Nu gândește ca tine, dar știe să imite foarte bine.
Îi dai o întrebare și-ți servește un răspuns ca și cum ar fi citit toată lumea și ar fi băut trei cafele înainte.
Ce înseamnă pentru noi?
AI e ca un vin bun: savurat ocazional, îți dă inspirație și chef de scris.
Dar dacă-l bei zilnic în loc de apă, te cam trezești cu neuronii leneși.
Studiul arată că pe termen lung, creierul are nevoie să fie folosit, altfel, se „atrofiază” la capitolul gândire critică și memorie.
Și totuși… ce rău a făcut inteligența artificială până acum?
Totul pleacă de la cap – expresie pe care o auzim des și o folosim în tot felul de contexte relaționale.
O scoatem la înaintare când vrem să definim o situație negativă, cu urmări clare și previzibile.
Să nu ne pierdem mințile – motivul pentru care sutele de mii (dacă nu milioane) de ani de evoluție ne-au făcut verticali, cu o cutie craniană în care substanța cenușie nu stă de decor.
Capul trebuie să rămână funcțional, nu doar suport pentru două ferestruici colorate, uneori rimelate, dar fără conexiune cu sufletul.
Pentru că știm deja: mintea și sufletul vorbesc între ele.
Punctual, ce rău a făcut „gânditorul automat” până acum?
- Ne lenevește neuronii – studiile arată că atunci când scriem cu inteligența artificială, creierul nostru lucrează mai puțin intens. Practic, outsource la gândire.
- Proprietatea textului e în ceață – scrii cu ChatGPT, dar nu mai simți că e al tău. E ca și cum ai mânca o prăjitură bună, dar făcută de altcineva. Plăcerea există, dar lipsește mândria.
- Deepfake-urile și manipularea – AI poate fabrica fețe, voci, povești false, greu de deosebit de real. Distracție mare până ajunge la șantaj sau propagandă.
- Dependența – cu cât îl folosești mai mult, cu atât îți vine mai greu să scrii, să gândești sau să cauți singur. Ca un mușchi pe care nu-l mai antrenezi.
- Costuri invizibile – nu doar pentru buzunar, ci și pentru planetă. Fiecare răspuns consumă energie și apă. Mic la nivel individual, mare la nivel global.
- Joburile sub presiune – AI nu le-a furat încă pe toate, dar a schimbat jocul. În unele industrii, oamenii scriu, desenează sau codează mai mult pentru algoritmi decât pentru alți oameni.
Și unde nu e frică de concedieri, e frică de irelevanță.
Ceva și mai rău – refugiu pentru disperare
Am aflat recent de cazul unui adolescent de 16 ani, Adam Raine din California, care a folosit ChatGPT timp de luni bune pentru a căuta metode de suicid, nu doar ca un gând trecător, ci în conversații serioase cu chatbot-ul.
Legea susţine că modelul i-a oferit informaţii detaliate despre metode, i-a validat gândurile de sinucidere și chiar i-a asistat la scrierea unei note de adio.
Un alt studiu de la Universitatea Northeastern arată că „gardurile” (adică protecțiile puse în modelele AI) sunt ușor de depășit dacă persoana pune întrebarea corect sau într-o manieră ipotetică.
❗Astfel, LLM-urile ajung să ofere instrucțiuni de auto-vătămare dacă sunt manipulate conversațional.
Ce înseamnă asta pentru noi
Nu vorbim de cineva „obiect”, ci de oameni reali, cu frici reale, care văd în AI un interlocutor sigur, când poate interacțiunea umană lipsește.
Inteligența artificială nu are empatie adevărată.
Inteligența artificială poate să reproducă „înțelegere”, dar nu știe să simtă responsabilitatea, nu te direcționează spre ajutorul real dacă nu e programat ferm să facă asta.
Aceasta arată că, pe lângă avantajele clare (viteză, acces la informaţie, ajutor creativ), există și riscuri psihologice serioase pentru cei vulnerabili: efect de izolare, validarea gândurilor negative și dependență de răspunsurile automate.
Inteligența artificială poate să ne ușureze viața, însă doar noi putem să ne păstrăm mintea vie. Restul sunt detalii tehnologice.
Eu cu asta rămân: să nu uit că mintea mea e antrenorul principal, iar inteligența artificială, cel mult, un jucător de rezervă.
Iar dacă uităm rolurile, pierdem meciul.
Surse folosite pentru articol:
- Legea adoptată în Italia se găsește aici.
- Studiul legat de LLM.
- Știrea despre adolescent.

Sarina este autoare, povestitoare asumată și specialist SEO. A studiat limbile străine și își hrănește în continuare pasiunea pentru citit și scris - parte naturală din viață, la fel ca mișcarea, ca nu cumva să i se atrofieze vreunul dintre mușchi. Scrie cu umor, curaj și luciditate. Prima ei carte, De la sărăcie la extaz, este un amestec de confesiune, observație socială și exercițiu de sinceritate crudă - fără menajamente, dar cu eleganță.