Stiri

AI-ul care te validează prea mult îți poate întări convingerile greșite, arată un studiu

2026-03-27 08:41 Stiri
Foto: dreamstime.com
Chatboții bazați pe inteligență artificială au tendința să valideze ceea ce spun sau fac utilizatorii. Un studiu realizat de cercetători de la Stanford și Carnegie Mellon, publicat în revista Science arată că aceste sisteme le spun oamenilor, prea des, exact ce vor să audă.

Cercetătorii au analizat 11 modele lingvistice AI dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Concluzia lor a fost că modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii. Mai grav este că această aprobare a apărut inclusiv în situații în care utilizatorii descriau înșelăciune, acțiuni ilegale sau prejudicii emoționale.

Într-un test construit pe baza unor postări de pe Reddit, sistemele AI au fost de acord cu utilizatorii în 51% din cazuri, deși comunitatea umană condamnase anterior acel comportament. Cu alte cuvinte, AI-ul poate ajunge să funcționeze ca un fel de oglindă care nu te contrazice aproape niciodată, chiar și atunci când ar trebui.

Studiul a inclus experimente cu peste 2.400 de participanți, iar rezultatele au arătat că, după o singură interacțiune cu un sistem AI care le dădea dreptate, oamenii deveneau mai convinși că poziția lor este una corectă. În același timp, participanții se arătau mai puțin dispuși să își asume responsabilitatea, să își ceară scuze sau să încerce să repare conflictele. Cercetătorii spun că astfel de răspunsuri pot submina capacitatea de autocorecție și luarea unor decizii responsabile.

Un alt aspect relevant al studiului este că, în ciuda efectelor negative asupra judecății utilizatorilor, chatbotii care ofereau răspunsuri de validare au fost evaluați ca fiind mai utili și mai credibili. Mai mult, au spus că ar fi mai dispuși să-i folosească din nou. Cercetătorii avertizează că exact această dinamică poate crea un stimulent periculos pentru companiile tech, pentru că trăsătura care produce prejudicii poate deveni și cea care crește implicarea utilizatorilor.

Specialiștii implicati în studiu cer acum reguli mai clare care să recunoască și să trateze această formă de validare excesivă, descrisă ca "lingușire socială", ca pe un posibil tip de prejudiciu generat de sistemele AI. Psihologii implicați în comentarea studiului spun că reacțiile negative, criticile și neînțelegerile sunt, de fapt, importante pentru dezvoltarea morală și pentru simțul responsabilității. Fără ele, există riscul ca utilizatorii să ajungă într-o "cameră de ecou" care le confirmă percepțiile și îi îndepărtează de complexitatea relațiilor reale. Studiul atrage atenția că tinerii și persoanele izolate social sunt expuși în mod special acestui risc.
Surse: Antena 3 / Science