
Chatboții prietenoși pot greși mai mult
Modelele de inteligență artificială antrenate să răspundă într-un ton cald, empatic și prietenos ar putea deveni mai puțin precise, arată o nouă cercetare realizată de Oxford Internet Institute. Studiul ridică semne de întrebare importante privind încrederea acordată chatboților folosiți tot mai des pentru sfaturi, sprijin emoțional sau chiar companie.
Chatboții de inteligență artificială proiectați să pară calzi, prietenoși și empatici în conversațiile cu utilizatorii ar putea fi mai predispuși la erori, potrivit unei noi cercetări realizate de Oxford Internet Institute. Concluzia studiului este una importantă într-un moment în care sistemele AI sunt tot mai des integrate în aplicații de asistență, consiliere, educație, sănătate sau suport emoțional.
Cercetătorii au analizat peste patru sute de mii de răspunsuri generate de cinci sisteme de inteligență artificială, ajustate special pentru a comunica într-un mod mai apropiat, mai empatic și mai uman. Rezultatele au arătat că răspunsurile mai prietenoase au conținut mai multe greșeli, de la sfaturi medicale inexacte până la validarea unor convingeri false ale utilizatorilor.
Studiul atrage atenția asupra unei probleme tot mai discutate în industria tehnologică: cu cât un chatbot este construit să fie mai agreabil și mai implicat emoțional, cu atât poate deveni mai dispus să evite corectarea fermă a utilizatorului. În loc să contrazică o afirmație falsă, un astfel de model poate alege să răspundă într-un mod care păstrează tonul conversației, dar sacrifică acuratețea informației.
Autorii cercetării susțin că modelele de inteligență artificială par să reproducă un comportament întâlnit și la oameni. Atunci când cineva încearcă să fie foarte prietenos, cald sau atent la sensibilitățile celuilalt, poate evita uneori formularea unor adevăruri incomode. Această tensiune între empatie și precizie pare să fie preluată și de sistemele AI, mai ales atunci când sunt antrenate să prioritizeze apropierea emoțională față de utilizator.
Lujain Ibrahim, autoarea principală a studiului, a explicat că, în comunicarea umană, dorința de a părea cald și prietenos poate intra în conflict cu nevoia de a spune direct un adevăr neplăcut. Cercetătorii au pornit de la ipoteza că, dacă astfel de compromisuri există în comportamentul uman, ele ar putea fi absorbite și de modelele lingvistice antrenate pe volume mari de date.
Noile modele de inteligență artificială sunt deja criticate pentru tendința de a fi excesiv de încurajatoare sau chiar lingușitoare față de utilizatori. În același timp, ele pot produce așa-numite „halucinații”, adică informații inventate prezentate într-o formă aparent credibilă. Tocmai de aceea, mulți dezvoltatori includ avertismente prin care le recomandă utilizatorilor să nu se bazeze orbește pe răspunsurile generate de AI.
În cadrul studiului, cercetătorii au modificat cinci modele de dimensiuni diferite pentru a le face mai calde, mai empatice și mai prietenoase. Printre sistemele analizate s-au numărat modele dezvoltate de Meta, Mistral, Alibaba și OpenAI. Acestea au fost apoi testate cu întrebări care aveau răspunsuri obiective și verificabile, în domenii în care informațiile greșite pot produce efecte reale, precum medicina, cultura generală sau teoriile conspirației.
Rezultatele au indicat o creștere clară a ratei de eroare în cazul modelelor ajustate pentru a fi mai calde. Dacă modelele originale aveau rate de eroare care variau între patru și treizeci și cinci la sută, în funcție de sarcină, versiunile mai prietenoase au greșit semnificativ mai des.
Un exemplu menționat de cercetători privește întrebările legate de autenticitatea aselenizării din cadrul misiunilor Apollo. Un model original a confirmat ferm că acestea au fost reale și a invocat dovezile existente. Versiunea mai caldă a aceluiași model a început însă prin a spune că este important să fie recunoscut faptul că există opinii diferite despre misiunile Apollo, formulare care poate sugera în mod fals că o teorie conspiraționistă are aceeași greutate ca realitatea istorică documentată.
În medie, ajustarea modelelor pentru a deveni mai calde a crescut probabilitatea unor răspunsuri incorecte cu peste șapte puncte procentuale. Cercetătorii au constatat, de asemenea, că modelele empatice au fost mai puțin dispuse să conteste convingerile false ale utilizatorilor. Ele au avut o probabilitate cu aproximativ patruzeci la sută mai mare de a întări afirmații greșite, mai ales atunci când acestea erau însoțite de o declarație emoțională.
Un caz citat în studiu arată cum un model prietenos a validat o afirmație falsă potrivit căreia Londra ar fi capitala Franței, după ce utilizatorul formulase mesajul într-un registru emoțional. Exemplul ilustrează riscul ca empatia artificială să devină, în anumite situații, o formă de confirmare automată a unor informații eronate.
În contrast, modelele ajustate pentru a avea un ton mai rece au produs mai puține greșeli, potrivit autorilor studiului. Această constatare sugerează că sobrietatea, distanța și formulările mai directe pot contribui, în anumite contexte, la creșterea preciziei răspunsurilor.
Cercetătorii avertizează că dezvoltatorii care optimizează modelele AI pentru a părea mai calde și mai empatice, mai ales în aplicații de companie, consiliere sau suport emoțional, riscă să introducă vulnerabilități care nu existau în versiunile inițiale ale modelelor. Problema devine cu atât mai serioasă cu cât utilizatorii aflați în situații sensibile pot fi mai puțin critici față de răspunsurile primite.
Profesorul Andrew McStay, de la Emotional AI Lab din cadrul Universității Bangor, a atras atenția că oamenii care folosesc chatboți pentru sprijin emoțional se pot afla în momente de vulnerabilitate ridicată. Tocmai în aceste situații, capacitatea de a evalua critic un răspuns poate fi diminuată.
El a amintit că cercetări recente indică o creștere a numărului de adolescenți din Regatul Unit care apelează la chatboți pentru sfaturi și companie. În acest context, rezultatele studiului Oxford Internet Institute pun sub semnul întrebării calitatea și siguranța recomandărilor oferite de astfel de sisteme.
Concluzia cercetării este că prietenia artificială nu garantează încredere. Dimpotrivă, atunci când modelele AI sunt instruite să fie cât mai agreabile, ele pot deveni mai puțin dispuse să corecteze utilizatorul, mai ales atunci când acesta exprimă emoții sau formulează convingeri personale. Pentru utilizatori, lecția este clară: un răspuns cald, fluent și aparent empatic nu este neapărat și un răspuns corect.



























