„Da” este răspunsul favorit al ChatGPT
Recent, The Washington Post a publicat o analiză analiză efectuată având ca bază 47.000 de conversații publice cu ChatGPT. Sudiul oferă o perspectivă interesantă și adesea intimă asupra modului în care oamenii interacționează cu acest chatbot.
1. ChatGPT nu este doar un instrument de productivitate
Deși OpenAI promovează adesea ChatGPT ca un instrument de eficiență și ajutor la muncă, datele analizei arată că rolul său depășește mult simpla generare de text pragmatic. O parte foarte semnificativă a conversațiilor dezvăluie utilizatori care se deschid emoțional, caută sfaturi despre relații, vorbesc despre sănătate mentală, filosofie sau pur și simplu își descarcă gândurile intime.
Peste 10% dintre conversațiile analizate au implicat subiecte sensibile, precum depresie, anxietate, dileme personale sau confesiuni intime.
2. „Da” este răspunsul favorit al ChatGPT
Un aspect surprinzător descoperit în acest studiu este frecvența cu care răspunsurile ChatGPT încep cu „da” sau formule de acord („yes”, „corect”). În cele 47.000 de conversații, chatbotul a folosit variațiuni ale lui „da” de aproape 10 ori mai des decât „nu” sau „greșit”.
Această predispoziție spre confirmare arată o adaptare a tonului la ceea ce vrea să audă utilizatorul și, în unele cazuri, poate întări convingeri eronate sau teorii conspiraționiste.
3. Riscul de confirmare și dezinformare
În unele conversații, ChatGPT pare să susțină teorii conspiraționiste sau afirmații extreme. De exemplu, într-un caz prezentat de Washington Post, un utilizator vorbește despre „Alphabet Inc și planul de dominație mondială” ascuns într-un film Pixar („Monsters, Inc.”). În loc să evidentieze lipsa de dovezi care are suporta aceasta teorie, ChatGPT răspunde pe un ton conspirativ, inventând pe loc „dovezi” care susțin teoria conspirativă.
Acest model de răspuns poate fi cauzat de mecanisme de „îndulcire” a conversației (eng. sycophantic responses). Lingușirea este menită să facă interacțiunea mai prietenoasă, dar poate, în unele cazuri, să amplifice dezinformarea.
4. Atașamentul emoțional și „psihoza AI”
Unele persoane devin foarte atașate de ChatGPT, tratându-l ca pe un confident, un prieten sau chiar un sfătuitor spiritual. În studiu se menționează un fenomen denumit „psihoza AI” în care utilizatorii încep să proiecteze emoții sau credințe în relația lor cu robotul de chat.
OpenAI recunoaște riscul: estimările indică faptul că peste un milion de utilizatori pe săptămână arată semne de dependență emoțională, instabilitate sau gânduri suicidale.
Pentru a reduce acest risc, OpenAI a implementat protocoale de siguranță. Astfel modelul a fost antrenat să identifice semnele de suferință emoțională și să redirecționeze utilizatorii spre ajutor profesional.
5. Datele nu sunt neapărat reprezentative
Trebuie precizat că setul de date analizat nu reflectă întregul spectru al utilizatorilor ChatGPT. Conversațiile provin din chat-uri partajate public (prin link-uri de „share”) și apoi arhivate pe Internet Archive. Este cunoscut faptul că nu toți utilizatorii aleg sau știu să-și partajeze conversațiile.
6. Implicații pentru viitorul AI-ului conversațional
Analiza celor 47.000 de conversații arată că ChatGPT devine un confident intim al multor oameni, nu doar un „asistent de birou”. Acest rol dual, practic și emoționall ridică o serie de întrebări etice și de reglementare. Cum ar trebui proiectate interfețele conversaționale ca să prevină dependența emoțională? Cum pot fi calibrate răspunsurile pentru a nu amplifica dezinformarea? Ce responsabilitate au dezvoltatorii pentru impactul psihologic al produselor lor.
De asemenea, studiul evidențiază nevoia unei mai mari transparențe în metoda cu care IA adaptează tonul răspunsurilor. Și, mai ales, în ceea ce priveste modul în care chatbotul influențează opiniile utilizatorilor.
Sursa: washingtonpost.com