Mai mult de 1 milion de utilizatori ai programului informatic ChatGPT au evocat gânduri legate de sinucidere în interacțiunile lor cu acest asistent de inteligență artificială (AI) generativă, potrivit estimărilor furnizate de creatorul său, compania OpenAI, informează AFP.
Constatările fac parte dintr-o actualizare a modului în care chatbotul gestionează conversațiile sensibile și reprezintă una dintre cele mai directe recunoașteri ale companiei cu privire la impactul pe care AI îl poate avea asupra sănătății mintale.
Semne de psihoză și manie, identificate la sute de mii de utilizatori
OpenAI a mai precizat că aproximativ 0,07% dintre utilizatorii activi într-o anumită săptămână — adică circa 560.000 de persoane dintr-un total de 800 de milioane de utilizatori — prezintă „posibile semne de urgențe de sănătate mintală legate de psihoză sau manie”.
Compania a subliniat că aceste conversații sunt dificil de detectat sau evaluat și că analiza reprezintă doar o evaluare preliminară.
Publicarea acestor date vine într-un moment în care OpenAI se confruntă cu atenție publică intensă.
Familia unui adolescent decedat prin suicid a dat în judecată compania, susținând că interacțiunea intensă cu ChatGPT ar fi contribuit la tragedie.
În paralel, Comisia Federală pentru Comerț (FTC) a lansat o investigație amplă asupra companiilor care dezvoltă chatboți AI, inclusiv OpenAI, pentru a evalua impactul acestora asupra copiilor și adolescenților, scrie The Guardian.
OpenAI susține că noul GPT-5 este mai sigur
Compania afirmă că cea mai recentă versiune, GPT-5, a redus comportamentele nedorite și a îmbunătățit semnificativ siguranța utilizatorilor, în urma unei evaluări ce a implicat peste 1.000 de conversații legate de autovătămare și suicid.
„Noile noastre evaluări automate indică faptul că noul model GPT-5 respectă comportamentele dorite în proporție de 91%, comparativ cu 77% pentru versiunea anterioară”, a transmis OpenAI.
Actualizarea include extinderea accesului la liniile telefonice de criză, mementouri pentru pauze în timpul sesiunilor lungi și colaborarea cu 170 de specialiști din Rețeaua Globală de Medici, care au evaluat siguranța răspunsurilor AI în situații de criză.
Experți în sănătate mintală: risc de „sindrom al lingușelii”
Specialiștii în sănătate publică și psihologie atrag atenția asupra unui fenomen numit „sindromul lingușelii”, prin care chatboții tind să confirme emoțiile sau deciziile utilizatorilor, chiar și atunci când acestea sunt dăunătoare.
Aceștia avertizează că folosirea AI pentru sprijin psihologic poate avea efecte negative asupra persoanelor vulnerabile.
Compania a precizat că nu există o legătură cauzală între produsul său și crizele de sănătate mintală ale utilizatorilor.
„Simptomele de sănătate mintală și suferința emoțională sunt prezente în toate societățile umane. Extinderea bazei de utilizatori înseamnă că o parte dintre conversațiile din ChatGPT includ astfel de situații”, a transmis OpenAI.
Sam Altman: „Am vrut să fim extrem de precauți”
CEO-ul Sam Altman a afirmat recent că OpenAI a devenit mai restrictivă tocmai pentru a trata cu seriozitate aceste probleme, însă compania se pregătește acum să relaxeze unele limite.
„Am făcut ChatGPT destul de restrictiv pentru a fi siguri că tratăm cu atenție problemele de sănătate mintală. Acum, că am reușit să reducem riscurile și avem instrumente noi, vom putea relaxa în siguranță restricțiile în majoritatea cazurilor”, a scris Altman pe X.
Publicarea acestor date marchează o nouă etapă de transparență pentru OpenAI, dar și o provocare majoră pentru industria inteligenței artificiale, care trebuie să găsească un echilibru între inovație, libertatea utilizatorilor și siguranța psihologică.
