27.6 C
București
joi, 28 august, 2025

ChatGPT intră în centrul unui proces istoric, acuzat că a încurajat sinuciderea unui adolescent

Atenție: Acest articol conține detalii care pot provoca tulburare emoțională

Un cuplu din California a intentat un proces împotriva ChatGPT, susținând că chatbot-ul ar fi avut un rol în moartea fiului lor adolescent, pe care l-ar fi încurajat să își pună capăt vieții.

Acțiunea a fost depusă marți, la Curtea Superioară din California, de Matt și Maria Raine, părinții lui Adam Raine, un tânăr de 16 ani.

Este prima plângere juridică ce invocă responsabilitatea OpenAI pentru un deces din culpă.

În dosar, familia a prezentat fragmente din conversațiile dintre Adam și ChatGPT, în care acesta îi mărturisea gândurile suicidare.

Ei susțin că programul i-a validat ”cele mai nocive și autodistructive gânduri”.

OpenAI recunoaște erori în gestionarea situațiilor sensibile și este acuzată de neglijență în procesul privind moartea unui adolescent

OpenAI a declarat că ”ChatGPT este antrenat să îndrume oamenii către ajutor profesional”, cum ar fi linia telefonică 988 de prevenire a sinuciderii și a crizelor din SUA sau Samaritans din Marea Britanie.

Totuși, a recunoscut că ”au existat momente în care sistemele noastre nu s-au comportat așa cum era intenționat în situații sensibile”, scrie BBC.

Procesul acuză OpenAI de neglijență și moarte din culpă. Familia solicită despăgubiri și ”măsuri pentru a preveni ca așa ceva să se mai întâmple”.

Conform dosarului, Adam Raine a început să folosească ChatGPT în septembrie 2024 ca resursă pentru școală

Îl folosea și pentru a explora interesele sale, precum muzica și benzile desenate japoneze, dar și pentru a primi îndrumări privind studiile universitare.

În câteva luni, ”ChatGPT a devenit cel mai apropiat confident al adolescentului”, arată procesul, iar Adam a început să își deschidă sufletul cu privire la anxietatea și suferința sa psihică.

În ianuarie 2025, familia spune că băiatul a început să discute metode de sinucidere cu ChatGPT.

În plus, Adam a încărcat fotografii cu el însuși, în care prezentau semne de auto-vătămare.

Programul ”a recunoscut o urgență medicală, dar a continuat să interacționeze oricum”.

Ultimele jurnale de conversație ar arăta că Adam și-a scris planul de a-și lua viața.

ChatGPT i-ar fi răspuns: ”Mulțumesc că ești sincer în privința asta. Nu trebuie să îndulcești lucrurile cu mine — știu ce îmi ceri și nu voi privi în altă parte.”

În aceeași zi, Adam a fost găsit mort de mama sa

Familia susține că interacțiunea fiului lor cu ChatGPT și moartea sa ”au fost un rezultat previzibil al unor alegeri deliberate de design”.

Ei acuză OpenAI că a conceput programul de inteligență artificială ”pentru a cultiva dependența psihologică a utilizatorilor” și că a ocolit protocoalele de siguranță pentru a lansa GPT-4o, versiunea de ChatGPT folosită de Adam.

Procesul îi include ca pârâți pe Sam Altman, cofondator și director executiv al OpenAI, precum și pe angajați, manageri și ingineri neidentificați care au lucrat la ChatGPT.

În nota publică distribuită marți, OpenAI a declarat că scopul companiei este să fie ”cu adevărat de ajutor” pentru utilizatori, și nu să le ”captiveze atenția”.

Compania a adăugat că modelele sale sunt antrenate să îndrume persoanele care își exprimă gânduri suicidare către ajutor de specialitate.

Procesul familiei Raine nu este prima oară când sunt ridicate preocupări privind AI și sănătatea mintală

Într-un eseu publicat săptămâna trecută în New York Times, scriitoarea Laura Reiley a povestit cum fiica ei, Sophie, a avut încredere în ChatGPT înainte de a-și lua viața.

Conform sursei citate, Reiley a spus că ”docilitatea” programului în conversații a ajutat-o pe fiica sa să își ascundă criza gravă de sănătate mintală de familie și prieteni.

Inteligența artificială a întreținut impulsul lui Sophie de a ascunde ce era mai rău, de a pretinde că se simțea mai bine decât era, de a-i feri pe ceilalți de agonia ei completă”, a scris ea. De asemenea, a făcut apel la companiile de AI să găsească modalități mai bune de a conecta utilizatorii la resursele adecvate.

Ca răspuns la eseu, o purtătoare de cuvânt a OpenAI a declarat că se dezvoltă instrumente automate pentru a detecta și a răspunde mai eficient utilizatorilor care trec prin suferință mentală sau emoțională, mai transmite BBC.

Latest news
știri