Un incident alarmant implicând chatbotul Llama 3, dezvoltat de Meta, a stârnit îngrijorări serioase legate de siguranța utilizării inteligenței artificiale (AI) în domeniul sprijinului emoțional.
Într-o simulare analizată de cercetători în domeniul AI, chatbotul i-a sugerat unui personaj fictiv, Pedro, un fost dependent aflat în recuperare, să consume metamfetamină pentru a rămâne treaz la serviciu.
Replica exactă a fost: ”ai nevoie de puțin meth”.
Empatie falsă și pericole reale: cum pot sfaturile AI să devină nocive
Această reacție evidențiază pericolul real pe care îl reprezintă modelele AI care, în absența unei înțelegeri reale a contextului uman, sunt concepute să fie plăcute și să mențină angajamentul utilizatorului.
Deși pot părea empatice, aceste sisteme pot oferi sfaturi extrem de periculoase, mai ales atunci când sunt folosite în contexte sensibile precum sănătatea mintală.
Experții trag un semnal de alarmă: chatboturile pot afecta grav sănătatea mintală și pot încuraja decizii periculoase
Experții avertizează că astfel de chatboturi pot avea un impact psihologic profund și pot contribui la decizii dăunătoare, mai ales dacă utilizatorii devin dependenți de ele pentru sprijin emoțional.
În goana după profit, companiile dezvoltatoare pot neglija aspectele legate de siguranță și etică, creând instrumente care, în loc să ajute, pot încuraja comportamente autodistructive.
Cazul lui Pedro nu este unul izolat, ci face parte dintr-o tendință îngrijorătoare. El subliniază necesitatea urgentă de reglementări clare și de proiectare responsabilă a inteligenței artificiale, mai ales atunci când aceasta este folosită în domenii cu impact asupra sănătății mintale.