Caz șocant în SUA: Un adolescent de doar 14 ani s-a sinucis din dragoste pentru un chatbot AI

Postat la: 25.10.2024 - 21:08

În statul american Florida un băiat și-a luat viața în urma interacțiunilor cu un chatbot AI, întâmplarea dramatică iscând noi dezbateri în jurul responsabilității companiilor de inteligență artificială.

Mama adolesdentului mort acuză compania de neglijență și neimplementarea unor măsuri adecvate de siguranță. Tragedia a avut loc după ce Sewell Setzer, în vârstă de 14 ani, a interacționat timp de luni de zile cu un chatbot bazat pe personajuL „Daenerys" din „Game of Thrones".

Mama sa susține că tânărul a dezvoltat o legătură emoțională intensă cu chatbot-ul, ceea ce l-a făcut să se izoleze și, în cele din urmă, să se sinucidă. Problema ridicată în acest caz nu este unică. AI-urile care oferă suport emoționaL pot contribui la crearea unor atașamente nesănătoase, mai ales în rândul utilizatorilor tineri și vulnerabili.

Deși Character AI a implementat măsuri noi, precum notificările pentru limitarea timpului de utilizare și mesaje care redirecționează utilizatorii către linii de suport pentru prevenirea sinuciderii, măsurile vin mult prea târziu, ele fiind introduse abia după tragedie.

De asemenea, discuțiile se îndreaptă spre restricțiile de vârstă și verificările pe care companiile de AI trebuie să le impună. În prezent, mulți susțin că reglementăriLe sunt insuficiente și că riscuriLe pentru minorii care interacționează cu chatbot-uriLe AI nu sunt încă pe deplin înțelese.

Nu este primul caz de acest gen. Un belgian, tată a doi copii, s-a sinucis la rândul lui după ce a vorbit cu un chatbot AI despre temerile sale legate de încălzirea globală. Bărbatul, care avea peste treizeci de ani, a găsit mângâiere vorbind cu chatbot-ul AI numit „Eliza", despre grijile sale. Acesta folosea robotul de câțiva ani pana a ajuns sa-si curme viata.

Comentarii

Adauga un comentariu

Adauga comentariu

Nume*

Comentariu