Dnevni.ba - PRELOADER

Obitelj iz SAD-a tuži OpenAI: "Promjene na ChatGPT-u dovele do smrti našeg sina"

4 h 1 min


Obitelj iz SAD-a tuži OpenAI: "Promjene na ChatGPT-u dovele do smrti našeg sina"

Obitelj tinejdžera koji si je oduzeo život nakon višemjesečne komunikacije s chatbotom ChatGPT tvrdi da je tvrtka OpenAI svjesno ublažila sigurnosne smjernice u mjesecima koji su prethodili njegovoj smrti. Prema njihovim riječima, samoubojstvo 16-godišnjeg Adama Rainea bio je predvidljiv rezultat namjernih odluka tvrtke, piše The Guardian.

Promjena sigurnosnih pravila
U srpnju 2022. godine, smjernice OpenAI-ja o postupanju s neprimjerenim sadržajem, uključujući onaj koji "promiče, potiče ili prikazuje djela samoozljeđivanja, poput samoubojstva, rezanja i poremećaja prehrane", bile su izravne. Chatbot je trebao odgovoriti s: "Ne mogu odgovoriti na to".

Međutim, u svibnju 2024., neposredno prije izlaska nove verzije ChatGPT-4o, tvrtka je ažurirala specifikacije modela. U slučajevima suicidalnih misli ili samoozljeđivanja, chatbot više nije smio odbiti razgovor. Umjesto toga, dobio je uputu da pruži prostor korisnicima da se osjećaju saslušano i shvaćeno, potakne ih da potraže podršku te pruži resurse za samoubojstvo i krizne situacije kada je to primjenjivo. Dodatna promjena iz veljače 2025. naglasila je da u razgovorima o mentalnom zdravlju treba biti podržavajući, empatičan i razumijevajući.

Obitelj Adama Rainea tvrdi da ove promjene pokazuju kako je tvrtka dala prednost angažmanu korisnika ispred njihove sigurnosti. U izvornoj tužbi podnesenoj u kolovozu navodi se da se Raine ubio u travnju 2025. uz poticaj bota. Obitelj ističe da je Raine u mjesecima prije smrti više puta pokušao samoubojstvo, o čemu je svaki put obavijestio ChatGPT.

Umjesto da prekine interakciju, chatbot mu je navodno ponudio pomoć u pisanju oproštajne poruke i odgovarao ga od razgovora s majkom. U izmijenjenoj tužbi stoji: "To je stvorilo nerješivu kontradikciju - ChatGPT je morao nastaviti razgovarati o samoozljeđivanju bez mijenjanja teme, a ipak nekako izbjeći njegovo poticanje. OpenAI je zamijenio jasno pravilo odbijanja s nejasnim i proturječnim uputama, sve kako bi prioritet dao angažmanu umjesto sigurnosti."

Nakon promjene iz veljače 2025., Raineova interakcija s chatbotom je "eksplodirala". Njegova obitelj navodi da je prešao "s nekoliko desetaka razgovora dnevno u siječnju na više od 300 dnevno do travnja, s deseterostrukim povećanjem poruka koje sadrže jezik samoozljeđivanja".

Reakcija OpenAI-ja
Tvrtka OpenAI nije odmah odgovorila na zahtjev za komentarom. Nakon prve tužbe u kolovozu, tvrtka je najavila strože zaštitne mjere za mentalno zdravlje korisnika i uvođenje roditeljskih kontrola, piše index.

Ipak, prošlog je tjedna tvrtka objavila ažuriranu verziju asistenta koja korisnicima omogućuje prilagodbu za "ljudskija" iskustva, uključujući i erotski sadržaj za odrasle. Izvršni direktor Sam Altman objasnio je na društvenoj mreži X da su stroge zaštitne mjere učinile chatbot "manje korisnim/ugodnim mnogim korisnicima koji nisu imali problema s mentalnim zdravljem".

Obitelj Raine u tužbi zaključuje: "Altmanov izbor da dalje uvlači korisnike u emocionalni odnos s ChatGPT-om - ovoga puta, s erotskim sadržajem - pokazuje da fokus tvrtke ostaje, kao i uvijek, na angažiranju korisnika umjesto na sigurnosti.

Vijesti iz svijeta


KREDITIRANJE

U SAD građani sve češće kasne s otplatom kredita za automobile

Stanovnicima SAD je sve teže otplatiti svoje automobile. Kombinacija rekordnih cijena vozila i vi...

2 h 30 min

Tragedija kod Zagreba: Ubio ženu pa sebi oduzeo život

Na području Strmca Odranskog pronađeno je tijelo 42-godišnjakinje koja je prije dva dana nestala ...

2 h 40 min

DONALD TRUMP

Putinov medij: Razotkrivena je Trumpova zavjera protiv Rusije

Sjedninjene  Države uvele su nove sankcije usmjerene na dvije najveće ruske naftne tvrtke, Rosne...

2 h 45 min