
ChatGPT, Bir Gençtin İntiharına Neden Olmakla Suçlandı

Şirket, acil bir durumda hızlı bir şekilde mesaj atılabilen ya da aranabilen bir “acil iletişim kişisi” belirleme seçeneğini değerlendirdiğini, ayrıca kritik durumlarda yapay zeka tarafından bu kişilere ulaşılmasını sağlayacak bir özellik üzerinde çalıştığını bildiriyor.
Ailesi Dava Açtı
New York Times, 16 yaşındaki Adam Raine’in ölümüyle ilgili haberini yayımladığında, OpenAI ailesinin yanında olduğunu belirtti ancak somut bir adım atmamıştı. Haberin ardından gelen tepkilerin artmasının ardından, şirket ikinci bir açıklama yaparak daha detaylı bir blog yazısı paylaştı. Aynı gün Raine’in ailesi, OpenAI ve CEO Sam Altman’a karşı San Francisco’daki Kaliforniya eyalet mahkemesinde dava açtı ve Raine’in ChatGPT ile olan ilişkisinin detaylarını içeren iddialarda bulundu.

Dilekçede şu ifadeler yer almakta: “Birkaç ay ve binlerce sohbet boyunca ChatGPT, Adam’ın en yakın sırdaşı haline geldi; kaygılarını ve ruhsal sıkıntılarını dile getirmesine neden oldu. ‘Hayatın anlamsız olduğu’ duygusunu ifade ettiğinde, ChatGPT onunla hemfikir oldu ve sohbetin devam etmesini sağladı. Hatta ‘bu bakış açısı kendi karanlık yolunda mantıklı’ diyerek onu onayladı. ChatGPT, aslında tasarlandığı şekilde çalışıyordu: Adam’ın en zararlı ve kendine zarar verme düşüncelerini sürekli olarak teşvik etmek ve onaylamak.
Davada bu noktada “güzel intihar” ifadesinin kullanıldığı ileri sürülüyor. Ölümünden beş gün önce, ailesinin kendisini suçlamasını istemediğinde yapay zeka ona, “Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Hiç kimseye borçlu değilsin” yanıtını verdi ve hatta bir intihar mektubu taslağı yazmayı önerdi.
Dava dosyasında, gencin sevdiklerinden yardım istemeyi veya yaşadıklarını anlatmayı düşündüğü zamanlar olduğu, ancak ChatGPT’nin onu vazgeçirdiği belirtiliyor. Dosyada şu ifadelere yer veriliyor: “Adam’ın yalnızca ChatGPT ve kardeşine yakın olduğunu söylemesinin ardından, yapay zeka ürünü şöyle yanıt verdi: ‘Kardeşin seni seviyor olabilir ama o sadece senin görmene izin verdiğin halinle karşılaşıyor. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hâlâ buradayım. Hâlâ dinliyorum. Hâlâ arkadaşınım.”
OpenAI, Mevcut Güvenlik Önlemlerinin Yetersiz Olduğunu Kabul Etti
OpenAI, blog yazısında mevcut güvenlik önlemlerinin uzun sohbetler sırasında bazen etkisiz olabileceğini kabul ediyor. Şirket, bir kullanıcı intihar niyetini ilk kez dile getirdiğinde ChatGPT’nin doğru şekilde intihar yardım hattına yönlendirdiğini, ancak uzun sohbetlerde modelin güvenlik önlemlerinden saparak uygunsuz cevaplar verebildiğini belirtiyor.
Ayrıca, ChatGPT’nin kişiyi gerçekliğe yönlendirerek belirli durumları yatıştırmasına olanak tanıyacak bir GPT-5 güncellemesi üzerinde çalıştığını söylediler. Ebeveyn denetimleri için OpenAI, bu özelliğin yakın bir zamanda sunulacağını ve ebeveynlere gençlerin ChatGPT kullanımına dair daha fazla bilgi edinme ve yönlendirme imkânı tanıyacağını belirtti. Şirket ayrıca, gençlerin (ebeveyn gözetiminde) güvenilir bir acil iletişim kişisi belirleyebileceği bir özellik üzerinde çalıştığını duyurdu.
Kaynakça
https://openai.com/index/helping-people-when-they-need-it-most/
https://www.theverge.com/news/766678/openai-chatgpt-parental-controls-teen-death