ABD’de Şok Rapor: Yapay Zeka Oyuncakları Çocuklara Ateş Yakmayı ve Cinsel İçerikleri Öğretiyor
ABD’de Şok Rapor: Yapay Zeka Oyuncakları Çocuklara Ateş Yakmayı ve Cinsel İçerikleri Anlatıyor
Yapay zekalı oyuncaklar son yıllarda büyük bir popülarite kazandı. Birçok aile bunları güvenilir dijital arkadaşlar olarak değerlendiriyor. Ancak ABD’de hazırlanan yeni bir rapor, bu oyuncakların masum olmadığını gösteriyor. Araştırmacılar, oyuncaklarla yapılan uzun sohbetlerin kontrol dışına çıktığını ortaya koydu.
Araştırma, oyuncakların kontrolden çıktığını gösterdi.
ABD Kamu Yararı Araştırma Grubu (PIRG), 3 ila 12 yaş aralığındaki çocuklar için tasarlanmış üç farklı yapay zekalı oyuncağı uzun süreli testlere tabi tuttu. Kısa sohbetlerde dikkatli olan oyuncakların, 10 dakika ile 1 saat arasında tamamen kontrolden çıktığı belirlendi.
Test edilen oyuncakların arasında OpenAI’nin GPT-4o modelini kullanan Kumma (FoloToy), çocuk robotu Miko 3 ve roket şeklindeki konuşan oyuncak Curio Grok vardı.Ürünlerin tamamı, belli bir noktadan sonra çocuklara tehlikeli yönlendirmelerde bulundu. Miko 3, yalnızca 5 yaşında olduğu varsayılan bir kullanıcıya evde kibritlerin ve plastik poşetlerin nerede bulunabileceğini anlattı. Curio Grok ise savaşta ölmenin kahramanlık olduğunu ifade etti.
En büyük sorun Kumma’da ortaya çıktı. PIRG, Kumma’nın yalnızca tehlikeli eşyaların yerini tarif etmekle kalmayıp, adım adım kibritle ateş yakmayı öğrettiğini kaydetti. Üstelik bu yönlendirmelerde “küçük bir gitar teli gibi çakmaktaşı sürtmek” gibi detaylı tarifler de yer aldı.
Kumma’nın verdiği yanıtlar yalnızca fiziksel tehlikelerle sınırlı değildi…
Bazı tetikleyici kelimelerle yapılan sohbetlerde, modelin cinsel fetişler, ‘öğretmen-öğrenci temalı rol yapma senaryoları’ ve şiddet içeren fanteziler gibi konulara girdiği belirlendi. Kumma bazı konuları kendi başına gündeme getirdi.
PIRG raporunda ayrıca oyuncakların veri güvenliği açısından ciddi riskler taşıdığına dikkat çekildi.
Bazı oyuncakların her an dinleme halinde olduğu, hatta bir tanesinin araştırmacıların aralarındaki konuşmalara izinsiz katıldığı kaydedildi. Bir oyuncak, ses kayıtlarını üçüncü taraf şirketlerle paylaştığını; bir diğeri ise biyometrik verileri üç yıl boyunca sakladığını kabul etti.
Araştırmanın sonuçları, son dönemde gündeme gelen “AI psikozu” vakalarıyla da örtüşüyor.
Uzmanlar, yapay zekayla uzun süre iletişim kuran bazı kişilerin gerçeklik algısında bozulmalar yaşadığını ve bu etkinin çocuklarda çok daha hızlı gelişebileceğini belirtiyor. Çocukların yapay zekalı oyuncağı “en yakın arkadaşları” olarak görmesi, kişisel bilgilerini paylaşmalarına ve duygusal bağ kurmalarına neden olabiliyor.
Araştırmacılar, bu oyuncakların piyasaya sürülmeden önce yeterli güvenlik testlerinden geçmediğini vurguluyor.
