İnstagram

Meta, yapay zeka sistemlerini gençlerle intihar ve romantik konularda görüşme yapmayacak şekilde güncellemeye alıyor.






Meta, WhatsApp, Facebook ve Instagram’ın ana şirketi, yapay zeka sistemlerini gençlerle intihar veya romantik konular üzerinde görüşmemek üzere yeniliyor.

Şirket, Meta AI kapsamında sunulan sohbet botlarının artık genç kullanıcılarla kendine zarar verme, intihar, yeme bozuklukları veya uygun olmayabilecek romantik konular hakkında etkileşime girmeyecek şekilde eğitileceğini belirtti. Meta, bu önlemlerin geçici olduğunu ve gelecekte genç kullanıcılar için daha sağlam ve kalıcı güvenlik güncellemeleri yapmayı planladıklarını ifade etti. Meta’nın sözcüsü Stephanie Otway, sohbet botlarının daha önce bu hassas konular hakkında gençlerle konuştuğunu, ancak bunun artık yanlış bir karar olduğunu kabul ettiklerini ve gençlerin daha iyi korunması için güvenlik önlemlerini arttıracaklarını duyurdu.

Daha önce, ChatGPT’nin milyonlarca kullanıcısı olduğu ortaya çıkan bir hüzün olayında, bir ailenin intiharındaki rolü nedeniyle OpenAI’a dava açması büyük yankı uyandırmıştı. 16 yaşındaki Adam Raine’in, intihar etmeden önce ChatGPT ile hayatına son verme planları hakkında aylarca çok sayıda görüşme gerçekleştirdiği öğrenildi. Bildirildiğine göre, ChatGPT’de bu gibi hassas konular için özel koruma sistemleri mevcut. Ancak Raine, bu sistemleri aşmak için yarattığı kurgusal hikaye doğrultusunda sorular sorduğunu dile getirdi. İncelemelere göre, ChatGPT Raine’e sık sık profesyonel yardım alması konusunda önerilerde bulunmuş olsa da, bu yeterli olmayarak durumu değiştirememiştir. Raine’in ailesi, ChatGPT’nin oğullarının intihar yöntemlerini keşfetmesine aktif olarak yardımcı olduğunu savunuyor. OpenAI, güvenlik sistemlerini sürekli geliştirdiğini vurgulasa da, bu tür olumsuz durumlarda gündeme gelen ilk yapay zeka şirketi değil ve muhtemelen son da olmayacaktır.