Yapay Zekalar Geliştikçe Yalanları Artıyor

Yalanlar artıyor
Geçtiğimiz yıl yapay zeka için Aşil’in topuğu benzetmesini yapmıştık ve mevcut durumda sorunlar daha da büyümüş durumda. Hatırlanacağı üzere, OpenAI, Anthropic, Google ve DeepSeek gibi teknoloji devlerinin geliştirdiği “akıl yürütme” odaklı yeni nesil yapay zeka modelleri, daha doğru ve tutarlı yanıtlar verme iddiasıyla yola çıkmıştı. Ancak, bu modellerin önceki sürümlere göre daha fazla hata yaptığı ve yanlış bilgi uydurduğu tespit edildi.
Son günlerde New York Times tarafından yayımlanan bir rapora göre, OpenAI’ın geçen ay tanıttığı “o3” ve “o4-mini” adlı yeni modeller, şirketin iç değerlendirmelerinde bazı testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, önceki modellere kıyasla neredeyse iki katlık bir artış göstermektedir. Yani, yapay zekalar güçlendikçe, doğru bilgi verme yetenekleri azalıyor.
Sorun sadece OpenAI ile sınırlı değil. Google ve DeepSeek gibi rakip firmaların modelleri de benzer sorunlar yaşıyor. Problemin kaynağı, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka endüstrisinde öne çıkan isimlerden biri olan Vectara CEO’su Amr Awadallah, “Her zaman halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.
Uzmanlar, bu sorunun kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturduğunu belirtiyor. Hatalı yanıtlar sunan bir yapay zeka sistemi, kullanıcı güvenini sarsmanın yanı sıra, kritik iş kararlarının yanlış alınmasına da neden olabiliyor.
Sentetik verilere yönelmek kötü bir fikir mi?
Daha önceki haberlerde de belirttiğimiz gibi, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya verileri geçtiğimiz yıl tükendi. Ancak mevcut model inşa süreçlerinin daha gelişmiş bir model için yeterli veri ihtiyacı var. Yeni verilere ulaşmak için sentetik verilere, yani yapay zeka tarafından üretilmiş verilere yönelme süreci başladı. Bu, yapay bir modelin ürettiği verilerle eğitilen diğer modellerin hataları çoğaltma riskini artırabilir.
Sorunun çözümü var mı?
Halüsinasyon sorununa odaklanan şirketler dahi mevcut. Endüstri, bu problemin farkında, ancak çözüm o kadar basit değil. Bir sorunun çözümüne ulaşmadan önce, ne olduğunu anlamak gerekiyor. Yapay zeka bağlamında bunu yapamadığımız için, bu sistemlerin gerçekten nasıl çalıştığını bilmiyoruz.
Dolayısıyla çözüm, göze çarpan bir şey olabilir ya da yapay zekaya devrim niteliğinde bir yaklaşım getirecek yeni bir adım da olabilir.