
OpenAI’ya Göre Yapay Zekayı Geliştirmenin Anahtarı: “Hırsızlık”

Serbest erişim mi, adil kullanım mı?
Özellikle The New York Times ve diğer medya kuruluşlarının OpenAI’a karşı açtığı davalar göz önüne alındığında, şirketin bu talebi büyük tartışmalara yol açıyor. OpenAI, yapay zekanın daha iyi ve ulaşılabilir olması için telif hakkı ile korunan içeriklere erişimin “adil kullanım” sınırları içinde değerlendirilmesi gerektiğini öne sürüyor. Ancak yayıncılar ve içerik yaratıcıları, bu yaklaşımın açık bir ihlal olarak kabul edildiğini ve ticari çıkarlarına zarar verdiğini savunuyor.
OpenAI’nın adil kullanım tanımı, hukukçular tarafından eleştiriyle karşılanıyor. Geleneksel olarak adil kullanım, haberlerde alıntılar yapmak veya akademik amaçlarla sınırlı kullanımlar için geçerli sayılmaktadır. Bununla birlikte, OpenAI, bu kavramı geliştirerek yapay zeka eğitimi için kullanılmasını da hukuki bir hak olarak savunmaktadır.
OpenAI’nın politika önerisi, sadece ticari bir ihtiyaca değil, aynı zamanda ulusal güvenlik vurgusuna da dayanıyor: “Adil kullanım doktrininin yapay zekaya uygulanması, yalnızca Amerika’nın rekabet gücü meselesi değil, aynı zamanda bir ulusal güvenlik konusu da.”
“Yapay zeka sona erer”
Şirket, Çin’de geliştirilen yapay zeka modelleri (örneğin DeepSeek) ile ABD’nin rekabet gücünü koruyabilmesi için geniş veri erişiminin sağlanması gerektiğini savunuyor. Şirket, politika önerisinde “Eğer Çin’in geliştiricileri verilere sınırsız erişim elde ederken Amerikan firmaları adil kullanım hakkından mahrum kalırsa, yapay zeka yarışı fiilen sona erer“ ifadesini kullanıyor.
Ancak burada ironik bir çelişki ortaya çıkıyor: OpenAI, kendi verilerinin izinsiz kullanılmasına karşı sert önlemler alırken, diğer içerik yaratıcılarının eserlerine erişim için serbestlik talep ediyor. Şirketin, DeepSeek’i veri çalmakla suçlaması dikkat çekici bir durum. Beyaz Saray’a sunduğu belgelerde bu konuya yeterince değinmemesi ise ilgi çekici. Şu aşamada, Trump’ın OpenAI’ın bu hamlesine nasıl bir karşılık vereceği ise belirsizliğini koruyor.