
OpenAI, Sora İçin Yeni Kontrollerin Eklendiğini Duyurdu

Platformda oluşturulan 10 saniyelik videolar, hem kullanıcıların kendi görüntülerini hem de başka kişilerin görüntüleri ve seslerini içeriyor. OpenAI, bu sanal görünmeleri “cameo” olarak adlandırıyor; ancak eleştirmenler bunun internette olası bir yanlış bilgi sorununa yol açabileceği konusunda uyarıyor.
AI ikiziniz için daha fazla söz hakkı
OpenAI’ın Sora projesinin lideri Bill Peebles, yeni kontroller sayesinde kullanıcıların AI ikizlerinin uygulama içindeki kullanımını sınırlama imkanına sahip olacağını belirtti. Örneğin, kullanıcılar AI versiyonlarının politik temalı videolarda görünmesini engelleyebilir veya belirli kelimeleri söylemesini yasaklayabilirler; ayrıca kişisel tercihlerine göre sınırlamalar koyabilecekler. OpenAI çalışanı Thomas Dimson, kullanıcıların sanal ikizlerine kendi dokunuşlarını ekleyebileceklerini de ifade etti.
Şirketin sunduğu önlemler olumlu olsa da, kesinlikle aşılması imkansız yapıda değiller. AI alanında benzer önlemlerin aşıldığı birçok örnek mevcut. Ayrıca, Sora’nın mevcut güvenlik önlemlerinden biri olan filigranın da kullanıcılar tarafından aşılabildiği belirtildi. Peebles, şirketin filigran sistemini geliştirmek için çalışmalar yürüttüğünü açıkladı.
Başlangıçta sunulan cameo kontrolleri, yalnızca “onaylı kişiler”, “arkadaşlar” veya “herkes” gibi genel seçeneklerle sınırlıydı; bu nedenle platformda ciddi sorunlar yaşandı. Örneğin, OpenAI CEO’su Sam Altman’ın görüntüleri, izinsiz olarak komik veya absürt videolarda kullanıldı; kendisi hırsızlık yaparken, rap yaparken veya ölü bir Pikachu’yu ızgarada pişirirken gösterildi.