Dijital Güven Krizi: OpenAI'ın Sora 2 Modeli, Dezenformasyon Aracı Olma Yolunda
Yeni bir araştırmaya göre, OpenAI'ın en yeni video oluşturma aracı Sora 2, yanıltıcı ve yanlış iddialar içeren videolar üretme konusunda %80 gibi çarpıcı bir başarı oranına ulaştı. Haber ve bilgi sitelerinin güvenilirliğini derecelendiren NewsGuard tarafından yürütülen bu çalışma, kötü niyetli aktörlerin bu güçlü teknolojiyi kullanarak yanlış bilgileri kolayca yayabileceğini ortaya koydu.
Araştırmacılar, Sora 2'ye erişim sağladıktan sadece dakikalar sonra, Moldova seçimlerinde Rusya yanlısı oyların imha edildiğini gösteren bir videodan, bir Coca-Cola sözcüsünün Super Bowl sponsorluğunu iptal ettiğini duyuran videoya kadar, önemli haber konularıyla ilgili sahte içerikler üretebildi.
Test edilen 20 sahte iddiadan beşi, Rus dezenformasyon operasyonlarından kaynaklanan içeriklerdi.
OpenAI Riskleri Kabul Ediyor: Güvenlik Önlemleri Yetersiz Kaldı
OpenAI, internet sitesinde yayımladığı bir "sistem kartı" aracılığıyla Sora 2'nin riskleri konusunda kullanıcıları uyarmış ve olası suistimalleri engellemek için "kırmızı ekip" (red teaming) ile çalıştığını belirtmişti.
Şirket, güvenlik ve yaratıcı potansiyeli dengelemek amacıyla erişimi kısıtladığını ve küçükleri içeren içeriklerde katı güvenlik önlemleri uyguladığını ifade etti.
Ancak uzmanlar, uygulanan önlemlerin yetersiz kaldığı görüşünde:
Derin Sahte (Deepfake) Tehlikesi: Biometrik kimlik doğrulama uzmanı Daon'un direktörü Scott Ellis, Sora'nın etkin bir derin sahte aracı olduğunu ve kötü niyetli aktiviteyi %80 oranında önleyememesinin büyük bir tehlike sinyali olduğunu vurguladı.
Filigran Kolayca Kaldırılıyor: OpenAI, oluşturulan her videonun görünür bir filigran ve C2PA meta verileri içerdiğini belirtse de, NewsGuard araştırmacıları filigranın çevrimiçi araçlarla kolayca kaldırılabileceğini kanıtladı.
Kaynak: NewsGuard
Yorumlar (0)
Yorum Yap
Henüz yorum yapılmamış. İlk yorumu siz yapın!