OpenAI, yapay zeka destekli fotoğraf oluşturma aracı DALL-E tarafından oluşturulan deepfake içerikler için bir algılama aracı sunuyor. Bu bağlamda, bir görüntünün DALL-E ile üretilip üretilmediği basit bir şekilde anlaşılabilecek. İşte detaylar
DALL-E tarafından üretilen görüntüler ayırt edilebilecek
Yapay zeka devi OpenAI, söz konusu yeni aracının DALL-E 3 tarafından üretilen görüntülerin yüzde 98.8‘ini doğru bir şekilde tanımlayabildiğini belirtti. Bununla birlikte araç, Midjourney ve Stability gibi OpenAI’a ait olmayan yapay zeka uygulamaları tarafından oluşturulan görüntüleri henüz ayırt edemiyor.
Google ve Meta gibi büyük teknoloji şirketleri ile benzer şekilde OpenAI, İçerik Koalisyonu ve Özgünlük (C2PA) yürütme komitesine katıldı. Bu komite; dijital içerik için görüntülerin, videoların, ses kliplerinin ve AI tarafından değiştirilen içerikler de dahil olmak üzere diğer dosyaların kökenlerini ve modifikasyonlarını detaylandıracak bir standart oluşturmayı amaçlamaktadır. OpenAI ayrıca, anında tanımlamayı kolaylaştırmak için AI tarafından oluşturulan sese “filigranlar” yerleştirmek için çözümler geliştiriyor.
OpenAI’ın yeni deepfake dedektörü bu sorunları hafifletmek için iyi bir çözüm oluştursa da tesir alanından ötürü henüz tam kapsamlı bir çözüm değil. Peki, sizler bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi bizimle yorumlar kısmından paylaşabilirsiniz.