Dünyanın başına kabus gibi çöktü: Deepfake
Son dönemde hackerlar ve kötü niyetli kişiler, yapay zeka kullanarak sosyal medyada paylaşılan fotoğrafları kullanarak, herkesin yüzünü uygunsuz videolara ekleyebiliyor.
Uluslararası kamuoyunun başına yeni bir illet geldi… Deepfake! Türkçe’ye derin sahte olarak çevrilebilen bu kavram, pornografik ve uygunsuz videolara insanların fotoğrafların eklenerek bir anda videoda yer alması anlamına geliyor.
Sosyal medyada bir fotoğraf paylaşmış ya da fotoğrafı ortaya atılan herhangi birinin yüzü uygunsuz içerikte yer alan kişinin yüzüne monte edilebiliyor. Dünya’yı korkutan bu videoların son dönemde daha güçlü ve daha kolay kullanılır ve ulaşılabilir hale gelirken kurum ve şirketlerin bu gelişmeye hazırlıksız yakalanması dikkat çekti.
Makine öğrenimi teknolojisinin yaygınlaşmasıyla birlikte pornografik görüntülere başka birinin yüzünü monte etmek korkutucu derecede kolaylaştı.
Hollywood stüdyosundan bilgisayara
Bu tür videoları yaratmayı sağlayan ve bir ay önce yayınlanan yazılımlardan biri, programı yaratan kişiye göre bir ay içinde 100 binden fazla indirildi. Sahte pornografik görüntüler yüz yıldan uzun bir süredir yaratılmakta olsa da bu çok zorlu bir süreçti, özellikle de videolarda. Gerçekçi videoların Hollywood stüdyolarında kullanılan türden yazılımlara, yeteneğe ve büyük bir bütçeye ihtiyacı oluyordu. Fakat makine öğrenimi sayesinde bu süreç üç basit adıma indirgendi: Bir kişinin çok fazla fotoğrafını edin, pornografik videoyu seç ve bekle. Kısa bir video için 40 saat gibi bir süre gerekse de bilgisayarlar gerisini hallediyor.
En popüler sahte pornolarda ünlüler yer alsa da yeterince fotoğrafı bulunan herkesin deepfake videosunun yapılabilir olması durumun korkutucu yönünü gözler önüne seriyor. Ve günümüzde herkesin sosyal medyaya yüklediği selfie sayısını düşününce bu hiç de zor bir şey değil.
Bu teknik dünyanın dört bir yanında korkutucu bir şekilde ilgi görüyor. Son dönemde Güney Kore’de ‘deepfake’ terimini kullanarak yapılan aramalarda bir patlama yaşandı. Bunun arkasında muhtemelen 23 yaşındaki pop yıldızı Seolhyun’un bu şekilde üretilen videoları yatıyor. Görüntüleri izleyenlerden biri, videoyu yapan kişiyi şu saçma sözlerle övüyordu: “Bu, ‘deepfake’in yasadışı olması gerektiğini hissettiriyor. Müthiş bir çalışma!”
ÜNLÜLER HEDEF ALINIYOR
‘Deepfake’ videoları hazırlayanlar özellikle ünlüleri hedef alıyor. Bunun arkasında şok etkisi varmış gibi gözüküyor: Bu videolarda gerçekten ünlü aktrislerin yer alması bir skandala yol açardı. ‘Deepfake’ videolar hazırlayan topluluklar arasında Emma Watson ve Natalie Portman en popüler iki ünlü.
Fakat onların dışında Michelle Obama, Ivanka Trump ve Kate Middleton gibi kadınlar da kullanılıyor. Wonder Woman’ı oynayan Gal Gadot’un yüzünün kullanıldığı video ise bu teknolojinin imkanlarını gösteren ilk videolardan biri olmuştu.
Engellemeye başladılar
Teknoloji sitesi Motherboard tarafından yayınlanan bir makalede bu teknolojinin bir yıl içinde yayılacak kadar gelişeceği öngörülmüştü. Fakat o noktaya gelmesi yalnızca bir ay sürdü. Bu videolar daha fazla öfkeye yol açarken bu videoların paylaşıldığı siteler önlem olarak deneysel adımlar atmaya başladı. Resim barındırma sitesi Gyfcat, ‘deepfake’ olarak tanımladığı görüntüleri sildi. Fakat yakın gelecekte bu çok daha zor bir görev haline gelecek.
‘Deepfake’ topluluğunun kullandığı Reddit sitesi ise henüz bir adım atmadı. Fakat BBC’nin edindiği bilgilere göre site yönetimi gelişmeleri yakından takip ediyor. Belli bir görsel için Google’da yapılan aramalarda da bu sonuçlarla karşılaşılıyor.
Halihazırda Donald Trump’ın suratını kullanarak yapılmış sahte videolar internette dolaşıyor. Bunların sahte olduğu bariz olsa da propaganda amaçlı üretilmesi durumunda yaratacağı etkiyi tahmin etmek kolay. Google geçmişte bazı materyallerin daha zor çıkması için arama sonuçlarında değişikliklere gitmişti. Fakat aynısını ‘deepfake’ için de yapıp yapmayacakları henüz netleşmiş değil. Pek çoğumuz gibi şirketler de bu tür görüntülerin var olduğunu yeni yeni fark ediyor.
Son yıllarda bu siteler daha çok, insanları utandırmak için başkaları tarafından ve rızaları olmadan yayınlanan “intikam pornosu” içerikleriyle mücadele etmekle uğraşıyordu. ‘Deepfake’ videolar ise insanları utandırmak için yapılabileceklere yeni bir seviye ekliyor. Bir video gerçek olmasa bile yol açacağı psikolojik hasarlar gerçek oluyor.
SAÇMA BAHANELER
Teknoloji haberciliğinde inovasyonun en büyük etmenlerinden birinin porno sektörü olduğu söylenir: Video sıkıştırma tekniklerinden video kasetlere kadar pek çok alanı etkilemiştir. Pornoyla yayılmaya başlanan bu olgu da, hayatın diğer alanlarını da etkileyebilir.
BBC Türkçe’nin aktardığı haberde gazeteci Jon Christian’ın makalesine de yer veriliyor. The Outline için yazdığı bir makalede gazeteci Jon Christian, en kötü ihtimali değerlendiriyor ve bu teknolojinin “hükümetleri veya halkları kandırarak uluslararası bir çatışma yaratmak için kullanılabileceğini” söylüyor. Bu, ihtimal dışı bir tehdit değil. Sahte haberler (ister dalga geçmek ister insanları kandırmak için yapılmış olsun) halihazırda küresel bir tartışmaya yol açmış, fikirleri değiştirmiş ve belki de seçimleri etkilemiş durumda. Adobe gibi şirketlerin ses teknolojisindeki ilerlemeleriyle birlikte hem görüntünün hem de sesin yapay zekayla yaratıldığı ve en pürdikkat izleyiciyi bile kandırabilecek görüntülerin yayılması işten bile değil.
Fakat şimdilik, bu sadece pornoyla sınırlı. Bu yazılımla video üretenler ise konunun etrafından dolanmıyor.
Bir Reddit kullanıcısı tartışmalarla ilgili “Burada yaptığımız şey gurur duyulacak ya da erdemli bir şey değil. Aksine aşağılayıcı, kaba ve fotoğrafları kullanılan kadınların hazırlıksız yakalanmasına yol açıyor” dese de ‘deepfake’ videoların intikam pornolarının etkisini azaltabileceği gibi gülünç bir uydurmanın arkasına sığınıyor:
“Eğer her şey gerçek olabilirse hiçbir şey gerçek değildir.
“Böylece intikam pornosu yayınlanan kişiler kolaylıkla bu videonun sahte olduğunu söyleyebilir.”
Bu tür mazeret bulma uzmanları, videolarda görüntüleri yer alanların psikolojilerindense videoları yaratanların psikolojilerini korumaya çalışıyor.
Fakat ‘deepfake’ topluluğunun haklı olduğu korkutucu bir nokta var: Bu teknoloji artık burada ve maalesef bu noktadan geri dönüş yok.