Deepfake teknolojisiyle oynamak eğlenceli olabilir, ancak zarar verme potansiyeli önemlidir. İşte derin sahtekarlıkların geleceğinin getirebilecekleri.

Deepfake bir görüntünün anlatı işaretlerini tespit etmek eskiden kolaydı, ancak üretken AI, şu anda gördüğümüz ve duyduğumuz her şeyi sorgulamamıza neden oluyor. Piyasaya sürülen her yeni yapay zeka modeliyle, sahte bir görüntünün anlatı işaretleri azalıyor ve Karışıklık, artık sevdiklerinizin derin sahte videolarını, ses klonlarını oluşturabilir ve sahte makaleler üretebilirsiniz. saniye.

AI derin sahtekarlıkları tarafından kandırılmaktan kaçınmak için ne tür tehlikeler oluşturduklarını bilmek önemlidir.

Deepfakes'in Evrimi

Deepfake, gerçek hayatta hiç olmamış bir şeyi yapan bir kişiyi gösterir. Tamamen sahte. Deepfake'ler internette mem veya şaka olarak paylaşıldığında onlara güleriz, ancak bizi yanıltmak için kullanıldıklarında çok az insan bunu komik bulur.

Geçmişte, var olan bir fotoğraf çekilerek ve Photoshop gibi bir görüntü düzenleme yazılımında değiştirilerek deepfake'ler yaratılıyordu. Ancak AI deepfake'i ayıran şey, derin öğrenme algoritmaları kullanılarak sıfırdan üretilebilmesidir.

instagram viewer

bu Merriam-Webster sözlüğü bir deepfake'i şu şekilde tanımlar:

Birisini gerçekte yapılmamış veya söylenmemiş bir şeyi yapıyor veya söylüyormuş gibi yanlış tanıtmak için ikna edici bir şekilde değiştirilmiş ve manipüle edilmiş bir görüntü veya kayıt.

Ancak AI teknolojisindeki gelişmelerle birlikte, bu tanım modası geçmiş görünmeye başlıyor. Yapay zeka araçlarının kullanılmasıyla, deepfake'ler artık görüntüleri, metinleri, videoları ve ses klonlamayı içeriyor. Bazen, AI oluşturmanın dört modunun tümü aynı anda kullanılır.

Kullanımı inanılmaz derecede hızlı ve ucuz olan otomatik bir süreç olduğu için çalkalama için mükemmel bir araçtır. Daha önce hiç görmediğimiz bir oranda derin sahtekarlıklar - tüm bunları, fotoğrafların, videoların veya ses.

Yapay Zeka Derin Sahtekarlıklarının Büyük Tehlikeleri

bir ev sahibi AI video üreteçleri bol miktarda yanında zaten var AI ses üreteçleri. atmak GPT-4 gibi büyük dil modeli ve modern tarihte şimdiye kadar gördüğümüz en inandırıcı deepfake'leri yaratmak için bir tarifiniz var.

Farklı AI derin sahte türlerinin ve bunların sizi kandırmak için nasıl kullanılabileceğinin farkında olmak, yanlış yönlendirilmekten kaçınmanın bir yoludur. Yapay zeka deepfake teknolojisinin nasıl gerçek bir tehdit oluşturduğuna dair birkaç ciddi örneği burada bulabilirsiniz.

1. AI Kimlik Hırsızlığı

Onları görmüş olabilirsin. Dünyaya yayılan ilk gerçek viral yapay zeka derin sahteleri arasında, Donald Trump'ın tutuklandığı ve Papa Francis'in beyaz bir ceket giydiği bir görüntü vardı.

Ünlü bir dini şahsiyetin Roma'da soğuk bir günde giymek için neler giyebileceğinin masum bir yeniden tasavvuru gibi görünse de; Kanunla ciddi bir durumda olan bir siyasi figürü gösteren diğer resim, gerçek olarak kabul edildiğinde çok daha büyük sonuçlar doğurur.

Şimdiye kadar, insanlar yapay zeka deepfake'leri oluştururken çoğunlukla ünlüleri, siyasi figürleri ve diğer ünlü kişileri hedef aldılar. Kısmen bunun nedeni, ünlü kişilerin internette kendileriyle ilgili pek çok fotoğrafa sahip olmalarıdır ve bu muhtemelen modeli ilk etapta eğitmeye yardımcı olmuştur.

Hem Trump hem de Pope'un derin sahtekarlığında kullanılan Midjourney gibi bir yapay zeka görüntü oluşturucu söz konusu olduğunda, kullanıcının yalnızca görmek istediklerini açıklayan bir metin girmesi yeterlidir. Sanat stilini belirtmek için fotoğraf veya fotogerçekçilik gibi anahtar sözcükler kullanılabilir ve çözünürlük yükseltilerek sonuçlara ince ayar yapılabilir.

kolayca yapabilirsin Midjourney'i kullanmayı öğrenin ve bunu kendiniz test edin, ancak bariz ahlaki ve yasal nedenlerle, bu görüntüleri herkese açık olarak yayınlamaktan kaçınmalısınız.

Ne yazık ki, ortalama, ünlü olmayan bir insan olmak, yapay zeka derin sahtekarlıklarından da güvende olduğunuzu garanti etmez.

Sorun, AI görüntü üreteçleri tarafından sunulan önemli bir özellikte yatmaktadır: kendi görüntünüzü yükleme ve AI ile değiştirme yeteneği. Ve şöyle bir araç DALL-E 2'de Dış Boyama bir metin istemi girerek ve başka ne oluşturmak istediğinizi açıklayarak mevcut bir görüntüyü sınırlarının ötesine genişletebilir.

Bunu fotoğraflarınızla başka biri yapsaydı, tehlikeler beyaz ceketli Papa'nın derin sahtekarlığından çok daha büyük olabilirdi - onu her yerde kullanabilirler, sizmişsiniz gibi davranabilirler. Çoğu insan yapay zekayı genellikle iyi niyetle kullansa da, özellikle kimlik hırsızlığı durumlarında, insanların onu zarar vermek için kullanmasını engelleyen çok az kısıtlama vardır.

2. Deepfake Ses Klonu Dolandırıcılığı

Yapay zekanın yardımıyla derin sahtekarlıklar, çoğumuzun hazırlıklı olmadığı bir sınırı aştı: sahte ses klonları. Bir yapay zeka modeli, yalnızca az miktarda orijinal sesle (belki bir zamanlar yayınladığınız bir TikTok videosundan veya içinde yer aldığınız bir YouTube videosundan) benzersiz sesinizi çoğaltabilir.

Kulağa tıpkı bir aile üyesi, arkadaş veya meslektaş gibi gelen bir telefon araması almayı hayal etmek hem tekinsiz hem de korkutucu. Deepfake ses klonları, yeterince ciddi bir endişe kaynağıdır. Federal Ticaret Komisyonu (FTC) hakkında bir uyarı yayınladı.

sese güvenme Sizinle iletişim kurduğu varsayılan kişiyi arayın ve hikayeyi doğrulayın. Onlara ait olduğunu bildiğiniz bir telefon numarası kullanın. Sevdiğiniz kişiye ulaşamıyorsanız, başka bir aile üyesi veya arkadaşları aracılığıyla onunla iletişime geçmeye çalışın.

Washington Post bildirdi sesi torunlarına benzeyen birinden telefon alan 70'li yaşlarındaki bir çiftin durumu. Hapisteydi ve kefalet için acilen paraya ihtiyacı vardı. Kiminle konuştuklarından şüphe etmek için başka bir sebepleri olmadan devam ettiler ve parayı dolandırıcıya teslim ettiler.

Risk altında olan sadece eski nesil değil, The Guardian bildirdi banka müdürü olduğuna inandıkları birinden gelen bir dizi "derin sahte arama" sonrasında 35 milyon dolarlık bir işlemi onaylayan bir banka müdürünün başka bir örneği.

3. Toplu Üretilen Sahte Haberler

gibi büyük dil modelleri ChatGPT tıpkı bir insana benzeyen metinler üretmekte çok ama çok iyiler ve şu anda farkı tespit edecek etkili araçlarımız yok. Yanlış ellere geçen sahte haberler ve komplo teorilerinin üretilmesi ucuz olacak ve çürütülmesi daha uzun sürecek.

Yanlış bilgi yaymak elbette yeni bir şey değil, bir araştırma makalesi arXiv'de yayınlandı Ocak 2023'te, sorunun yapay zeka araçlarıyla çıktıyı ölçeklendirmenin ne kadar kolay olduğu konusunda yattığını açıklıyor. Buna, örneğin politikacılar tarafından siyasi kampanyalarını dış kaynak olarak kullanmak için kullanılabileceğini söyledikleri "Yapay zeka tarafından oluşturulan etki kampanyaları" olarak atıfta bulunuyorlar.

AI tarafından üretilen birden fazla kaynağın birleştirilmesi, üst düzey bir derin sahte oluşturur. Örnek olarak, bir yapay zeka modeli, tutuklanan Donald Trump'ın sahte görüntüsünün yanında iyi yazılmış ve inandırıcı bir haber oluşturabilir. Bu, görüntünün kendi başına paylaşılmış olmasına göre daha fazla meşruiyet sağlar.

Sahte haberler görseller ve yazılarla da sınırlı değil, AI video oluşturmadaki gelişmeler, daha fazla derin sahte videonun ortaya çıktığını gördüğümüz anlamına geliyor. İşte Robert Downey Jr. tarafından yayınlanan Elon Musk'ın bir videosuna aşılanan biri. YouTube kanalı Deepfakery.

Deepfake oluşturmak, bir uygulamayı indirmek kadar basit olabilir. gibi bir uygulama kullanabilirsiniz. Hareketsiz görüntüleri animasyonlu avatarlara dönüştürmek için TokkingHeads, bu, kişinin konuşuyormuş gibi görünmesini sağlamak için kendi görüntünüzü ve sesinizi yüklemenize olanak tanır.

Çoğunlukla eğlenceli ve eğlencelidir, ancak sorun çıkma olasılığı da vardır. Bize, birinin imajını, o kişinin hiç konuşmadığı sözler söylemiş gibi görünmesini sağlamak için kullanmanın ne kadar kolay olduğunu gösteriyor.

AI Deepfake tarafından Kanmayın

Deepfakes, çok düşük bir maliyetle ve düşük bir uzmanlık veya bilgi işlem gücü gereksinimiyle hızla devreye alınabilir. Oluşturulan bir görüntünün, bir ses klonunun veya yapay zeka tarafından oluşturulan görüntülerin, sesin ve metnin bir kombinasyonunun şeklini alabilirler.

Bir deepfake oluşturmak eskiden çok daha zor ve emek yoğundu, ancak şimdi, piyasada çok sayıda AI uygulaması varken, hemen hemen herkesin deepfake oluşturmak için kullanılan araçlara erişimi var. AI deepfake teknolojisi her zamankinden daha da geliştikçe, ortaya çıkardığı tehlikeleri yakından takip etmeye değer.