Yapay zeka ve makine öğrenimi ile ilgili düşman saldırılarını duymuş olabilirsiniz, ancak bunlar nelerdir? Amaçları nedir?
Teknoloji genellikle hayatımızın daha rahat ve güvenli olduğu anlamına gelir. Ancak aynı zamanda bu tür ilerlemeler, siber suçluların bize saldırması ve güvenlik sistemlerimizi bozarak onları güçsüz hale getirmesi için daha karmaşık yöntemler ortaya çıkardı.
Yapay zeka (AI), hem siber güvenlik uzmanları hem de siber suçlular tarafından kullanılabilir; benzer şekilde, makine öğrenimi (ML) sistemleri hem iyilik hem de kötülük için kullanılabilir. Bu ahlaki pusula eksikliği, makine öğreniminde düşmanca saldırıları giderek artan bir zorluk haline getirdi. Peki aslında düşmanca saldırılar nedir? Amaçları nelerdir? Ve onlara karşı nasıl korunabilirsiniz?
Makine Öğreniminde Düşman Saldırıları Nelerdir?
Düşman makine öğrenimi veya rakip saldırılar, bir makine öğrenimi modelini kötü amaçlı girdilerle kandırmayı amaçlayan ve böylece daha düşük doğruluk ve düşük performansa yol açan siber saldırılardır. Bu nedenle, ismine rağmen, rakip makine öğrenimi bir tür makine öğrenimi değil, siber suçluların - diğer adıyla hasımların - makine öğrenimi sistemlerini hedeflemek için kullandıkları çeşitli tekniklerdir.
Bu tür saldırıların temel amacı, genellikle hassas bilgileri dağıtması için modeli kandırmaktır. hileli faaliyetleri tespit edememe, yanlış tahminler üretme veya analize dayalı bozulma raporlar. Birkaç tür düşmanca saldırı olsa da, bunlar sıklıkla derin öğrenme tabanlı spam tespitini hedefler.
Muhtemelen bir şey duymuşsunuzdur. ortadaki düşman saldırısı, özel bilgilerin, oturum tanımlama bilgilerinin çalınmasını ve hatta çok faktörlü kimlik doğrulama (MFA) yöntemlerinin atlanmasını içeren yeni ve daha etkili, gelişmiş bir kimlik avı tekniğidir. Neyse ki, bunlarla mücadele edebilirsiniz kimlik avına dayanıklı MFA teknolojisi.
Düşman Saldırı Türleri
Rakip saldırı türlerini sınıflandırmanın en basit yolu, onları iki ana kategoriye ayırmaktır:hedefli saldırılar Ve hedefsiz saldırılar. Önerildiği gibi, hedefli saldırıların belirli bir hedefi (belirli bir kişi gibi) varken, hedefsiz saldırıların aklında belirli bir kimse yoktur: neredeyse herkesi hedef alabilirler. Şaşırtıcı olmayan bir şekilde, hedeflenmemiş saldırılar, hedeflenen muadillerine göre daha az zaman alır ancak aynı zamanda daha az başarılıdır.
Bu iki tür ayrıca alt bölümlere ayrılabilir. Beyaz kutu Ve siyah kutu rengin hedeflenen makine öğrenimi modelinin bilgisini veya bilgi eksikliğini gösterdiği düşmanca saldırılar. Beyaz kutu ve kara kutu saldırılarına derinlemesine dalmadan önce, en yaygın rakip saldırı türlerine hızlıca bir göz atalım.
- Kaçınma: Çoğunlukla kötü amaçlı yazılım senaryolarında kullanılan kaçırma saldırıları, kötü amaçlı yazılım bulaşmış ve spam e-postaların içeriğini gizleyerek tespit edilmekten kurtulmaya çalışır. Saldırgan, deneme yanılma yöntemini kullanarak dağıtım sırasındaki verileri manipüle eder ve bir makine öğrenimi modelinin gizliliğini bozar. Biyometrik sahtekarlık, kaçırma saldırısının en yaygın örneklerinden biridir.
- Veri zehirlenmesi: Kirletici saldırılar olarak da bilinen bu saldırılar, eğitim veya dağıtım döneminde bir makine öğrenimi modelini manipüle etmeyi ve doğruluğu ve performansı düşürmeyi amaçlar. Saldırganlar, kötü amaçlı girdiler sunarak modeli bozar ve güvenlik uzmanlarının makine öğrenimi modelini bozan örnek veri türünü tespit etmesini zorlaştırır.
- Bizans fayları: Bu tür bir saldırı, tüm düğümleri arasında mutabakat gerektiren sistemlerde Bizans hatası sonucunda bir sistem hizmetinin kaybına neden olur. Güvenilir düğümlerinden biri haydut olduğunda, bir hizmet reddi (DoS) saldırısı başlatabilir ve diğer düğümlerin iletişim kurmasını önleyerek sistemi kapatabilir.
- model çıkarımı: Bir ayıklama saldırısında, saldırgan, eğitim verilerini veya - en kötü senaryolarda - modelin kendisini çıkarmak için bir kara kutu makine öğrenimi sistemini inceler. Daha sonra, ellerinde bir makine öğrenimi modelinin kopyası olan bir saldırgan, kötü amaçlı yazılımını kötü amaçlı yazılımdan/virüsten koruma yazılımına karşı test edebilir ve onu nasıl atlatacağını bulabilir.
- Çıkarım saldırıları: Çıkarma saldırılarında olduğu gibi, buradaki amaç bir makine öğrenimi modelinin eğitim verileri hakkında bilgi sızdırmasını sağlamaktır. Bununla birlikte, saldırgan daha sonra sistemi eğitmek için hangi veri setinin kullanıldığını bulmaya çalışacak ve böylece sistemdeki güvenlik açıklarından veya önyargılardan yararlanabilecektir.
Beyaz Kutu vs. Kara Kutu vs. Gri Kutu Düşman Saldırıları
Bu üç tür düşmanca saldırıyı birbirinden ayıran şey, rakiplerin saldırmayı planladıkları makine öğrenimi sistemlerinin iç işleyişi hakkında sahip oldukları bilgi miktarıdır. Beyaz kutu yöntemi, hedeflenen makine öğrenimi modeli hakkında ayrıntılı bilgi gerektirse de (buna mimari ve parametreler), kara kutu yöntemi hiçbir bilgi gerektirmez ve yalnızca çıktılar.
Gri kutu modeli ise bu iki uç noktanın ortasında yer almaktadır. Buna göre, saldırganlar veri seti hakkında bazı bilgilere veya ML modeli hakkında diğer ayrıntılara sahip olabilir, ancak tamamına sahip olamaz.
Makine Öğrenimini Düşman Saldırılarına Karşı Nasıl Savunabilirsiniz?
İnsanlar, siber güvenliğin güçlendirilmesinde hala kritik bileşen olsa da,AI ve ML, kötü niyetli saldırıları nasıl tespit edip önleyeceğinizi öğrendi— kötü amaçlı tehditleri tespit etme, kullanıcı etkinliğini izleme, şüpheli içeriği belirleme ve çok daha fazlasının doğruluğunu artırabilirler. Ancak düşman saldırılarını geri püskürtebilir ve makine öğrenimi modellerini koruyabilirler mi?
Siber saldırılarla mücadele edebilmemizin bir yolu, makine öğrenimi sistemlerini, eğitim prosedürlerine örnekler ekleyerek rakip saldırıları önceden tanıyacak şekilde eğitmektir.
Bu kaba kuvvet yaklaşımından farklı olarak, defansif damıtma yöntemi, birincil, daha verimli modeli kullanmamızı önerir. İkincil, daha az verimli bir modelin kritik özelliklerini ortadan kaldırın ve ardından ikincilin doğruluğunu birincil modelle iyileştirin bir. Defansif damıtma ile eğitilen makine öğrenimi modelleri, rakip örneklere karşı daha az duyarlıdır, bu da onları sömürüye karşı daha az duyarlı hale getirir.
Ayrıca makine öğrenimi modellerinin veri sınıflandırması için kullandığı algoritmaları sürekli olarak değiştirebiliriz, bu da düşmanca saldırıları daha az başarılı hale getirebilir.
Diğer bir dikkate değer teknik, gereksiz giriş özelliklerini "sıkarak" rakiplerin kullanabileceği arama alanını azaltacak olan özellik sıkıştırmadır. Burada amaç, yanlış pozitifleri en aza indirmek ve ters örnek tespitini daha etkili hale getirmektir.
Makine Öğrenimi ve Yapay Zekayı Koruma
Düşmanca saldırılar bize birçok makine öğrenimi modelinin şaşırtıcı şekillerde parçalanabileceğini gösterdi. Ne de olsa, çekişmeli makine öğrenimi, siber güvenlik alanında hâlâ yeni bir araştırma alanı ve yapay zeka ve makine öğrenimi için birçok karmaşık sorunu beraberinde getiriyor.
Bu modelleri tüm düşman saldırılarına karşı korumanın sihirli bir çözümü olmasa da, gelecek muhtemelen bu korkunç durumun üstesinden gelmek için daha gelişmiş teknikler ve daha akıllı stratejiler getirecektir. düşman.