Hafta 13 - Adversarial ML

Benzer belgeler
İstanbul Şehir Üniversitesi Bahar

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

Hafta 01 - Giriş. BGM Siber Güvenlik için Makine Öğrenme Yöntemleri. Yüksek Lisans Programı. Dr. Ferhat Özgür Çatak

Hafta 14 - Mahremiyet Korumalı Makine Öğrenmesi

Hafta 05 - Karar Ağaçları/Kümeleme

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

Web Madenciliği (Web Mining)

Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları

Yapay Sinir Ağları ve Yüksek Enerji Fiziği Uygulamaları

Uzaktan Algılama Teknolojileri

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Web Madenciliği (Web Mining)

Instance Based Learning k-nn. YZM 3226 Makine Öğrenmesi

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ

BÜYÜK VERI UYGULAMALARı DERS 3. Doç. Dr. Yuriy Mishchenko

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme

YZM 5257 YAPAY ZEKA VE UZMAN SİSTEMLER DERS#6: GENETİK ALGORİTMALAR

Uzaktan Algılama Uygulamaları

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Makine Öğrenmesi. Erhan AKDOĞAN, Ph.D.

VERİ MADENCİLİĞİ VE SOSYAL AĞ ANALİZİ ARAŞTIRMA LABORATUVARI

GÖRÜNTÜ İŞLEME HAFTA 4 DÖNÜŞÜMLER UZAYSAL FİLTRELEME

Bilgisayarla Görüye Giriş

Zeki Optimizasyon Teknikleri

Matematiksel Optimizasyon ve Yapay Öğrenme

Derin Yapay Sinir Ağları ve Derin Öğrenme ye Kısa Bir Giriş

Çekişmeli Üretici Ağlar Kullanarak Dış Mekan Görüntülerinin Geçici Niteliklerini Düzenleme

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon

Yrd. Doç. Dr. A. Burak İNNER

BÜYÜK VERI UYGULAMALARı DERS 7. Doç. Dr. Yuriy Mishchenko

Gözetimli & Gözetimsiz Öğrenme

Derin Öğrenme. M. Ali Akcayol Gazi Üniversitesi

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

K En Yakın Komşu Methodu (KNearest Neighborhood)

Hafta 10 - Vektör Uzay Modelleri

AMAÇ Araçlardaki Kamera Sistemleri

Web Madenciliği (Web Mining)

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı

Geliştirilmiş Fisher Ayraç Kriteri Kullanarak Hiperspektral Görüntülerde Sınıflandırma

Hafta 5 Uzamsal Filtreleme

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

Kolektif Öğrenme Metotları

YÖNEYLEM ARAŞTIRMASI - III

Algoritmalar. Çizge Algoritmaları. Bahar 2017 Doç. Dr. Suat Özdemir 1

İleri Örüntü Tanıma Teknikleri Ve Uygulamaları İçerik

Oyun Teorisinin İnternet Ortamında Saldırı Tespit Sistemlerinde Kullanılması Üzerine Bir Araştırma

Muhammet Fatih AKBAŞ, Enis KARAARSLAN, Cengiz GÜNGÖR

Doğrusal Denklemler Sis./Sys. of Linear Equations

ÖZGEÇMİŞ. 1. Adı Soyadı : Olcay Taner Yıldız. 2. Doğum Tarihi : Unvanı : Doç. Dr. 4. Öğrenim Durumu :

127 - Twoing Algoritması ile Sınıflandırma Kalp Hastalığı Uygulaması MEHMET AKİF ERSOY ÜNİVERSİTESİ İLHAN UYSAL MEHMET BİLEN SAMİ ULUKUŞ

MATLAB A GİRİŞ. EE-346 Hafta-1 Dr. Ayşe DEMİRHAN

Bilgisayarla Görüye Giriş

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D.

Kelebek Görüntülerin Sınıflandırılmasında Yeni Yerel İkili Örüntüler

MEH535 Örüntü Tanıma

Müzik Türlerinin Co-MRMR ile Sınıflandırılması Audio Genre Classification with Co-MRMR

İş Analitiği'ne Netezza ile Yüksek Performans Katın

Görüntü Sınıflandırma

OPTİMİZASYON TEKNİKLERİ-2. Hafta

01 Şirket Profili

Veri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir.

KOCAELİ ÜNİVERSİTESİ ELEKTRONİK VE HABERLEŞME MÜHENDİSLİĞİ BÖLÜMÜ 2018/2019 GYY BİTİRME ÇALIŞMASI ÖNERİ FORMU. (Doç.Dr. M.

Uzaktan Algılama (3) Yrd. Doç. Dr. Özgür ZEYDAN Renk Teorileri

EM302 Yöneylem Araştırması 2 Çok değişkenli DOP ların çözümü. Dr. Özgür Kabak

YAPAY ZEKA VE DERİN ÖĞRENMENİN GÜNÜMÜZDEKİ UYGULAMA ALANLARI

Derin Öğrenme Yöntemleri ile Bilgisayar Ağlarında Güvenliğe Yönelik Anormallik Tespiti. R. Can AYGÜN Danışman: Doç. Dr. A.

Eş-Talim Yöntemi ile Metin Sınıflandırma İçin Bir Uygulama

KISIM 5 COĞRAFİ BİLGİ SİSTEMİ (GIS) ANALİZİ KISIM 5: GIS ANALİZİ 1

GLOBAL SİBER ATAK GÖRSELLEŞTİRME SİSTEMLERİ

Sisteminiz Artık Daha Güvenli ve Sorunsuz...

Karaciğerde Oluşan Hastalıkların Tespitinde Makine Öğrenmesi Yöntemlerinin Kullanılması

Veri Madenciliği Karar Ağacı Oluşturma

MEH535 Örüntü Tanıma. Karar Teorisi

Siber Savaş Konseptleri. SG 507Siber Savaşlar Güz 2014 Yrd. Doç. Dr. Ferhat Dikbıyık

YAZILIM GÜVENLİK TESTLERİ. H A L D U N T E R A M A N h a l d u n t e r a m a g m a i l. c o m

Kredi Onayı İçin Bir Sınıflandırma Algoritması Önerisi A Classification Algorithm Advice for Credit Approval

MOD419 Görüntü İşleme

Uygulama Tabanlı Bilgisayar ve Ağ. Güvenliği Eğitimi: MSKÜ Deneyimi

DOSYA ORGANİZASYONU. Çarpışma çözümleme yöntemleri ÖZLEM AYDIN TRAKYA ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA

MAK1010 MAKİNE MÜHENDİSLİĞİ BİLGİSAYAR UYGULAMALARI

Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir

Dijital Görüntü İşleme Teknikleri

DENİZ HARP OKULU BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜM BAŞKANLIĞI DERS TANITIM BİLGİLERİ

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

Ülkemizdeki Üniversite Web Sayfalarının Siber Güvenlik Açısından Hızlı Bir Değerlendirmesi

ÜNİTE 1: TEMEL KAVRAMLAR

Kosullu Olasılık & Bayes Teoremi

METASEZGİSEL YÖNTEMLER

Tek Değişkenli Optimizasyon OPTİMİZASYON. Gradient Tabanlı Yöntemler. Bisection (İkiye Bölme) Yöntemi

Algoritma Analizi ve Büyük O Notasyonu. Şadi Evren ŞEKER YouTube: Bilgisayar Kavramları

TÜBİTAK Ulusal Akademik Ağ ve Bilgi Merkezi (ULAKBİM) Özgür Yazılım Projeleri İsimsiz Denetçi Kovan. Murat Soysal

Bu bölümde; Çok ölçütlü karar verme yöntemlerinden biri olan TOPSİS yöntemi anlatılacaktır.

Reklam İçerikli Epostaların Metin Madenciliği Yöntemleri ile Otomatik Tespiti

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

Genetik Algoritmalar. Bölüm 1. Optimizasyon. Yrd. Doç. Dr. Adem Tuncer E-posta:

WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ

REGRESYON ANALİZİ VE UYGULAMA. Yrd. Doç. Dr. Hidayet Takcı

Otomatik Diyet Gözetimi için Gıda İmgelerinin Anlamsal Bölütlemesi

Transkript:

BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar

İçindekiler 1 Adversarial Examples Giriş Hedef Algoritmalar Adversarial Examples in the Human Brain Lets fool a binary linear classifier 2 Adversarial Machine Learning Giriş Tehdit Modelleri Saldırı Sınıflandırması CleverHans IBM -Adversarial-Robustness- Toolbox 3 Saldırılar Fast gradient sign method (FGSM) Jacobian-based Saliency Map Attack DeepFool Virtual Adversarial Training

İçindekiler 1 Adversarial Examples Giriş Hedef Algoritmalar Adversarial Examples in the Human Brain Lets fool a binary linear classifier 2 Adversarial Machine Learning Giriş Tehdit Modelleri Saldırı Sınıflandırması CleverHans IBM -Adversarial-Robustness- Toolbox 3 Saldırılar Fast gradient sign method (FGSM) Jacobian-based Saliency Map Attack DeepFool Virtual Adversarial Training

Adversarial Examples Adversarial Examples Adversarial Classification Dalvi et al 2004: fool spam filter Evasion Attacks Against Machine Learning at Test Time Biggio 2013: fool neural nets Szegedy et al 2013: fool ImageNet classifiers imperceptibly Goodfellow et al 2014: cheap, closed form attack

Hedef Algoritmalar Sadece Neural Network Algoritmaları hedef değildir. Doğrusal Yöntemler Logistic regression SVMs Decision trees Nearest neighbors

Adversarial Examples in the Human Brain Eşmerkezli daireler, iç içe spiraller değil. Şekil: (Pinna and Gregory, 2002)

Lets fool a binary linear classifier I Şekil: http://cs231n.stanford.edu/slides/2016/winter1516 lecture9.pdf

Lets fool a binary linear classifier II

Lets fool a binary linear classifier III

Adversarial Examples Adversarial Machine Learning Lets fool a binary linear classifier IV Dr. Ferhat O zgu r C atak ozgur.catak@tubitak.gov.tr Saldırılar

İçindekiler 1 Adversarial Examples Giriş Hedef Algoritmalar Adversarial Examples in the Human Brain Lets fool a binary linear classifier 2 Adversarial Machine Learning Giriş Tehdit Modelleri Saldırı Sınıflandırması CleverHans IBM -Adversarial-Robustness- Toolbox 3 Saldırılar Fast gradient sign method (FGSM) Jacobian-based Saliency Map Attack DeepFool Virtual Adversarial Training

Saldırgan Makine Öğrenmesi I Adversarial Machine Learning Saldırgan Makine Öğrenmesi ML sistemine karşı çalışan bir saldırganına, modelin etkinliğini azaltmak için çalışmasıdır. Şekil: Saldırgan Makine Öğrenmesi

Tehdit Modelleri Tehdit Modelleri Etki Causative: Öğrenme prosesini etkilemektedir. (Poisoning) Exploratory: Eğitilmiş modele karşı yapılan saldırılar. (Evasion) Güvenlik ihlalleri: Yanlış sınıflandırmalar, sistemin kullanılamaz hale gelmesi (DoS).

Evasion Attacks Evasion Attacks En basit model saldırıları, öğrenme sonucunu atlatmaya çalışan saldırılardır. Saldırgan sadece kısmi sonuçları gözlemleyebilir. Örnek: spam e-postaları göndermek isteyen bir saldırgan, ilk olarak, spam e-postalarını zararsız olarak sınıflandırmak için bir yol bulmak üzere modele karşı bir dizi farklı e-posta içeriğini deneyebilir.

Poisoning Attacks Poisoning Attacks Bir saldırgan, öğrenim sonucunu etkilemek amacıyla eğitim verilerinizi etkilemeye odaklanabilir. Örnek: Anormal trafiği algılayan bir sınıflandırıcıyı eğitmek için şu anda ağ trafiğinin toplandığını bilen bir saldırgan, bu ağa trafik oluşturabilir, böylece model oluşturulduğunda, saldırı bağlantılarını anomali olarak tespit edemez.

Saldırı Sınıflandırması Ettirgen (Causative) Hedefli Sınıflandırıcı, belirli pozitif örneklerde yanlış eğitilmiştir. Ayrım Yapmayan Sınıflandırıcı genellikle pozitif (Indis- örneklerde yanlış eğitilir. criminate) Eğitim Aşamasında Keşif (Explatory) Pozitif örneklerin belirli bir alt kümesinin yanlış sınıflandırılması Yanlış sınıflandırılan pozitif örnekler Test Aşamasında

CleverHans Cleverhans Açık-kaynak kütüphane https://github.com/openai/cleverhans Tensorflow üzerinde geliştirilmiş bir kütüphane Saldırılar için standart uygulama Standard implementation of attacks Keras desteği bulunmaktadır.

IBM -Adversarial-Robustness-Toolbox IBM-ART IBM-ART Makine öğrenimi modelleri için saldırıların ve savunma yöntemlerinin hızlı analizine izin vermektedir. https://github.com/ibm/adversarial-robustness-toolbox Kullanım alanları Measuring model robustness Model hardening Runtime detection

İçindekiler 1 Adversarial Examples Giriş Hedef Algoritmalar Adversarial Examples in the Human Brain Lets fool a binary linear classifier 2 Adversarial Machine Learning Giriş Tehdit Modelleri Saldırı Sınıflandırması CleverHans IBM -Adversarial-Robustness- Toolbox 3 Saldırılar Fast gradient sign method (FGSM) Jacobian-based Saliency Map Attack DeepFool Virtual Adversarial Training

Fast gradient sign method (FGSM) I Fast gradient sign method (FGSM) Bu yöntem, gradyan yönünde piksel genişliğinde pertürbasyon ekleyerek rakip bir görüntüyü hesaplamaktadır. X adv = X + ɛ sign( X l(x, y true )) (1) X: Clean image (input) X adv : perturbated adversarial image l: loss function y true : true label for input X

Fast gradient sign method (FGSM) II Gradient Bir fonksiyonun bir noktadaki gradyan değeri bu noktada yer alan eğimi ifade eder. Bir fonksiyonun f (x 1, x 2,, x n), bir noktadaki (x 1, x 2, x n) gradyanı bulunması için türevi f alınarak bu nokta yerine konulur.

Fast gradient sign method (FGSM) III Örnek: f (x, y) = x 2 + y 2 1.5 f (x, y) f x = 2x f y = 2y (2, 1) noktasında gradyan f = (2 2, 2 1) = (4, 1) Numerical Gradient numpy.gradient >>> f = np.array([1, 2, 4, 7, 11, 16], dtype=float) >>> np.gradient(f) array([ 1., 1.5, 2.5, 3.5, 4.5, 5. ])

Fast gradient sign method (FGSM) IV X adv = X + ɛ sign( X l(x, y true )) Her bir pixel için kayıp fonsiyonunun gradyanı hesaplanır. X l(x, y true ) R m n k - [width, height, channels] η = ɛ sign( X l(x, y t rue)) sadece eğimin işareti kullanılarak pixel değerlerinin azalmasına veya artmasına bakılır. düşük bir ɛ değeri ile çarpılarak perturbation matrix oluşturulur. X adv = X + η

Fast gradient sign method (FGSM) V Şekil: white-box attacks.

Fast gradient sign method (FGSM) VI White-Box Problemi Çözüm: Aynı sınıflandırma probleminin çözümü için h modeli oluştur. h modeline FGSM kullanarak adversarial örnekler oluşturarak gönder. Sınıflandırma sonucuna göre parametreleri değiştir.

Fast gradient sign method (FGSM) VII Targeted fast gradient sign method (T-FGSM) Gradient ile ters yönde pertrbation işlemi gerçekleştirilmesi Hedef bir etiket olması X adv = X ɛ sign( X l(x, y target )) y target : the target label for the adversarial attack.

Fast gradient sign method (FGSM) VIII Iterative fast gradient sign method (I-FGSM) T gradyan adımı α = ɛ T X adv 0 = X X adv t+1 = X adv t + α sign( X l(x, y target ))

Lab Lab - 1

Jacobian-based Saliency Map Attack (JSMA) I JSMA Bir ağ modelinin sınıf etiketleri olasılığa göre hesaplanır. label(x) = arg max F j (x) j Bir saldırgan, x örneğinin etiketini t olmasını istiyorsa, F t (x) değerini artırmalı, diğer sınıflar için F j (x) olasılığı azaltmalıdır. Bu amaçla bazı nitelikleri artırarak yapabilir. Bu amaçla saliency map (çıkıntı/göze çarpma) oluşturur. 0 if F t (X) F < 0 or j (X) X S(X, t)[i] = i j t > 0 ( ) X i Ft (x) F j (X) X i j t X otherwise i 1. satırda eğer hedef etiket t için azalma varsa veya diğer sınıfların olasılığının toplamında artış varsa 0 olarak kabul edilir. X i ifadesi artırılıyorsa F t (x) ifadesi pozitif olmalıdır. X i X i ifadesi azaltılıyorsa F t (x) ifadesi negatif olmalıdır. X i

Jacobian-based Saliency Map Attack (JSMA) II

Jacobian-based Saliency Map Attack (JSMA) III

Lab Lab - 2

DeepFool I DeepFool Minimal Perturbation r, Sufficient to change the estimated label ˆk(x): (x; ˆk) = min r r 2 s.t. ˆk(x + r) ˆk(x) (x; ˆk): the robustness of ˆk at point x

Virtual Adversarial Training I Virtual Adversarial Training Yeni bir regularization yöntemi GAN benzeri bir yöntem. Bir model ortaya çıkarılmaktadır. Oluşan model bir sınıflandırıcıdır. Üretici bir model değildir.

Virtual Adversarial Training II

Lab Lab - 3