Duyguların Sese Yansıtılmasında Konuşmacı Etkilerinin Akustik Parametreler Üzerinden İncelenmesi

Benzer belgeler
Performance Analysis of MFCC Features On Emotion Recognition from Speech

Pamukkale Üniversitesi Mühendislik Bilimleri Dergisi Pamukkale University Journal of Engineering Sciences

SÜREKLİ SAKLI MARKOV MODELLERİ İLE METİNDEN BAĞIMSIZ KONUŞMACI TANIMA PARAMETRELERİNİN İNCELENMESİ

DEÜ MÜHENDİSLİK FAKÜLTESİ MÜHENDİSLİK BİLİMLERİ DERGİSİ Cilt: 16 Sayı: 48 sh Eylül 2014 FARKLI VERİ SETLERİ ARASINDA DUYGU TANIMA ÇALIŞMASI

VQ Yöntemiyle Konuşmacı Cinsiyetinin Belirlenmesi

ÖZGEÇMİŞ. 1. Adı Soyadı : Olcay Taner Yıldız. 2. Doğum Tarihi : Unvanı : Doç. Dr. 4. Öğrenim Durumu :

Türkçe de Ünlülerin Formant Analizi

BÜRÜNSEL ÖZELLİKLERİN KONUŞMACI TANIMA PERFORMANSINA ETKİSİ

Türkçe de Ünlülerin FormantĐncelemesi

Ses Komut Tanıma ile Gezgin Araç Kontrolü. Mobile Vehicle Control With Voice Command Recognition

ÖZGEÇMİŞ VE ESERLER LİSTESİ

Alman Dili Üzerinde Konuşmacı Cinsiyetinin Otomatik Olarak Belirlenmesi. Automatic Determination of the Speaker on the German Language

Sayısal modülasyonlu haberleşme işaretlerinden Wigner- Ville zaman-frekans dağılımlarına dayalı öznitelik çıkarımı

İletişim Ağları Communication Networks

Alt-bant İşlemeye Dayalı Bir Ses Sınıflandırma Sistemi

ELEKTRİK-ELEKTRONİK MÜHENDİSLİĞİ DOKTORA YETERLİK SINAVI YÖNETMELİĞİ

ADPCM Tabanlı Ses Steganografi Uygulaması The Application of Sound Steganography Based on ADPCM

Dinamik Zaman Bükmesi Yöntemiyle Hece Tabanlı Konuşma Tanıma Sistemi

DEĞİŞİK ŞARKI TÜRLERİNE GÖRE SES EĞİTİMİ ALAN BİREYLERDE OBJEKTİF FONASYON VE AKUSTİK ANALİZ BULGULARI

Coğrafi Veri Üretimi Bakış Açısı İle TÜBİTAK UZAY daki Uzaktan Algılama Araştırmaları

Uzaktan Algılama Teknolojileri

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

DEÜ MÜHENDİSLİK FAKÜLTESİ FEN VE MÜHENDİSLİK DERGİSİ Cilt: 8 Sayı: 3 s Ekim 2006

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

Doç.Dr. M. Mengüç Öner Işık Üniversitesi Elektrik-Elektronik Mühendisliği Bölümü

Mustafa ŞEKER a, Basri YARAŞ b

Plazma İletiminin Optimal Kontrolü Üzerine

ÖZGEÇMİŞ. 7. Yayınlar 7.1 Uluslararası hakemli dergilerde yayınlanan makaleler (SCI,SSCI,Arts and Humanities)

GÜR EMRE GÜRAKSIN AFYON KOCATEPE ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ / BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ / AFYONKARAHİSAR

EEG Alt Bandlarının Tekil Spektrumu ile Duygu Durumları Arasındaki İlişki

Address Boğaziçi University Electrical and Electronics Eng. Department, 34342, Bebek, Istanbul, TURKEY

Boğaziçi University Electrical and Electronics Eng. Department, 34342, Bebek, Istanbul, TURKEY

EEG Tanısında Modified Covariance Yönteminin Model Derecesi Hassasiyetinin İncelenmesi. Mustafa ŞEKER 1

İŞARET ve SİSTEMLER (SIGNALS and SYSTEMS) Dr. Akif AKGÜL oda no: 303 (T4 / EEM)

LOCAL BINARY PATTERN YÖNTEMİ İLE YÜZ İFADELERİNİN TANINMASI

Ayrık Dalgacık Dönüşümü Bileşenlerine Ait İstatistiksel Veriler ile Epileptik EEG İşaretlerinin Sınıflandırılması

Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir

ÖZGEÇMİŞ VE ESERLER LİSTESİ

Konuşmacı yaş ve cinsiyetinin GKM süpervektörlerine dayalı bir DVM sınıflandırıcısı ile belirlenmesi

HİPERSPEKTRAL GÖRÜNTÜLEMENİN SAVUNMA TEKNOLOJİLERİ UYGULAMALARI VE SPEKTRAL EĞRİLTME SAYESİNDE YÜKSEK TANIMA BAŞARIMI

Mustafa Budak 1, Bülent Bolat 2

DEÜ MÜHENDİSLİK FAKÜLTESİ FEN ve MÜHENDİSLİK DERGİSİ Cilt: 7 Sayı: 3 s Ekim 2005

Fourier Dönüşümü (FFT)...XXII Mel Frekansı Saptırması (Mel-Frequency Warping)...XXII Kepstrum...XXIII

DEÜ MÜHENDİSLİK FAKÜLTESİ MÜHENDİSLİK BİLİMLERİ DERGİSİ Cilt: 14 Sayı: 1 sh Ocak 2012

TÜRKİYE DE ÇEŞİTLİ TAŞ OCAĞI PATLATMA ALANLARININ SPEKTRUM ÖZELLİKLERİ SPECTRUM CHARACTERISTICS OF SEVERAL QUARRY BLAST AREAS IN TURKEY

SAYISAL GÖRÜNTÜ İŞLEME (Digital Image Processing)

Kelebek Görüntülerin Sınıflandırılmasında Yeni Yerel İkili Örüntüler

DOÇ. DR. HAKAN GÜRKAN Işık Üniversitesi Mühendislik Fakültesi Elektrik-Elektronik Mühendisliği Bölümü

Web Madenciliği (Web Mining)

ÖRÜNTÜ TANIMA YÖNTEMLERİ KULLANARAK KONUŞMACI BAĞIMLI AYRIŞIK SÖZCÜK TANIMA. Betül KESKİN

Data Communications. Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü. 3. Veri ve Sinyaller

SU ALTI AKUSTİĞİ TEMELLERİ & EĞİTİM FAALİYETLERİ

DOÇ. DR. ESEN YILDIRIM

Elena Battini SÖNMEZ Önder ÖZBEK N. Özge ÖZBEK. 2 Şubat 2007

SAYISAL GÖRÜNTÜİŞLEME (Digital Image Processing)

SAYISAL İŞARET İŞLEME. M. Kemal GÜLLÜ

Doküman dili tanıma için ikili örüntüler tabanlı yeni bir yaklaşım

MEL FREKANSI KEPSTRUM KATSAYILARINDAKİ DEĞİŞİMLERİN KONUŞMACI TANIMAYA ETKİSİ

İki Farklı Metodla Üretilen Çelik Boru Profillerin Mikroyapı Ve Mekanik Özelliklerinin İncelenmesi

University of Southern California SCHOOL OF ENGINEERING/ELECTRICAL ENGINEERING

Filter Design To Filter EMG Signals Using Fast Block Least Mean Square

PARMAK İZİNDEN CİNSİYET TANIMA: YENİ BİR VERİTABANI İLE TEST

Ses Komut Tanıma ile Gezgin Araç Kontrolü

Yüz Tanımaya Dayalı Uygulamalar. (Özet)

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ ADLİ UYGULAMALAR İÇİN SES İÇERİK ANALİZİ

4. BENZETİM ÇALIŞMALARI VE SINIFLANDIRMA BAŞARIMI

AYRIŞIK SÖZCÜK TABANLI TÜRKÇE KONUŞMACI TANIMA SİSTEMİ GELİŞTİRME VE ANAHTAR KELİME SEÇİMİNİN KONUŞMACI TANIMA PERFORMANSINA ETKİSİNİN İNCELENMESİ

Available online at

GENÇ BADMiNTON OYUNCULARıNIN MÜSABAKA ORTAMINDA GÖZLENEN LAKTATVE KALP ATIM HIZI DEGERLERi

LINEAR PREDICTIVE CODING VE DYNAMIC TIME WARPING TEKNİKLERİ KULLANILARAK SES TANIMA SİSTEMİ GELİŞTİRİLMESİ

Türkçe Dokümanlar Ġçin Yazar Tanıma

ÖZGEÇMİŞ. Dr. Aytuğ ONAN

Derin Paket Analizi Kullanılarak DDoS Saldırı Tespiti. Towards DDoS Attack Detection Using Deep Packet Analysis

A New Approach for Named Entity Recognition

Derin Yapay Sinir Ağları ve Derin Öğrenme ye Kısa Bir Giriş

COĞRAFİ BİLGİ SİSTEMLERİ YARDIMIYLA TRAFİK KAZALARININ TESPİTİNDE YENİ BİR VERİ ÖLÇEKLEME YÖNTEMİ: KOMŞU TABANLI ÖZELLİK ÖLÇEKLEME (KTÖÖ)

ADIYAMAN ÜNĠVERSĠTESĠ MÜHENDĠSLĠK FAKÜLTESĠ ELEKTRĠK-ELEKTRONĠK MÜHENDĠSLĠĞĠ BÖLÜMÜ DEVRE ANALĠZĠ LABORATUVARI-II DENEY RAPORU

Tarımsal İmge Dokularından HOG Algoritması ile Öznitelik Çıkarımı ve Öznitelik Tabanlı Toprak Neminin Tahmini

2017 MÜFREDATI MÜHENDİSLİK FAKÜLTESİ / ELEKTRİK-ELEKTRONİK MÜHENDİSLİĞİ EĞİTİM PLANI

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ

Hafta 13 - Adversarial ML

Türkçe de Duygu Çözümlemesi. H. Mesut Meral, Hazım K. Ekenel, A. Sumru Özsoy Boğaziçi Üniversitesi

Haar Dalgacıkları ve Kübik Bezier Eğrileri İle Yüz İfadesi Tespiti Facial Expression Detection With Haar Wavelet and Cubic Bezier Curves

Çift Tonlu Çoklu Frekans Kodlama Sisteminin Optimize Edilmesi

MÜHENDİSLİK FAKÜLTESİ / ENSTİTÜSÜ / YÜKSEKOKULU BİLİŞİM SİSTEMLERİ MÜHENDİSLİĞİ BÖLÜMÜ /ABD LİSANS PROGRAMI - 2 ( yılı öncesinde birinci

DOPPLER KAN AKIÞ ÖLÇERLERÝ ÝÇÝN MAKSÝMUM FREKANS ÝZLEYÝCÝ TASARIMI VE GERÇEKLEÞTÝRÝLMESÝ

ANKARA ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ

Ö Z G E Ç M İ Ş. 1. Adı Soyadı: Mustafa GÖÇKEN. 2. Doğum Tarihi: 12 Haziran Unvanı: Yrd. Doç. Dr. 4. Öğrenim Durumu: Ph.D.

GİRİŞ. Bilimsel Araştırma: Bilimsel bilgi elde etme süreci olarak tanımlanabilir.

SESİN DOĞASI VE OLUŞUMU The Nature of Sound

ULUSLARARASI SCI / SCI-Expanded KAPSAMINDAKİ DERGİLERDEKİ MAKALELER. Yayın NO. Yazarlar Başlık Dergi Adı Yıl

FIRAT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ/YAZILIM MÜHENDİSLİĞİ (DR)

GERÇEK ZAMANLI GÜÇ KALİTESİ İZLEME SİSTEMLERİ İLE ELEKTRİK DAĞITIM SİSTEMLERİNDEKİ GÜÇ KALİTESİNİN İNCELENMESİ. Hüseyin ERİŞTİ 1, Yakup DEMİR 2

DENEYLER İÇİN PROTOKOL VE TABAN ÇİZGİSİ PROTOCOL AND BASELINE FOR EXPERIMENTS ON BOGAZICI UNIVERSITY TURKISH EMOTIONAL SPEECH CORPUS

Güç Spektral Yoğunluk (PSD) Fonksiyonu

Uyarlanır Tersinir Görüntü Damgalama (Adaptive Reversible Image Watermarking)

Zamansal Veri Madenciliği ve Anomali Tespiti için Bir Uygulama

Farklı zaman ölçekli EEG işaretlerinden epilepsi nöbetinin otomatik tespiti

Klasik Türk Müziği Makamlarının Tanınması

DÜZCE ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ ELEKTRİK ELEKTRONİK MÜHENDİSLİĞİ BÖLÜMÜ TEMEL HABERLEŞME SİSTEMLERİ TEORİK VE UYGULAMA LABORATUVARI 3.

Transkript:

2016 Published in 4th International Symposium on Innovative Technologies in Engineering and Science 3-5 November 2016 (ISITES2016 Alanya/Antalya - Turkey) Duyguların Sese Yansıtılmasında Konuşmacı Etkilerinin Akustik Parametreler Üzerinden İncelenmesi *1 Turgut Özseven ve 2 Muharrem Düğenci 1 Turhal Meslek Yüksekokulu, Gaziosmanpaşa Üniversitesi, Türkiye * 2 Mühendislik Fakültesi, Karabük Üniversitesi, Türkiye Özet Bu çalışmanın amacı konuşmadan duygu tanımada konuşmacı bağımlılığının duyguyu yansıtmadaki etkilerinin akustik parametreler üzerinden incelenmesidir. Bu amaçla, 7 farklı duygunun aktörler tarafından ifade edildiği veriler üzerinde akustik analiz gerçekleştirilmiştir. Akustik analiz ile elde edilen akustik parametreler konuşmacı bağımlı ve konuşmacı bağımsız sınıflandırmaya tabi tutularak duyguları tanıma başarısı elde edilmiştir. Elde edilen sonuçlara göre konuşmacı bağımlı sınıflandırma başarısı konuşmacı bağımsız sınıflandırma başarısına göre bayanlarda yüksek ve erkeklerde düşüktür. Bayanlar duygularını erkeklere göre seslerine daha fazla yansıtmaktadır. Anahtar Kelimler: Duygu tanıma, akustik analiz, duygu ve konuşmacı Abstract The purpose of this study is to evaluate the effects of reflection of emotion on acoustic parameters of speaker dependent in emotion recognition. For this purpose, acoustic analysis was performed on data from the different emotions expressed by the actors 7. The emotions are classified as speaker dependent and speaker independent using acoustic parameters obtained by acoustic analysis. The according to the results obtained, speaker dependent classification performance is lower in males and high in females compared to the based on speaker independent classification performance. The speech reflection of emotions is more in females than males. Key words: Emotion recognition, acoustic analysis, emotion and speaker 1. Giriş Ses, duygunun bir parçasıdır ve duygusal durumun aktarılmasında önemli rol oynamaktadır. Duygularda ortaya çıkan değişiklikler, solunum kalıplarını ve kas gerilimini etkileyerek, ses kalitesinde değişiklikler meydana getirmektedir. İnsan seslerinden psikolojik tanı, duygu durumu tespiti ve kişi tanımada nesnel ve öznel yöntemler kullanmaktadır. Nesnel değerlendirme için akustik analiz tercih edilmektedir. Akustik analiz ses kayıtlarının sayısal sinyal işleme yöntemleri ile işlenmesi sonucu sese ait çeşitli parametrelerin elde edilmesidir. Çalışmalarda çoğunlukla temel frekans, formant frekansı, jitter, shimmer, sinyal gürültü oranı ve enerji parametreleri kullanılmaktadır. Hangi duyguların hangi akustik parametreler üzerinde etkili olduğunun tespiti yaş ve cinsiyet dahil olmak üzere sesteki bireysel farklılıklardan dolayı zorluk oluşturmaktadır [1]. Duygu tanımadaki bir diğer zorluk ise duyguların konuşmaya tam olarak yansıtıldığı veri elde edilmesidir. Bu nedenle *Corresponding author: Address: Turhal Meslek Yüksekokulu, Gaziosmanpaşa Üniversitesi, Türkiye, Tokat. E-mail address: turgutozseven@gmail.com

T.ÖZSEVEN et al./ ISITES2016 Alanya/Antalya - Turkey 467 çalışmalarda geçerliliği kabul görmüş EMO-DB [2] ve SUSAS [3] gibi hazır veritabanları kullanılabildiği gibi araştırmacı tarafından toplanan veriler de kullanılabilmektedir. Akustik analiz için Praat [4] ve OpenSMILE [5] gibi hazır araçlar kullanılabildiği gibi araştırmacılar tarafından geliştirilen kodlar da kullanılmaktadır. Akustik parametreler üzerinden duyguların tespit edilmesi için Gaussian Mixture Model (GMM), Support Vector Machine (SVM), Hidden Markov Model (HMM), Multilayer Perceptron (MLP) ve k-nearest Neighbor (k-nn) gibi tekil sınıflandırıcılar veya hybrid sınıflandırıcılar kullanılabilir. Bu çalışmada, duyguların sese yansıtılmasında konuşmacı etkilerini araştırılmıştır. Bu amaçla SVM sınıflandırıcı ile konuşmacı bağımlı ve konuşmacı bağımsız sınıflandırma performansları karşılaştırılmıştır. Yapılan çalışmalar incelendiğinde elde edilen sonuçlar Tablo 1 de verilmiştir. Tablo 1. İlgili Çalışmalar Kullanılan Parametreler Parametre Classifier Sayısı Başarı Referans F0, Eng, D, Frm, HNR,ZCR, MFCC, FFT 75 SVM %87.5 [6] F0, I, SR, D, MFCC - SVM %65.5 [7] I, SR, F0, D, Jt, Sh, prosody, VQ, LFPC 121 SVM-RBF %78.3 [8] MFCC 39 SVM %67.0 [9] Eng, F0, MFCC, ZCR, Sp, Sp Eng 95 SVM (SI-CV, 3DEC hier.) %79.5 SVM (SI-CV, DAG) %77.9 [10] ZCR, Eng, F0, HNR, MFCC 32 SVM (open set) %66.2 SVM (closed set) %80.6 [11] ZCR, Eng, F0, MFCC, reg 6552 %85.2 ZCR, Eng, F0, MFCC 4368 SVM %86.1 [12] dd+fea+fun+pca 37 %80.2 F0, I, D, Frm, Eng, HNR, Jt, Sh, MFCC 90 SVM %80.4 [13] MFCC, LFPC, NPQ, QO, GH, SGP, PSP, QOQ, F0 106 SVM-RBF %89.0 [14] I, L, MFCC, ZCR, LSP, F0 - SVM %83.1 [15] F0, I, D, Frm, Eng, HNR, Jt, Sh, MFCC 204 SVM %80.4 [16] Pr + Sp + NLD 2641 %85.9 Pr 241 %70.5 Sp 960 SVM (Male) %73.9 [17] NLD 1440 %77.8 Pr+Sp 1201 %78.6 F0: Pitch, Eng: Energy, D: Duration, Frm: Formant Frequency, ZCR: Zero-Crossing Rate, MFCC: Mel-Freqeuncy Cepstrum, FFT: Fast Fourier Transform, Nf: New feature set, Wv: Wavelet, SR: Speech Rate, I: Intensity, LPC: Linear Predictive Coding, HNR: Harmonic to Noise Ratio, Sp: Spectral, Pr: Prosodic, L: Loudness, Jt: Jitter, Sh: Shimmer, Ent: Entropy, vuv: voiced/unvoiced, #: Özellik Seçimi Öncesi, ##: Özellik Seçimi Sonrası Tablo 1 de verilen literatür taramasına göre SVM sınıflandırıcı ile duygu tanımada %90 lara ulaşan başarı elde edilmiştir. Konuşmacı bağımsız duygu tanımada başarı oranı konuşmacı

T.ÖZSEVEN et al./ ISITES2016 Alanya/Antalya - Turkey 468 bağımlı duygu tanımaya göre daha yüksek başarı oranına sahiptir. Ancak bu konuşmacı bağımlı çalışmalarda konuşmacının cinsiyetine göre farklılık göstermektedir. Bu çalışmanın ikinci bölümünde materyal ve yöntem, üçüncü bölümünde deneysel sonuçlar verilmiştir. 2. Yöntem ve Materyaller Bu çalışmada, Berlin Database of Emotional Speech (EMO-DB) veri tabanından temin edilen 535 adet konuşma kaydı kullanılmıştır [2]. EMO-DB farklı duyguların aktörler tarafından ifade edilmesi ile elde edilmiştir. Ses kayıtları 16 khz örnekleme frekansına sahip olup 16 bit monodur. Kullanılan veriye ait çeşitli bilgiler Tablo 1 de verilmiştir. Tablo 1. Kullanılan Verinin Dağılımı Demografik Özellik Adet Anger 50 Happiness 25 Duygu Boredom 27 Durumu Disgust 21 Anxiety/Fear 29 Sadness 49 Farklı Konuşmacı Sayısı 10 Cinsiyet Male 92 Female 109 Konuşma sinyali durağan olmayan bir sinyaldir ama kısa zaman aralıklarında durağan olduğu kabul edilir. Kısa zaman aralıklarını elde etmek için de sinyal çerçeveler bölünmektedir. Çalışmamızda sinyal işleme 20ms çerçeve boyutu, hamming pencereleme ve %50.0 örtüşme ön işleme süreçleri ile gerçekleştirilmiştir. Her çerçeve üzerinden akustik parametreler çıkartılmıştır. Çalışmada kullanılacak akustik parametrelerin elde edilmesi için Praat [4] kullanılmıştır. Çalışmada kullanılan akustik parametreler Tablo 2 de verilmiştir. Tablo 2. Çalışmada Kullanılan Akustik Parametreler Akustik Parametre Mean Std.Dev. F0 F1 F2 F3 Jitter (Local, Rap, ppq5, ddp) Shimmer (Local, apq3, apq5, apq11, dda) HNR Unvoiced_frame Voiced_Break Intensity ZCR

T.ÖZSEVEN et al./ ISITES2016 Alanya/Antalya - Turkey 469 Pitch (F0) gırtlaksı uyarılmanın temel frekansıdır ve ses kıvrımları ve alt gırtlak hava basıncına bağlıdır. Sesin kalınlık ve inceliğini bildirir. Periyot, F0 algısında birincil faktördür. Döngü/saniye olarak ölçülür ve Hertz (Hz) ile ifade edilir. Bu değer ergenlik öncesi kız ve erkeklerde 220-240 Hz civarında iken erişkin erkekler ve kadınlarda sırası ile ortalama 100-150 Hz ve 150-250 Hz arasındadır [18]. Formant (F1, F2, F3) ses yolundaki rezonanstır ve ses yolunun nicel özellikleri ile ilgili spektral bilgi sağlamaktadır. Jitter, periyotlar arası değişikliği gösteren parametredir. F0 daki istem dışı ortaya çıkan düzensizlikleri içerir [19]. Bu parametre ardışık titreşimli döngüleri arasındaki temel frekansın değişimleri olarak tanımlanır [20]. Genlik pikleri arasındaki periyodik varyasyona ise shimmer adı verilir. Bu parametre, ardışık titreşimli döngüler arasındaki gırtlak akış genlik değişiklikleri olarak tanımlanır [21]. HNR, F0 ve onun katları olan harmoniklerin toplam enerjisinin gürültü enerjisine oranıdır. Unvoiced frame, konuşma içerisinde sessiz kalınan bölgelerin oranıdır. Voiced break, konuşmadaki duraksamaların sayısıdır. Intensity, konuşmanın enerjisidir. ZCR, sinyaldeki işaret değişimlerinin oranını gösterir. Ses sinyalinin sıfırdan geçiş sayısı olarak bilinir. Sinüzoidal bir sinyalde her periyotta iki sıfırdan geçiş olduğu için sinyal sıklığı sıfırdan geçiş sayısının yarısı olarak hesaplanır. SVM istatistiksel öğrenme teorisine dayalı bir yöntemdir. Temel amaç sınıfları birbirinden en iyi şekilde ayıran karar fonksiyonun başka bir ifadeyle hiper-düzlemin tanımlanması esasına dayanır. Literatürde SER sistemlerde en çok kullanılan sınıflandırıcılardan birisidir ve EMO-DB üzerinde (7 duygu) yapılan çalışmalarda en yüksek başarı 93.78% olarak elde edilmiştir [22]. SVM sınıflandırıcı kullanılan başka bir çalışmada 535 veri seti ve 37 özellik kümesi ile 80.2% başarı elde edilmiştir [12]. 3. Sonuç ve Öneriler Akustik parametreler Praat yazılımında elde edilerek Weka üzerinde SVM sınıflandırıcı kullanılmıştır. Sınıflandırma başarıları elde edilirken üç farklı özellik kümesi kullanılmıştır. Bunlardan birincisi 10 aktör tarafından seslendirilen 535 ses doyasına ait akustik parametrelerdir. Bu veri kümesi konuşmacı bağımsız sınıflandırma için kullanılmıştır. İkincisi, bayan bir aktör tarafından 7 duygunun ifade edildiği 72 ses kaydına ait akustik parametrelerdir. Üçüncüsü ise, erkek bir aktör tarafından 7 duygunun ifade edildiği 60 ses kaydına ait akustik parametrelerdir. İkinci ve üçüncü özellik kümeleri ise konuşmacı ve cinsiyet bağımlı sınıflandırma için kullanılmıştır. Tablo 3 de konuşmacı bağımsız ve konuşmacı bağımlı sınıflandırma sonuçları verilmiştir. Tablo 3. Sınıflandırma Sonuçları Duygu Konuşmacı Bağımsız Konuşmacı Bağımlı Başarı Erkek Bayan Happiness %43.7 %50.0 %72.7 Neutral %70.9 %54.5 %60.0 Anger %78.7 %61.5 %71.4 Sadness %87.1 %50.0 %100 Fear %60.9 %75.0 %57.1 Boredom %75.3 %88.9 %92.9 Disgust %32.6 %60.0 %90.9 Ortalama Başarı %67.1 %64.3 %80.3

T.ÖZSEVEN et al./ ISITES2016 Alanya/Antalya - Turkey 470 Tablo 3 incelendiğinde bayanlarda konuşmacı bağımlı sınıflandırma başarısı erkeklere ve konuşmacı bağımsız sınıflandırma başarısına göre daha yüksektir. Erkeklerde konuşmacı bağımlı sınıflandırma başarısı bayanlara ve konuşmacı bağımsız sınıflandırma başarısına göre daha düşüktür. Elde edilen bu sonuç bayanların duygularını erkeklere göre seslerine daha fazla yansıttığının bir göstergesidir. Erkekler can sıkıntılarını seslerine daha fazla yansıtırken bayanlar üzüntülerini daha fazla yansıtmaktadır. Erkekler seslerine en az düzeyde üzüntü ve mutluluklarını, bayanlar en az düzeyde korkularını yansıtmaktadır. References [1] Zupan B, Neumann D, Babbage DR, Willer B. The importance of vocal affect to bimodal processing of emotion: Implications for individuals with traumatic brain injury. J. Commun. Disord. 2009; 42(1): 1 17. [2] Burkhardt F, Paeschke A, Rolfes M, Sendlmeier WF, Weiss B. A database of German emotional speech. Interspeech 2005; 5: 1517 1520. [3] Hansen JH, Bou-Ghazale SE, Sarikaya R, Pellom B. Getting started with SUSAS: A speech under simulated and actual stress database. Eurospeech 1997; 97: 1743 46. [4] Boersma P, Weenink D. Praat: Doing phonetics by computer [Computer program] 2010. [5] Eyben F, Wöllmer M, Schuller B. Opensmile: The munich versatile and fast open-source audio feature extractor. Proceedings of the international conference on Multimedia 2010; 1459 1462. [6] Schuller B, Müller R, Lang MK, Rigoll G. Speaker independent emotion recognition by early fusion of acoustic and linguistic features within ensembles. Interspeech 2005; 805 808. [7] Shami M, Verhelst W. An evaluation of the robustness of existing supervised machine learning approaches to the classification of emotions in speech. Speech Commun. 2007; 49(3): 201 212. [8] Luengo I, Navas E, Hernaez I. Feature analysis and evaluation for automatic emotion identification in speech. IEEE Trans. Multimed. 2010; 12(6): 490 501. [9] Vasuki P, Aravindan C. Improving emotion recognition from speech using sensor fusion techniques. TENCON 2012-2012 IEEE Region 10 Conference 2012; 1 6. [10] Hassan A, Damper RI. Classification of emotional speech using 3DEC hierarchical classifier.speech Commun. 2012; 54(7): 903 916. [11] Garg V, Kumar H, Sinha R. Speech based emotion recognition based on hierarchical decision tree with SVM, BLG and SVR classifiers. Communications (NCC), 2013 National Conference on 2013; 1 5. [12] Chiou BC, Chen CP. Feature space dimension reduction in speech emotion recognition using support vector machine. Signal and Information Processing Association Annual Summit and Conference (APSIPA) 2013; 1 6. [13] Zhao X, Zhang S, Lei B. Robust emotion recognition in noisy speech via sparse representation. Neural Comput. Appl. 2014; 24(7): 1539 1553. [14] Kachele M, Zharkov D, Meudt S, Schwenker F. Prosodic, spectral and voice quality feature selection using a long-term stopping criterion for audio-based emotion recognition. 2014; 803 808. [15] Jin Y, Song P, Zheng W, Zhao L. A feature selection and feature fusion combination method for speaker-independent speech emotion recognition. Acoustics, Speech and Signal

T.ÖZSEVEN et al./ ISITES2016 Alanya/Antalya - Turkey 471 Processing (ICASSP), 2014 IEEE International Conference on 2014; 4808 4812. [16] Zhao X, Zhang S. Spoken emotion recognition via locality-constrained kernel sparse representation. Neural Comput. Appl. 2015; 26(3): 735 744. [17] Shahzadi A, Ahmadyfard A, Harimi A, Yaghmaie K. Speech emotion recognition using nonlinear dynamics features. Turk. J. Electr. Eng. Comput. Sci. 2015; 23: 2056 2073. [18] Sarıca S. Ses analizinde kullanılan akustik parametreler. Tıpta Uzmanlık Tezi, Kahramanmaraş Sütçü İmam Üniversitesi Tıp Fakültesi, Kahramanmaraş, 2012. [19] Okur KM. CSL ve Dr. Speech ile ölçülen temel frekans ve pertürbasyon değerlerinin karşılaştırılması. KBB Ihtis. Derg. 2001; 8: 152 157. [20] Farrus M, Hernando J. Using jitter and shimmer in speaker verification. Signal Process. IET 2009; 3(4): 247 257. [21] Deshmukh O, Espy-Wilson CY, Salomon A, Singh J. Use of temporal information: Detection of periodicity, aperiodicity, and pitch in speech. Speech Audio Process. IEEE Trans. On 2005; 13(5): 776 786. [22] Ivanov A, Riccardi G. Kolmogorov-Smirnov test for feature selection in emotion recognition from speech. Acoustics, Speech and Signal Processing (ICASSP), 2012 IEEE International Conference on 2012; 5125 5128.