Musical Genre Classification of Audio Signals
2010년 12월 16일
서울대학교 공과대학 電氣工學部 李 承 澤
Musical Genre Classification of Audio Signals 指導敎授 성 굉 모 이 논문을 공학 학사학위 논문으로 제출함
2010년 12월 16일 서울대학교 공과대학 電氣工學部 이 승 택 이승택의 학사 학위 논문을 인준함 2010년 12월 16일 지도교수 성 굉 모 (인)
ABSTRACT
Musical genres are categorized by human. It depends on human hearing. There are common characteristics shared by categories. These characteristics are related to instrumentation, rhythmic structure, and harmonic content of the music. Currently many music is still classified by manually. Automated system for musical genre classification can assist or replace manual work for classifying musical genre. In this paper, the automatic classification of audio signals into hierarchy of musical genres is explored. Three feature sets for representing timbral texture, rhythmic content and pitch content are proposed. Also propose classification through two-times KNN classification method and show enhancement of accuracy. Using two-time KNN classification method increases accuracy about 5% than one-time --++++KNN classification which two-time KNN classification accuracy is 77.9% and one-time KNN classification accuracy is 73.3%.
Index Terms – Music classification, feature extraction, wavelets, KNN classification
Table of Contents
I. II. Introduction Music Modeling & Genre Segmentation
III. Feature Extraction A. Timbral Texture Features i. ii. iii. iv. B. Spectral shape features Mel-frequency cepstral coefficients (MFCCs) Texture window Low-Energy features
Rhythmic Features
C. Pitch Content Features IV. Classification V. Evaluation and Discussion VI. References
I. Introduction
Musical genres are categorized by human. It depends on human hearing. There are common characteristics shared by categories. These characteristics are related to instrumentation, rhythmic structure, and harmonic content of the music. Genre classification is magnified when music industry moved from CD
References: [1] N. Scaringella, G. Zoia, and D. Mlynek, “Automatic genre classification of music content: a survey,” Signal Processing Magazine, IEEE, vol. 23, no. 2, pp. 133-141, 2006. [2] T. Li, M. Ogihara, and Q. Li, “A comparative study on content-based music genre classification,” in Proceedings of the 26th annual international ACM SIGIR conference on Research and development in informaion retrieval, Toronto, Canada, 2003. [3] G. Tzanetakis, and P. Cook, “Musical genre classification of audio signals,” Speech and Audio Processing, IEEE Transactions on, vol. 10, no. 5, pp. 293-302, 2002. [4] Y. Yi-Hsuan, L. Yu-Ching, S. Ya-Fan et al., “A Regression Approach to Music Emotion Recognition,” Audio, Speech, and Language Processing, IEEE Transactions on, vol. 16, no. 2, pp. 448-457, 2008. [5] E. Scheirer, “Tempo and beat analysis of acoustic musical signals,” The Journal of the Acoustical Society of America, vol. 103, no. 1, pp. 588-601, 1998. [6] H.-C. Chen, and A. L. P. Chen, “A Music Recommendation System Based on Music and User Grouping,” Journal of Intelligent Information Systems, vol. 24, no. 2, pp. 113-132, 2005. [7] “http://www.allmusic.com/,” Allmusic. [8] “http://www.amazon.com/,” Amazon music. [9] F. Pachet and D. Cazaly, “A classification of musical genre,” in Proc. RIAO ContentBased Multimedia Information Access Conf., Paris, France, Mar. 2000. [10] D. P. R. Gjerdigen, “Scanning the dial: an exploration of factors in the identification of musical style,” Proceedings of the 1999 Society for Music Perception and Cognition, pp. 88, 1999. [11] B. Logan, “Mel frequency cepstral coefficients for music modeling,” Proceedings of the International Coference in Music Information Retrieval (ISMIR), pp. 11-23, 2000. [12] B. Logan, “Mel frequency cepstral coefficients for music modeling,” Proceedings of the International Coference in Music Information Retrieval (ISMIR), pp. 11-23, 2000. [13] T. Tolonen and M. Karjalainen, “A computationally efficient multipitch analysis model,” IEEE Trans. Speech Audio Processing, vol. 8, pp. 708–716, Nov. 2000. 抄 錄 음악적 장르 구분은 인간의 두뇌의 활동으로 이루어진다. 특별한 기준 없이 사람의 느낌에 따라 좌우된다. 하지만 인터넷의 시대가 오고 많은 음악을 한꺼번에 접하고 관리 하고 정리해야 할 때 사용되는 장르 구분은 이제 자동화가 필요한 부분이 되었다. 인간 의 느낌을 정례화 한다는 어려움이 있지만 기본적인 음악적인 성분을 추출해 내어 음악 적 장르 구분을 하고자 한다. 본 연구에서는 3가지 방식으로 음악적 특성을 추출했다. 이렇게 추출된 특징을 어떠 한 벡터 공간에 놓아 k-NN 분류 방식을 사용해서 장르 분류를 하였다. 일반적으로 k-NN 을 사용하지 않고 큰 장르 구분을 한번 큰 장르로 구분된 샘플을 가지고 다시 한번 kNN 분류를 해서 더 정확한 결과값을 얻었다. 한번 실행했을 때 73.3%의 정확도를 보였 지만 두 번 실행했을 때에는 79.9%의 정확도를 얻었다. 약 5%의 정확도 증가율을 보였 다. 주요어 : 음악 장르 구분, 특성 추출, k-NN 분류법