Détection de la gravité de la dysarthrie à l'aide de réseaux neuronaux récurrents et convolutionnels

##plugins.themes.bootstrap3.article.main##

Amina Hamza
Djamel Addou

Résumé

Le diagnostic et le suivi de la dysarthrie, un trouble de la parole causé par des problèmes neuromoteurs qui affectent l'articulation, dépendent d'une évaluation précise de sa gravité. Lors de la création de systèmes automatisés pour identifier et catégoriser la parole dysarthrique, une classification précise de la gravité est essentielle. En utilisant les modèles de réseaux neuronaux, en particulier les réseaux neuronaux récurrents (RNN) et les réseaux neuronaux convolutionnels (CNN), cet article propose une étude approfondie de la manière de distinguer les voix dysarthriques parmi une base d'échantillons de voix normales et de catégoriser la gravité de la dysarthrie. Parmi les caractéristiques utilisées dans l'étude figurent la qualité de la voix, les paramètres prosodiques, les formants, les coefficients cepstraux Mel (MFCC) et les spectrogrammes. Nous Comparons la capacité des réseaux convolutionnels et récurrents à identifier les anomalies dans les données normales, ainsi que le modèle hybride qui combine les réseaux neuronaux convolutionnels et récurrents (CRNN), qui est notre objectif. La base de données du corpus Nemours est utilisée pour évaluer les performances de ces modèles de réseaux neuronaux. Nous avons enregistré un  taux de 99,8 % de précision de classification qui est le taux le plus élevée atteint avec ce corpus.

##plugins.themes.bootstrap3.article.details##

Comment citer
Hamza, A., & Addou, D. (2024). Détection de la gravité de la dysarthrie à l’aide de réseaux neuronaux récurrents et convolutionnels . AL-Lisaniyyat, 30(2), 27-39. Consulté à l’adresse https://crstdla.dz/ojs/index.php/allj/article/view/736
Rubrique
Articles

Références

Al-Qatab, B. A., & Mustafa, M. B. (2021). Classification of dysarthric speech according to the severity of impairment: an analysis of acoustic features. IEEE Access, 9, 18183-18194.‏
Bai, J., Wang, J., & Zhang, X. (2013). A Parameters Optimization Method of v-Support Vector Machine and Its Application in Speech Recognition. J. Comput., 8(1), 113-120.‏.
Deng, L., & Platt, J. (2014, September). Ensemble deep learning for speech recognition. In Proc. interspeech.
Freed, D. B. (2023). Motor speech disorders: diagnosis and. treatment. plural publishing
Hamza, A., Addou, D., & Kheddar, H. (2023, November). Machine learning approaches for automated detection and classification of dysarthria severity. In 2023 2nd International Conference on Electronics, Energy and Measurement (IC2EM) (Vol. 1, pp. 1-6). IEEE.
Hernandez, A., Kim, S., & Chung, M. (2020). Prosody-based measures for automatic severity assessment of dysarthric speech. Applied Sciences, 10(19), 6999.
Joy, N. M., & Umesh, S. (2018). Improving acoustic models in TORGO dysarthric speech database. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 26(3), 637-645.‏
Kadi, K. L., & Selouani, S. A. (2019). Distinctive auditory-based cues and rhythm metrics to assess the severity level of dysarthria. Signal and Acoustic Modeling for Speech and Communication Disorders, edited by Patil and Amy Neustein, De Gruyter, 205-226.‏
Kheddar, H., Bouzid, M., & Megías, D. (2019). Pitch and fourier magnitude based steganography for hiding 2.4 kbps melp bitstream. IET Signal Processing, 13(3), 396-407.‏
Martínez, D., Lleida, E., Green, P., Christensen, H., Ortega, A., & Miguel, A. (2015). Intelligibility assessment and speech recognizer word accuracy rate prediction for dysarthric speakers in a factor analysis subspace. ACM Transactions on Accessible Computing (TACCESS), 6(3), 1-21.‏
Mazari, A. C., & Kheddar, H. (2023). Deep learning-based analysis of Algerian dialect dataset targeted hate speech, offensive language and cyberbullying. International Journal of Computing and Digital Systems.‏
Mehrish, A., Majumder, N., Bharadwaj, R., Mihalcea, R., & Poria, S. (2023). A review of deep learning techniques for speech processing. Information Fusion, 99, 101869.
palmer, R., & Enderby, P. (2007). Methods of speech therapy treatment for stable dysarthria: A review. Advances in Speech Language Pathology, 9(2), 140-153
Rudzicz, F. (2010). Articulatory knowledge in the recognition of dysarthric speech. IEEE Transactions on Audio, Speech, and Language Processing, 19(4), 947-960
Salhi, L., & Cherif, A. (2013, April). Selection of pertinent acoustic features for detection of pathological voices. In 2013 5th International Conference on Modeling, Simulation and Applied Optimization (ICMSAO) (pp. 1-6). IEEE.
Schu, G., Janbakhshi, P., & Kodrasi, I. (2023, June). On using the UA-Speech and TORGO databases to validate automatic dysarthric speech classification approaches. In ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.‏
Seong, W. K., Kim, N. K., Ha, H. K., & Kim, H. K. (2016, December). A discriminative training method incorporating pronunciation variations for dysarthric automatic speech recognition. In 2016 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA) (pp. 1-5). IEEE.‏
Tu, M., Wisler, A., Berisha, V., & Liss, J. M. (2016). The relationship between perceptual disturbances in dysarthric speech and automatic speech recognition performance. The Journal of the Acoustical Society of America, 140(5), EL416-EL422.‏
Xiao, Y., & Cho, K. (2016). Efficient character-level document classification by combining convolution and recurrent layers. arXiv preprint arXiv:1602.00367.
Zuo, Z., Shuai, B., Wang, G., Liu, X., Wang, X., Wang, B., & Chen, Y. (2015). Convolutional recurrent neural networks: Learning spatial dependencies for image representation. In Proceedings of the IEEE conference on computer vision and pattern recognition workshops (pp. 18-26).‏