Skip navigation
BelSU DSpace logo

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://dspace.bsuedu.ru/handle/123456789/65237
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.authorBalabanova, T. N.-
dc.contributor.authorGaivoronskayа, D. I.-
dc.contributor.authorDoborovich, A. N.-
dc.date.accessioned2025-06-03T08:36:09Z-
dc.date.available2025-06-03T08:36:09Z-
dc.date.issued2024-
dc.identifier.citationBalabanova, T.N. Using neural network technologies in determining the emotional state of a person in oral communication / T.N. Balabanova, D.I. Gaivoronskayа, A.N. Doborovich // Научный результат. Сер. Вопросы теоретической и прикладной лингвистики. - 2024. - Т.10, №4.-C. 17-39.ru
dc.identifier.urihttp://dspace.bsuedu.ru/handle/123456789/65237-
dc.description.abstractThe work presents a neural network of convolutional architecture that allows to recognize four human emotions (sadness, joy, anger, neutral) from spoken speech. Particular attention is paid to the formation of a dataset for training and testing the model, since at present there are practically no open speech databases for the study of paralinguistic phenomena (especially in Russian). This study uses the Dusha emotional speech databaseru
dc.language.isoenru
dc.subjectlinguisticsru
dc.subjectcomputational linguisticsru
dc.subjectspeech databasesru
dc.subjectneural networksru
dc.subjectconvolutional neural networksru
dc.subjectemotion recognitionru
dc.subjectclassificationru
dc.subjectclassification methodsru
dc.titleUsing neural network technologies in determining the emotional state of a person in oral communicationru
dc.title.alternativeРаспознавание эмоций по устной речи с использованием нейросетевого подходаru
dc.typeArticleru
Располагается в коллекциях:Т. 10, вып. 4

Файлы этого ресурса:
Файл Описание РазмерФормат 
Balabanova_Using_24.pdf2.19 MBAdobe PDFПросмотреть/Открыть
Показать базовое описание ресурса Просмотр статистики


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.