Skip navigation
Universidade Federal da Bahia |
Repositório Institucional da UFBA
Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/40541
Registro completo de metadados
Campo DCValorIdioma
dc.creatorOttoni, Lara Toledo Cordeiro-
dc.date.accessioned2024-10-31T17:46:22Z-
dc.date.available2024-10-31T17:46:22Z-
dc.date.issued4-10-
dc.identifier.urihttps://repositorio.ufba.br/handle/ri/40541-
dc.description.abstractThe challenge of Human-Robot Interaction (HRI) is to build intelligent systems that can adapt to user and environmental changes in order to enhance real-time interaction. In this regard, an emerging approach is the use of emotions in HRI. There are multimodal emotion recognition systems that classify emotions across various modalities (facial expression, gestures, speech, among others). However, despite studies on multimodal emotion recognition, they still have limitations in emotion classification methodology, often considering emotions as binary and overlooking the various emotions that may be present in the user. Therefore, the aim of this work is to propose a multimodal and multiclass emotion recognition system for human-robot interaction. The use of facial expression and speech modalities, as well as emotion fusion, is proposed. The Speech Emotion Recognition Module (MREF) is responsible for inferring the user's emotion from speech, utilizing a deep learning model for emotion classification. Additionally, the Facial Expression Emotion Recognition Module (MREEF) is proposed, which classifies the user's emotion from facial expressions using convolutional neural networks (CNNs). Finally, emotion fusion is proposed using fuzzy systems. When the proposed system was tested using the MELD database, the MREF achieved an accuracy of 73%, the MREEF 78.06%, and the fusion of modules achieved an accuracy of 78.94%. Thus, it can be observed that a multimodal system is more effective.pt_BR
dc.description.sponsorshipFAPESB (084.0508.2022.0000201-09)pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal da Bahiapt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectReconhecimento de Emoçãopt_BR
dc.subjectSistema Multimodalpt_BR
dc.subjectInteração Humano-Robôpt_BR
dc.subjectAprendizado de Máquinapt_BR
dc.subject.otherEmotion Recognitionpt_BR
dc.subject.otherMultimodal Systempt_BR
dc.subject.otherHuman-Robot Interactionpt_BR
dc.subject.otherMachine Learningpt_BR
dc.titleSistema para reconhecimento de emoção multimodal e multiclasse para interação humano-robôpt_BR
dc.title.alternativeMultimodal and multiclass emotion recognition system for human-robot interactionpt_BR
dc.typeTesept_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétrica (PPGEE) pt_BR
dc.publisher.initialsUFBApt_BR
dc.publisher.countryBrasilpt_BR
dc.subject.cnpqCNPQ::ENGENHARIASpt_BR
dc.contributor.advisor1Cerqueira, Jés de Jesus Fiais-
dc.contributor.advisor1IDhttps://orcid.org/0000-0003-4072-0101pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3099827700882478pt_BR
dc.contributor.referee1Doria Neto, Adrião Duarte-
dc.contributor.referee2Netto, Mariana Schiavo-
dc.contributor.referee3Camada, Marcos Yuzuru de Oliveira-
dc.contributor.referee4Fernandes Júnior, Antônio Carlos-
dc.contributor.referee5Cerqueira, Jés de Jesus Fiais-
dc.creator.IDhttps://orcid.org/0000-0003-3996-431Xpt_BR
dc.creator.Latteshttp://lattes.cnpq.br/2944975805256817pt_BR
dc.description.resumoO desafio da Interação Humano-Robô (IHR) é construir sistemas inteligentes que possam se adaptar às mudanças dos usuários e do ambiente, a fim de melhorar a interação em tempo real. Desta forma, uma abordagem crescente é o uso de emoções na IHR. Neste sentido, existem os sistemas de reconhecimento de emoção multimodal, nos quais, realizam a classificação das emoções em várias modalidades (expressão facial, gestos, fala, e outros). No entanto, embora existam estudos que tratam do reconhecimento multimodal de emoções, eles ainda apresentam limitações na metodologia da classificação das emoções, além de considerar as emoções como binárias e ignorando as várias emoções que podem estar presentes no usuário. Assim, o objetivo deste trabalho foi propor um sistema de reconhecimento de emoções multimodal e multiclasse para a interação humano-robô. É proposto o uso das modalidades de expressão facial e fala, assim como a fusão das emoções. O Módulo de Reconhecimento de Emoção da Fala (MREF) é responsável por inferir a emoção na fala do usuário, no qual é utilizado um modelo de aprendizado profundo para classificar a emoção. Também é proposto o Módulo de Reconhecimento de Emoção da Expressão Facial (MREEF), que classifica a emoção pela face do usuário utilizando rede neural convolucional (CNN). Por fim, propõe-se a fusão das emoções reconhecidas utilizando sistema nebuloso. O sistema proposto utiliza da base de dados MELD, obtendo um resultado de 73% de acurácia usando apenas o MREF, 78,06% utilizando apenas o MREEF, e 78,94% de acurácia usando a fusão dos módulos.pt_BR
dc.publisher.departmentEscola Politécnicapt_BR
dc.type.degreeDoutoradopt_BR
Aparece nas coleções:Tese (PPGEE)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Tese_Lara_2024.pdfTese Lara Ottoni10,45 MBAdobe PDFVisualizar/Abrir
Mostrar registro simples do item Visualizar estatísticas


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.