Campus Vitória da Conquista Trabalhos de Conclusão de Cursos (TCCs) - Vitória da Conquista
Use este identificador para citar ou linkar para este item: https://repositorio.ifba.edu.br/jspui/handle/123456789/905
Registro completo de metadados
Campo DCValorIdioma
dc.creatorOliveira, Larissa Santos-
dc.date.accessioned2025-09-26T13:42:18Z-
dc.date.available2024-09-09-
dc.date.available2025-09-26T13:42:18Z-
dc.date.issued2024-08-13-
dc.identifier.urihttp://repositorio.ifba.edu.br/jspui/handle/123456789/905-
dc.description.abstractThis work proposes a system to facilitate communication between deaf and hearing individuals through the automatic translation of the brazilian sign language (Libras) fingerspelling into text. Using Computer Vision and Deep Learning techniques, the system is capable of recognizing the Libras alphabet from real-time images of human hands. To achieve this goal, the PointNet neural network architecture, specialized in processing three-dimensional data, was employed. A dataset containing images of hands in different positions and angles, representing the Libras alphabet, was used to train the network. The MediaPipe library was crucial for extracting 3D landmarks from the hands in the images, which were used as input for the neural network. After training, the PointNet network demonstrated high accuracy in letter classification, with over 98% accuracy. To enhance user experience, the system was integrated with a spell checker, ensuring greater fluency and naturalness in the translation. Additionally, real-time capture allows for direct user interaction with the system. The results obtained in this work demonstrate the potential of applying Computer Vision and Deep Learning techniques to develop sign language interpretation systems, contributing to the inclusion and communication of deaf individualspt_BR
dc.languageporpt_BR
dc.publisherInstituto Federal de Educação, Ciência e Tecnologia da Bahiapt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectLíngua Brasileira de Sinaispt_BR
dc.subjectPointNetpt_BR
dc.subjectLandmarkpt_BR
dc.subjectDeep learningpt_BR
dc.titleIdentificação visual em tempo instantâneo da datilologia em Libras: facilitador na comunicaçãopt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1Diaz Amado, Jose Alberto-
dc.contributor.advisor1IDhttps://orcid.org/0000-0001-8447-784Xpt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/4676804219079636pt_BR
dc.contributor.advisor-co1Alves, Marcelo Meira-
dc.contributor.advisor-co1IDhttps://orcid.org/0000-0003-2678-2760pt_BR
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/5414688716769844pt_BR
dc.contributor.referee1Diaz Amad, Jose Alberto-
dc.contributor.referee1IDhttps://orcid.org/0000-0001-8447-784Xpt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/4676804219079636pt_BR
dc.contributor.referee2Alves, Marcelo Meira-
dc.contributor.referee2IDhttps://orcid.org/0000-0003-2678-2760pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5414688716769844pt_BR
dc.contributor.referee3Santos, Leandro Viturino dos-
dc.contributor.referee3IDhttps://orcid.org/0000-0002-8710-5723pt_BR
dc.contributor.referee3Latteshttp://lattes.cnpq.br/4869750925845950pt_BR
dc.contributor.referee4Libarino, Cleia Santos-
dc.contributor.referee4Latteshttp://lattes.cnpq.br/0168353916026552pt_BR
dc.description.resumoEste trabalho propõe um sistema para facilitar a comunicação entre surdos e ouvintes por meio da tradução automática da datilologia da língua brasileira de sinais (Libras) para texto. Utilizando técnicas de Visão Computacional e Deep Learning, o sistema é capaz de reconhecer o alfabeto da Libras a partir de imagens em tempo imediato das mãos humanas. Para alcançar esse objetivo, foi empregada a arquitetura de rede neural PointNet, especializada no processamento de dados tridimensionais. Um conjunto de dados contendo imagens de mãos em diferentes posições e ângulos, representando o alfabeto da Libras, foi utilizado para treinar a rede. A biblioteca MediaPipe foi crucial para a extração de pontos de referência (Landmarks) 3D das mãos nas imagens, que foram utilizados como entrada para a rede neural. Após o treinamento, a rede PointNet demonstrou alta precisão na classificação das letras, com mais de 98% de acerto. Para aprimorar a experiência do usuário, o sistema foi integrado a um corretor ortográfico, garantindo maior fluidez e naturalidade na tradução. Além disso, a captura imediata permite a interação direta do usuário com o sistema. Os resultados obtidos neste trabalho demonstram o potencial da aplicação de técnicas de Visão Computacional e Deep Learning para o desenvolvimento de sistemas de interpretação de Libras, contribuindo para a inclusão e comunicação de pessoas surdas.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentDepartamento de Ensino Superior/Bachareladopt_BR
dc.publisher.initialsIFBApt_BR
dc.subject.cnpqCNPQ::ENGENHARIASpt_BR
Aparece nas coleções:Trabalhos de Conclusão de Cursos (TCCs) - Vitória da Conquista

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Larissa_Santos_Oliveira_IFBA_VDC_PFC_VersaoFinal.pdf6.31 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

Ferramentas do administrador