Campus Vitória da Conquista Trabalhos de Conclusão de Cursos (TCCs) - Vitória da Conquista
Use este identificador para citar ou linkar para este item: https://repositorio.ifba.edu.br/jspui/handle/123456789/904
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSilva, Jeferson Caio Oliveira-
dc.date.accessioned2025-09-26T13:40:45Z-
dc.date.available2024-09-09-
dc.date.available2025-09-26T13:40:45Z-
dc.date.issued2024-08-13-
dc.identifier.urihttp://repositorio.ifba.edu.br/jspui/handle/123456789/904-
dc.description.abstractThis work compares intelligent traffic lights, controlled by reinforcement learning, with fixed-time traffic lights according to the Brazilian Traffic Signaling Manual, aiming to evaluate their effectiveness in improving traffic flow and reducing congestion in Brazil. Q-learning and Deep Q-Network (DQN) algorithms were implemented in a simple intersection and a network with three aligned traffic lights. Simulations in the SUMO environment compared the performance of intelligent traffic lights and fixed-time traffic lights in terms of waiting time, number of stops, and average vehicle speed. The results indicated that, in the simple intersection, the DQN system presented a 25% reduction in total stops (7.01 stops) compared to the fixed-time system (9.33 stops). Q-learning presented 8.19 stops. In terms of total waiting time, DQN achieved an average of 39.24 seconds, representing a 58.8% reduction compared to the fixed-time system (95.29 seconds). Q-learning had an average of 66.61 seconds. In the network with three aligned traffic lights, DQN obtained the lowest average total stops (9.74 stops), a reduction of 20.1% compared to the fixed-time system (12.20 stops). Q-learning had an average of 10.96 stops. The total waiting time was lower in DQN (76.94 seconds) compared to the fixed-time system (94.94 seconds) and Q-learning (84.97 seconds). Thus, the implementation of intelligent traffic lights with reinforcement learning can improve traffic management in urban environments.pt_BR
dc.languageporpt_BR
dc.publisherInstituto Federal de Educação, Ciência e Tecnologia da Bahiapt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectSemáforos inteligentespt_BR
dc.subjectAprendizado por reforçopt_BR
dc.subjectQ-learningpt_BR
dc.subjectGerenciamento de tráfegopt_BR
dc.titleControle adaptativo de tráfego: um estudo comparativo entre aprendizado por reforço e semáforos de tempo fixopt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.creator.Latteshttp://lattes.cnpq.br/5019159581182674pt_BR
dc.contributor.advisor1Diaz Amado, Jose Alberto-
dc.contributor.advisor1IDhttps://orcid.org/0000-0001-8447-784Xpt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/4676804219079636pt_BR
dc.contributor.referee1Diaz Amado, Jose Alberto-
dc.contributor.referee1IDhttps://orcid.org/0000-0001-8447-784Xpt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/4676804219079636pt_BR
dc.contributor.referee2Carvalho, Luis Paulo da Silva-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/0311325080761195pt_BR
dc.contributor.referee3Santos, Marcelo Mendonça dos-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/4271397173667661pt_BR
dc.description.resumoEste trabalho compara semáforos inteligentes, controlados por aprendizado por reforço, com semáforos de tempo fixo conforme o Manual Brasileiro de Sinalização de Trânsito, visando avaliar a eficácia na melhoria do fluxo de tráfego e na redução de congestionamentos do Brasil. Foram implementados algoritmos de Q-learning e Deep Q-Network (DQN) em uma interseção simples e em uma rede com três semáforos alinhados. As simulações no ambiente SUMO compararam o desempenho dos semáforos inteligentes e dos semáforos de tempo fixo em termos de tempo de espera, número de paradas e velocidade média dos veículos. Os resultados indicaram que, na interseção simples, o sistema DQN apresentou uma redução significativa no tempo total de espera, alcançando uma média de 39.24 segundos, representando uma redução de 58.8% em relação ao sistema de tempo fixo (95.29 segundos). O Q-learning teve uma média de 66.61 segundos. Quanto ao número de paradas, o DQN também obteve melhor desempenho, com uma média de 7.01 paradas, uma redução de 24.86% em comparação com o sistema de tempo fixo (9.33 paradas). O Q-learning apresentou 8.19 paradas. Na rede com três semáforos alinhados, o DQN registrou o menor tempo total de espera, com 76.94 segundos, em comparação com o sistema de tempo fixo (94.94 segundos) e o Q-learning (84.97 segundos). Em termos de número de paradas, o DQN obteve a menor média, com 9.74 paradas, uma redução de 20.1% em comparação com o sistema de tempo fixo (12.20 paradas). O Q-learning teve uma média de 10.96 paradas. Assim, a implementação de semáforos inteligentes com aprendizado por reforço pode melhorar a gestão de tráfego em ambientes urbanos.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentDepartamento de Ensino Superior/Bachareladopt_BR
dc.publisher.initialsIFBApt_BR
dc.subject.cnpqCNPQ::ENGENHARIASpt_BR
Aparece nas coleções:Trabalhos de Conclusão de Cursos (TCCs) - Vitória da Conquista

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC___Jeferson_Caio.pdf3.17 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

Ferramentas do administrador