Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/25701
Título: Controle flexível de sistemas a eventos discretos utilizando simulação de ambiente e aprendizado por reforço
Título(s) alternativo(s): Flexible control of discrete event systems using environment simulation and reinforcement learning
Autor(es): Zielinski, Kallil Miguel Caparroz
Orientador(es): Casanova, Dalcimar
Palavras-chave: Sistemas de tempo discreto
Processos de fabricação
Processo decisório
Controle de processo
Discrete-time systems
Manufacturing processes
Decision making
Process control
Data do documento: 10-Jun-2021
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Pato Branco
Citação: ZIELINSKI, Kallil Miguel Caparroz. Controle flexível de sistemas a eventos discretos utilizando simulação de ambiente e aprendizado por reforço. 2021. Dissertação (Mestrado em Engenharia Elétrica) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2021.
Resumo: Sistemas a Eventos Discretos (SEDs) são modelados classicamente com Máquinas de Estados Finitos (MEFs), e possuem máxima permissividade, controlabilidade e não bloqueabilidade utilizandoa Teoria de Controle Supervisório (TCS). Enquanto a TCS é poderosa para lidar com eventos de um SED, ela falha ao processar eventos em que o controle é baseado em premissas probabilísticas. Neste documento, mostramos que alguns eventos podem ser tratados comumente na TCS, enquanto outros podem ser processados utilizando Inteligência Artificial. Primeiro apresentamos uma ferramenta para converter controladores da TCS em simulações de ambientes de Aprendizado por Reforço (AR), em que eles se tornam suscetíveis a processamento inteligente. Em sequência, propomos uma abordagem baseada em AR que reconhece o contexto em que um conjunto de eventos estocásticos ocorre e os trata de acordo, buscando uma tomada de decisões como complemento dos caminhos determinísticos da TCS. O resultado é uma eficiente combinação de um controle flexível e seguro, que tende a maximizar o desempenho de um SED que evolui de maneira probabilística. Dois algoritmos de AR são testados: SARSA e N-STEP SARSA, sobre uma planta automotiva controlada flexível. Os resultados sugerem um aumento de 9 vezes no desempenho utilizando a combinação proposta em comparação com decisões não inteligentes.
Abstract: Discrete Event Systems (DESs) are classically modeled as Finite State Machines (FSMs), and controlled in a maximally permissive, controllable, and nonblocking way using Supervisory Control Theory (SCT). While SCT is powerful to orchestrate events of DESs, it fail to process events whose control is based on probabilistic assumptions. In this research, we show that some events can be approached as usual in SCT, while others can be processed apart using Artificial Intelligence. We first present a tool to convert SCT controllers into Reinforcement Learning (RL) simulation environments, from where they become suitable for intelligent processing. Then, we propose a RL-based approach that recognizes the context under which a selected set of stochastic events occur, and treats them accordingly, aiming to find suitable decision making as complement to deterministic outcomes of the SCT. The result is an efficient combination of safe and flexible control, which tends to maximize performance for a class of DES that evolves probabilistically. Two RL algorithms are tested, State-Action-Reward-State-Action (SARSA) and N-step SARSA, over a flexible automotive plant control. Results suggest a performance improvement 9 times higher when using the proposed combination in comparison with non-intelligent decisions.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/25701
Aparece nas coleções:PB - Programa de Pós-Graduação em Engenharia Elétrica

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
flexiblecontrol.pdf829,37 kBAdobe PDFThumbnail
Visualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.