Agentes inteligentes em Inteligência Artificial

Apesar da tendência mercadológica e da grande exposição midiática, a ideia dos agentes de IA e os conceitos envolvidos são discutidos na academia há muitas décadas, tendo encontrado agora a combinação perfeita entre quantidade de dados e poder de processamento para executar algumas ideias antigas. Mas, o que são esses agentes inteligentes?

O que é um agente inteligente?

Na Inteligência Artificial, um Agente Inteligente pode ser entendido como uma entidade capaz de perceber o ambiente e agir sobre ele. Essa é uma das definições mais clássicas da área, apresentada por Stuart Russell e Peter Norvig. Para os autores, um agente é “qualquer coisa que possa ser vista como percebendo seu ambiente por meio de sensores e agindo sobre esse ambiente por meio de atuadores” (Russell; Norvig, 2021).

Em termos simples, um agente inteligente é um sistema que observa uma situação, interpreta o que está acontecendo e escolhe uma ação. Ele pode ser um software, como um chatbot; um robô físico, como um aspirador automático; ou um sistema complexo, como um carro autônomo. Essa visão corrobora com a perspectiva adotada pelo Google (2026), que define os agentes de IA como sistemas de software inteligentes capazes de atuar de forma autônoma para concluir tarefas complexas, indo além de simples chatbots.

O que precisamos ter em mente é que o agente não age aleatoriamente. Ele recebe informações do ambiente, chamadas de percepções, processa essas informações e executa ações para alcançar algum objetivo. Por exemplo, um aspirador de pó robô percebe se o chão está sujo, identifica sua posição no ambiente e decide se deve limpar, mover-se para outro local ou parar. Nesse caso, ele é um agente porque percebe e age.

Modelo PEAS

Para projetar um agente inteligente, Russell e Norvig propõem uma forma sistemática de descrever sua tarefa: o modelo PEAS. Essa sigla representa quatro elementos fundamentais: Performance (Performance), Environment (Ambiente), Actuators (Atuadores) e Sensors (Sensores).

A performance é a medida de desempenho do agente. Ela define como saberemos se o agente está fazendo um bom trabalho. No exemplo de um aspirador de pó robô, uma boa medida de desempenho pode ser limpar o máximo possível, gastar pouca bateria e evitar colisões.

O segundo elemento é o environment, que representa o ambiente no qual o agente atua. Pode ser uma sala, uma casa, uma estrada, um jogo digital ou um sistema computacional. Este último é o caso dos agentes de programação modernos que atuam de forma independente em IDEs (ex: Codex, da OpenAI)

Para que os agentes automatizados possam agir, são necessários os atuadores (actuators), isto é, os mecanismos pelos quais o agente realiza ações no ambiente. Um robô pode ter rodas, escovas, braços mecânicos ou motores, enquanto um software agêntico pode ter funções que enviam mensagens, salvam dados ou executam comandos.

A última letra da sigla representa os sensores (sensors), que são os meios pelos quais o agente percebe o ambiente. Em um robô, sensores podem ser câmeras, sensores de distância, sensores de sujeira ou GPS. Em um software, sensores podem ser entradas do usuário, dados de uma API ou informações lidas de um banco de dados.

Como o conceito de inteligência é algo muito genérico, o modelo PEAS ajuda a transformar isso em um problema mais concreto de engenharia. Antes de programar o agente, o desenvolvedor precisa saber qual é o objetivo, onde ele atua, como ele percebe o mundo e quais ações ele pode executar.

Exemplo de agente robótico conforme o modelo PEAS

Para entendermos melhor o modelo PEAS, considere um robô físico que atue como um aspirador de pó. Neste exemplo, poderíamos descrever o agente robótico conforme a Tabela 1.

ElementoDescrição
PerformanceManter as salas limpas, gastar pouca bateria e reduzir movimentos desnecessários
EnvironmentDuas salas: Sala A e Sala B
ActuatorsLimpar, mover para a direita, mover para a esquerda
SensorsDetectar a posição atual e se a sala está suja ou limpa
Tabela 1 – Descrição de um robô aspirador simples a partir do modelo PEAS.
Fonte: Russell e Norvig (2021).

Tipos de agentes

Os programas de agentes podem ser classificados de acordo com o seu grau de complexidade e a forma como processam as percepções para tomar decisões. Russell e Norvig (2021) agrupam os agentes em quatro tipos principais, além de apresentarem uma quinta categoria estrutural que pode complementar todas as outras:

  1. Agentes de Reflexo Simples (Simple Reflex Agents):
    • Tomam decisões com base única e exclusivamente na percepção atual do momento.
    • Ignoram totalmente o histórico de percepções passadas (não possuem memória).
    • Operam através de regras lógicas diretas de “condição-ação” (ex: “se a temperatura passar de 30°C, então ligue o ar-condicionado”).
  1. Agentes de Reflexo Baseados em Modelos (Model-Based Reflex Agents):
    • Foram projetados para lidar com ambientes parcialmente observáveis.
    • Mantêm um estado interno (memória) que rastreia as partes do mundo que o agente não consegue perceber no momento atual.
    • Possuem um “modelo” interno que entende duas coisas: como o mundo evolui de forma independente das ações do agente e como as próprias ações do agente afetam esse mundo.
  1. Agentes Baseados em Objetivos (Goal-Based Agents):
    • Vão além de apenas saber como o mundo está; eles precisam saber para onde devem ir.
    • Possuem informações sobre “objetivos” que descrevem situações ou estados desejáveis.
    • Utilizam algoritmos de busca e planejamento para simular e escolher uma sequência de ações que os levem a esse objetivo.
    • São altamente flexíveis, pois o comportamento muda automaticamente caso o objetivo mude, não dependendo apenas de regras fixas.
  1. Agentes Baseados em Utilidade (Utility-Based Agents):
    • Não se contentam apenas em atingir um objetivo, mas buscam a melhor forma de fazê-lo.
    • Utilizam uma função de utilidade para quantificar o “grau de satisfação” ou preferência por determinados estados em detrimento de outros (ex: um táxi autônomo pode ter o objetivo de chegar ao destino, mas a utilidade avalia se a rota foi rápida, segura e econômica).
    • São ideais para tomar decisões racionais em cenários onde há objetivos conflitantes ou incerteza sobre o resultado das ações.
  1. Agentes com Aprendizado (Learning Agents):
    • Permite que o agente opere inicialmente em ambientes desconhecidos e torne-se mais competente do que seu conhecimento inicial permitiria.
    • Utiliza um “crítico” para receber feedback do ambiente e um “elemento de aprendizado” para modificar o comportamento futuro e melhorar o desempenho geral.

Neste artigo vamos focar nossa discussão apenas na categoria mais simples, o agente de reflexo simples.

Destrinchando o agente de reflexo simples

É um tipo básico de agente inteligente que decide suas ações considerando apenas a percepção atual. Ele não guarda memória do passado, não planeja o futuro e não constrói uma representação complexa do ambiente.

Sua lógica é baseada em regras do tipo condição-ação, também chamadas de regras if-then. A estrutura geral é simples: se determinada condição for percebida, então execute determinada ação. Assumindo o cenário do robô aspirador simples, o funcionamento seria algo assim:

Se a sala está suja, então limpar.

Se o agente está na Sala A e ela está limpa, então mover para a direita.

Se o agente está na Sala B e ela está limpa, então mover para a esquerda.

Esse tipo de agente é fácil de entender e implementar. Entretanto, ele possui limitações importantes. A principal limitação é que o agente de reflexo simples funciona melhor em ambientes totalmente observáveis, isto é, ambientes em que a percepção atual fornece todas as informações necessárias para tomar uma boa decisão. Quando o ambiente não é totalmente observável, o agente pode tomar decisões ruins porque não se lembra do que aconteceu antes.

Por exemplo, se o aspirador só percebe a sala atual e não sabe se a outra sala já foi limpa, ele pode ficar alternando entre Sala A e Sala B indefinidamente. Esse comportamento pode gerar um loop infinito, especialmente quando o agente não tem memória, limite de tempo, bateria ou critério de parada.

Russell e Norvig destacam que agentes de reflexo simples são adequados para problemas simples, mas tornam-se frágeis em ambientes parcialmente observáveis ou dinâmicos, nos quais seria necessário armazenar estado interno, planejar ações ou aprender com a experiência (Russell; Norvig, 2021).

Criando um agente aspirador em Python

Agora vamos construir um agente simples em Python. O objetivo é simular um aspirador de pó robô que opera em um ambiente com duas posições: Sala A e Sala B. O agente poderá realizar três ações:

  1. “Limpar”, caso a sala atual esteja suja.
  2. “Mover para a Direita”, caso esteja na Sala A e ela esteja limpa.
  3. “Mover para a Esquerda”, caso esteja na Sala B e ela esteja limpa.

O Código 1 representa uma versão de agente de reflexo simples, que decide o que fazer observando apenas a posição atual e o estado atual da “sala”.

# Simulação de um Agente Aspirador de Pó
# Exemplo de Agente de Reflexo Simples

ambiente = {
    "A": "suja",
    "B": "suja"
}

# Posição inicial do agente
posicao_atual = "A"


def sensor(ambiente, posicao):
    """
    O sensor permite que o agente perceba o ambiente.
    Neste caso, ele percebe:
    - a posição atual;
    - o estado da sala atual: suja ou limpa.
    """
    estado_da_sala = ambiente[posicao]
    return posicao, estado_da_sala


def agente_reflexo_simples(percepcao):
    """
    O agente toma decisão com base apenas na percepção atual.
    Ele usa regras de condição-ação:
    - se a sala está suja, limpar;
    - se está na Sala A e limpa, mover para a direita;
    - se está na Sala B e limpa, mover para a esquerda.
    """
    posicao, estado_da_sala = percepcao

    if estado_da_sala == "suja":
        return "Limpar"
    elif posicao == "A":
        return "Mover para a Direita"
    elif posicao == "B":
        return "Mover para a Esquerda"


def executar_acao(acao, ambiente, posicao):
    """
    Os atuadores executam a ação escolhida pelo agente.
    Eles modificam o ambiente ou a posição do agente.
    """
    if acao == "Limpar":
        ambiente[posicao] = "limpa"
        print(f"O agente limpou a Sala {posicao}.")
    elif acao == "Mover para a Direita":
        posicao = "B"
        print("O agente moveu para a Sala B.")
    elif acao == "Mover para a Esquerda":
        posicao = "A"
        print("O agente moveu para a Sala A.")

    return ambiente, posicao


# Executando a simulação por alguns passos
for passo in range(6):
    print(f"\nPasso {passo + 1}")
    print(f"Ambiente atual: {ambiente}")
    print(f"Posição atual do agente: Sala {posicao_atual}")

    percepcao = sensor(ambiente, posicao_atual)
    acao = agente_reflexo_simples(percepcao)

    print(f"Percepção do agente: {percepcao}")
    print(f"Ação escolhida: {acao}")

    ambiente, posicao_atual = executar_acao(acao, ambiente, posicao_atual)

No Código 1, o dicionário ambiente representa o “mundo” no qual o agente atua. Ele contém duas salas, A e B, e cada uma possui um estado: "suja" ou "limpa". Essa estrutura representa o Environment do modelo PEAS.

A variável posicao_atual (linha 10) indica onde o agente está no início da simulação, enquanto a função sensor representa os Sensors do agente. Ela permite que o agente perceba duas informações: sua posição atual e o estado da sala onde ele está. Na prática, essa função simula aquilo que, em um robô real, poderia ser feito por sensores físicos. Em vez de usar câmeras ou sensores de sujeira, usamos dados armazenados em variáveis.

A função agente_reflexo_simples representa a “mente” do agente (Código 2). É nela que aparecem as regras de condição-ação, mostrando claramente o funcionamento de um agente de reflexo simples. Ele não consulta histórico, não planeja várias etapas e não calcula a melhor sequência de ações. Ele apenas responde à percepção atual.

if estado_da_sala == "suja":
    return "Limpar"
elif posicao == "A":
    return "Mover para a Direita"
elif posicao == "B":
    return "Mover para a Esquerda"

A função executar_acao representa os Actuators, modificando o ambiente quando o agente limpa uma sala ou modificando a posição do agente quando ele se move (Código 3). Quando a ação é "Limpar", o estado da sala atual muda de "suja" para "limpa". Quando a ação é "Mover para a Direita", o agente vai para a Sala B. Quando a ação é "Mover para a Esquerda", ele retorna para a Sala A.

 if acao == "Limpar":
        ambiente[posicao] = "limpa"
        print(f"O agente limpou a Sala {posicao}.")
    elif acao == "Mover para a Direita":
        posicao = "B"
        print("O agente moveu para a Sala B.")
    elif acao == "Mover para a Esquerda":
        posicao = "A"
        print("O agente moveu para a Sala A.")

No final do algoritmo, linha 61, repare que o laço for executa a simulação por seis passos. Esse limite é importante porque, como o agente não possui memória nem critério avançado de parada, ele poderia continuar se movimentando entre as salas mesmo depois de limpar tudo. Essa é justamente uma das limitações dos agentes de reflexo simples (obs: o valor 6 foi definido aleatoriamente, poderia ser outro).

Relacionando o exemplo simulado com o modelo PEAS

No exemplo que implementamos em Python, a descrição do modelo PEAS para o robô aspirador ficaria conforme o disposto na Tabela 2.

PEASElemento no código
PerformanceLimpar as salas, embora o código ainda não calcule pontuação
EnvironmentO dicionário ambiente
ActuatorsA função executar_acao
SensorsA função sensor
Tabela 2 – Relação dos elementos PEAS com o robô aspirador simples que simulamos em linguagem Python.
Fonte: Autoria própria.

A regra central do agente está na função agente_reflexo_simples. Ela é responsável por transformar a percepção atual em uma ação. Isso traduz diretamente a ideia de Russell e Norvig (2021) de que o comportamento de um agente pode ser descrito por uma função que mapeia sequências de percepções em ações.

Conclusão

Agentes inteligentes são uma das ideias centrais da Inteligência Artificial. Eles permitem pensar sistemas computacionais como entidades que percebem ambientes, escolhem ações e buscam alcançar objetivos (e não apenas como programas que executam instruções).

O modelo PEAS ajuda a projetar esses agentes de forma organizada, identificando medida de desempenho, ambiente, atuadores e sensores. Já o esquema conhecido como Agente de Reflexo Simples indica a primeira estratégia de decisão para um agente de IA: agir com base em regras diretas de condição-ação.

Embora simples, esse tipo de agente tem valor pedagógico, já que permite compreender a ligação entre teoria e prática. Contudo, ele tem suas limitações para usos mais complexos, demonstrando por que a Inteligência Artificial precisa de modelos mais sofisticados. Para estes cenários, a evolução natural é investigar agentes baseados em modelo, agentes baseados em objetivos, agentes baseados em utilidade e agentes capazes de aprender. Continue estudando e boa sorte em suas investigações.

Obrigado pela leitura e bons estudos!

Referências

GOOGLE. What are AI agents? 2026. Disponível em:<https://cloud.google.com/discover/what-are-ai-agents?hl=pt-BR>. Acesso em: 26 abr. 2026.

RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4. ed. Hoboken: Pearson, 2021.