Os agentes de IA que as grandes empresas de tecnologia estão desenvolvendo agora possuem a capacidade de realizar ações em seu nome.
Brian O'Neill
04 de janeiro de 2025

Interagir com chatbots de IA como o ChatGPT pode ser divertido e, às vezes, útil, mas o próximo nível da IA cotidiana vai além de responder perguntas: agentes de IA realizam tarefas para você.
Grandes empresas de tecnologia, incluindo OpenAI , Microsoft , Google e Salesforce , recentemente lançaram ou anunciaram planos para desenvolver e lançar agentes de IA . Elas alegam que essas inovações trarão eficiência recém-descoberta aos processos técnicos e administrativos subjacentes aos sistemas usados em assistência médica, robótica , jogos e outros negócios.
Agentes simples de IA podem ser ensinados a responder a perguntas padrão enviadas por e-mail. Os mais avançados podem reservar passagens aéreas e de hotel para viagens de negócios transcontinentais. O Google demonstrou recentemente o Project Mariner para repórteres, uma extensão de navegador para o Chrome que pode raciocinar sobre o texto e as imagens na sua tela.
Na demonstração, o agente ajudou a planejar uma refeição adicionando itens a um carrinho de compras no site de uma rede de supermercados, até mesmo encontrando substitutos quando certos ingredientes não estavam disponíveis. Uma pessoa ainda precisa estar envolvida para finalizar a compra, mas o agente pode ser instruído a tomar todas as medidas necessárias até esse ponto.
Em certo sentido, você é um agente. Você toma ações em seu mundo todos os dias em resposta a coisas que você vê, ouve e sente. Mas o que exatamente é um agente de IA? Como cientista da computação , ofereço esta definição: agentes de IA são ferramentas tecnológicas que podem aprender muito sobre um determinado ambiente e, então, com alguns prompts simples de um humano, trabalhar para resolver problemas ou executar tarefas específicas naquele ambiente.
Regras e Objetivos
Um termostato inteligente é um exemplo de um agente muito simples. Sua capacidade de perceber seu ambiente é limitada a um termômetro que lhe diz a temperatura. Quando a temperatura em uma sala cai abaixo de um certo nível, o termostato inteligente responde aumentando o aquecimento.
Um antecessor familiar dos agentes de IA de hoje é o Roomba. O aspirador de pó robô aprende o formato de uma sala de estar acarpetada, por exemplo, e quanta sujeira há no carpete. Então, ele age com base nessas informações. Depois de alguns minutos, o carpete está limpo.
O termostato inteligente é um exemplo do que os pesquisadores de IA chamam de agente reflexo simples . Ele toma decisões, mas essas decisões são simples e baseadas apenas no que o agente percebe naquele momento. O aspirador robô é um agente baseado em metas com um objetivo singular: limpar todo o chão que ele pode acessar. As decisões que ele toma — quando virar, quando levantar ou abaixar as escovas, quando retornar à sua base de carregamento — estão todas a serviço dessa meta.
Um agente baseado em metas é bem-sucedido meramente por atingir sua meta por quaisquer meios necessários. Metas podem ser alcançadas de várias maneiras, no entanto, algumas das quais podem ser mais ou menos desejáveis do que outras.
Muitos dos agentes de IA de hoje são baseados em utilidade , o que significa que eles dão mais consideração a como atingir seus objetivos. Eles pesam os riscos e benefícios de cada abordagem possível antes de decidir como prosseguir. Eles também são capazes de considerar objetivos que entram em conflito entre si e decidir qual deles é mais importante para atingir. Eles vão além dos agentes baseados em objetivos, selecionando ações que consideram as preferências exclusivas de seus usuários.
Tomando decisões, agindo
Quando empresas de tecnologia se referem a agentes de IA, elas não estão falando sobre chatbots ou grandes modelos de linguagem como o ChatGPT. Embora os chatbots que fornecem atendimento básico ao cliente em um site sejam tecnicamente agentes de IA, suas percepções e ações são limitadas. Os agentes de chatbot podem perceber as palavras que um usuário digita, mas a única ação que eles podem tomar é responder com um texto que, esperançosamente, ofereça ao usuário uma resposta correta ou informativa.
Os agentes de IA aos quais as empresas de IA se referem são avanços significativos em relação a grandes modelos de linguagem como o ChatGPT porque eles possuem a capacidade de realizar ações em nome das pessoas e empresas que os utilizam.
A OpenAI diz que os agentes logo se tornarão ferramentas que pessoas ou empresas deixarão funcionando independentemente por dias ou semanas de cada vez, sem necessidade de verificar seu progresso ou resultados. Pesquisadores da OpenAI e do Google DeepMind dizem que os agentes são outro passo no caminho para a inteligência artificial geral ou IA “forte” — ou seja, IA que excede as capacidades humanas em uma ampla variedade de domínios e tarefas.
Os sistemas de IA que as pessoas usam hoje são considerados IA estreita ou IA “fraca” . Um sistema pode ser habilidoso em um domínio — xadrez, talvez — mas se jogado em um jogo de damas, a mesma IA não teria ideia de como funcionar porque suas habilidades não seriam traduzidas. Um sistema de inteligência geral artificial seria mais capaz de transferir suas habilidades de um domínio para outro, mesmo que nunca tivesse visto o novo domínio antes.
Vale a pena os riscos?
Os agentes de IA estão prontos para revolucionar a maneira como os humanos trabalham? Isso dependerá se as empresas de tecnologia podem provar que os agentes estão equipados não apenas para executar as tarefas atribuídas a eles, mas também para trabalhar em novos desafios e obstáculos inesperados quando eles surgirem.
A adoção de agentes de IA também dependerá da disposição das pessoas em dar a elas acesso a dados potencialmente sensíveis: dependendo do que seu agente deve fazer, ele pode precisar de acesso ao seu navegador de internet, seu e-mail, seu calendário e outros aplicativos ou sistemas que sejam relevantes para uma determinada tarefa. À medida que essas ferramentas se tornam mais comuns, as pessoas precisarão considerar quanto de seus dados desejam compartilhar com elas.
Uma violação do sistema de um agente de IA pode fazer com que informações privadas sobre sua vida e finanças caiam nas mãos erradas . Você está OK em correr esses riscos se isso significa que os agentes podem lhe poupar algum trabalho?
O que acontece quando agentes de IA fazem uma escolha ruim ou uma escolha com a qual seu usuário discordaria? Atualmente, os desenvolvedores de agentes de IA estão mantendo os humanos informados, garantindo que as pessoas tenham a oportunidade de verificar o trabalho de um agente antes que qualquer decisão final seja tomada. No exemplo do Projeto Mariner, o Google não deixa o agente realizar a compra final ou aceitar os termos de serviço do site. Ao mantê-lo informado, os sistemas dão a você a oportunidade de desistir de quaisquer escolhas feitas pelo agente que você não aprova.
Como qualquer outro sistema de IA, um agente de IA está sujeito a vieses. Esses vieses podem vir dos dados em que o agente é inicialmente treinado, do algoritmo em si ou de como a saída do agente é usada. Manter os humanos informados é um método para reduzir o viés, garantindo que as decisões sejam revisadas pelas pessoas antes de serem executadas.
As respostas a essas perguntas provavelmente determinarão o quão populares os agentes de IA se tornarão e dependerão de quanto as empresas de IA conseguirão melhorar seus agentes quando as pessoas começarem a usá-los.
Comentarios