Análise de tecnologias emergentes

Principais dúvidas sobre IA e tecnologias emergentes

Os especialistas do Gartner compartilham respostas breves a perguntas dos clientes sobre tecnologias emergentes.

Junho de 2025

O que é inteligência artificial geral (AGI) e qual é a diferença em relação à IA limitada?

De acordo com o Gartner, inteligência artificial geral é a capacidade (atualmente hipotética) de uma máquina se equiparar à capacidade humana ou superá-la em todas as tarefas cognitivas. Além disso, a AGI será capaz de aprender e se adaptar de forma autônoma para cumprir metas novas ou previamente estabelecidas em uma ampla gama de ambientes físicos e virtuais.

A IA limitada foi desenvolvida para desempenhar tarefas específicas, como reconhecer imagens, traduzir idiomas ou jogar xadrez, ou para solucionar determinados problemas. Os sistemas de IA limitada dependem da aprendizagem supervisionada e estão restritos aos dados com base nos quais foram treinados. Eles não são capazes de aprender nem se adaptar além de sua programação e seu treinamento específicos. Portanto, são menos versáteis em situações desconhecidas.

No momento, a AGI é uma hipótese. Nenhum sistema atual dispõe de recursos de AGI. Embora a busca pela AGI geralmente esteja associada a metas ambiciosas na pesquisa e no desenvolvimento de IA, a tecnologia suscita questões éticas, sociais e regulatórias relevantes. Para o Gartner, a AGI não será uma realidade nos próximos 10 anos. No entanto, haverá avanços em relação à AGI e cada um deles poderá gerar novos tipos de valor comercial

A AGI não deve imitar a inteligência humana. Mas, sim, agregar novos tipos de valor. A AGI também não deve se tornar uma superinteligência controlada por uma única entidade, pois a tecnologia deve sempre apoiar as pessoas em seus objetivos. Caso se torne realidade, a AGI será mais eficiente ao conectar inúmeros agentes de IA limitada para criar um tipo sinérgico de IA.

Saiba mais sobre como o Gartner pode ajudar

Preencha o formulário para entrar em contato com o Gartner e descobrir como analisamos tecnologias emergentes, como a IA, e oferecemos ferramentas para que seja possível selecioná-las, adquiri-las e implementá-las.

Ao clicar no botão "Continuar", você concorda com os Termos de Uso Gartner e a Política de Privacidade.

Qual é o nível de maturidade e a diretriz para adoção da IA agêntica?

Por Danielle Casey

Atualmente, apenas 6% das organizações de infraestrutura e operações (I&O) alcançaram o nível de maturidade mais elevado necessário para a adoção bem-sucedida da IA agêntica. Na maioria das organizações, a IA agêntica se restringe a implantações isoladas que fornecem alguns benefícios, mas não são transformadores. 

A diretriz para adoção da IA agêntica exige uma abordagem sistemática e multifacetada:

  • Avaliação e prontidão: comece avaliando o estado atual de sua organização e identificando lacunas na infraestrutura e nos modelos operacionais que poderão atrapalhar a adoção da IA agêntica. É preciso analisar a qualidade dos dados, a governança e os recursos tecnológicos existentes;

  • Visão estratégica: desenvolva uma visão para a adoção da IA agêntica que identifica limitações na tomada de decisões e considera como otimizá-las por meio dessa tecnologia. Essa visão deve se alinhar com o modelo operacional de TI geral da organização;

  • Investimento em infraestrutura: priorize investimentos futuros para assegurar que a nova infraestrutura seja compatível com a IA agêntica. É necessário adotar infraestruturas e plataformas inteligentes que possam respaldar os recursos autônomos dos agentes de IA;

  • Governança e gestão: desenvolva um modelo de governança que inclua um centro de excelência (CoE) liderado por profissionais de TI, tecnólogos e líderes de negócios, para supervisionar a implementação e a expansão das iniciativas de IA agêntica; 

  • Melhoria contínua: reavalie sua maturidade relacionada à IA anualmente e adapte as estratégias considerando a evolução das tecnologias e as demandas do mercado;

  • Implementação e iteração: após obter financiamento e elaborar um plano de implementação claro, coloque as estratégias em prática gradualmente.

Para expandir a adoção da IA nos próximos três anos, devo me planejar para qual investimento na infraestrutura de unidade de processamento gráfico (GPU)?

Considere uma estratégia abrangente de investimento com cinco componentes-chave:

1. Planejamento da infraestrutura: invista em infraestrutura como serviço (IaaS) otimizada para IA, que deverá crescer exponencialmente nos próximos três anos. Essa infraestrutura deverá apoiar cargas de trabalho de IA de maneira eficiente, contando com a escalabilidade da nuvem e modelos de preço pré-pagos. Implemente arquiteturas de supercomputação de IA que integrem aceleradores de IA, armazenamento otimizado e redes de alta velocidade. Esse tipo de arquitetura é fundamental para processar o paralelismo em extrema escala que o treinamento de modelos de IA generativa exige;

2. Aquisição e gestão de GPUs: utilize a programação dinâmica da carga de trabalho e o compartilhamento de GPUs, entre outros métodos, para maximizar os recursos de GPUs. Essa estratégia é muito importante, considerando-se as limitações contínuas no fornecimento de GPUs e o aumento da demanda por cargas de trabalho de inferência. Além disso, invista em padrões e ecossistemas abertos para reduzir os custos da migração de GPUs convencionais para processadores de IA otimizados para nuvem;

3. Aprimoramento de redes e ampliação do armazenamento: desenvolva redes dedicadas para cargas de trabalho de IA, assegurando recursos de rede de baixa latência e sem perdas. Para conectar GPUs com eficácia, utilize InfiniBand ou ethernet de alta velocidade. Implemente soluções de armazenamento compatíveis com alto rendimento e baixa latência, como sistemas de arquivos paralelos e armazenamento de objetos. Esses sistemas devem contar com capacidade para processar os grandes conjuntos de dados exigidos para treinamento e inferência de IA;

4. Gestão de custos e eficiência: integre ferramentas de monitoramento para monitorar o uso de GPUs e o consumo de energia, o que possibilita aprimorar a gestão dos custos operacionais de TI e dos ganhos de eficiência. Como as cargas de trabalho de IA podem aumentar muito o consumo de energia, considere investir em tecnologias avançadas de resfriamento, como resfriamento por imersão, para gerenciar a alta densidade energética da infraestrutura computacional de IA;

5. Treinamento e desenvolvimento de habilidades: desenvolva programas de treinamento para equipes de I&O com o objetivo de aprimorar suas habilidades na gestão da infraestrutura de inteligência artificial, incluindo engenharia de prompt e design de data center de IA.

O que é essencial ao estabelecer um centro de excelência em IA?

Estabelecer um centro de excelência em IA é uma iniciativa estratégica que pode aprimorar expressivamente a capacidade de uma organização utilizar as tecnologias de IA com eficácia. Considere os aspectos e as etapas-chave a seguir:

  • Obtenha suporte executivo: conte com um patrocinador executivo que estará diretamente envolvido nos projetos do CoE e ajudará a lidar com os desafios organizacionais. Ele também deverá difundir o valor do CoE para outros líderes de negócios;

  • Defina os objetivos e o escopo do CoE: obtenha colaboração para criar um diagrama detalhado que inclua metas, princípios, funções, métricas e procedimentos de comunicação, além de alinhar o CoE com as prioridades organizacionais. Estabeleça, ainda, métricas de sucesso que sejam específicas, mensuráveis e relevantes para a liderança;

  • Forme uma equipe diversa: incentive a mentalidade generalista e priorize outros aspectos além da tecnologia. Inclua pessoas que apresentem habilidades técnicas e interpessoais, como arquitetos de IA, cientistas de dados e especialistas em gestão de mudanças, para gerenciar as atividades designadas de maneira eficaz. Considere utilizar consultores nos projetos iniciais para preencher lacunas de habilidades e viabilizar a transferência de conhecimento;

  • Selecione métricas impactantes: elas devem abranger contribuições, processos e resultados para oferecer uma avaliação abrangente da eficácia, refletir as necessidades organizacionais e vincular as métricas impulsionadas pela tecnologia aos resultados de negócios;

  • Defina a estrutura organizacional ideal: escolha um modelo que possa acompanhar a evolução da empresa. Os modelos comuns incluem estruturadas centralizadas, descentralizadas e federadas;

  • Promova uma cultura de melhoria contínua: implemente programas de treinamento e desenvolvimento para aprimorar as habilidades dos funcionários do CoE. Crie, também, programas de reconhecimento para celebrar os sucessos e incentivar o engajamento;

  • Aproveite recursos e ferramentas que já existem: faça uma avaliação completa do cenário de TI existente para identificar ferramentas que podem ser aproveitadas para iniciativas de IA. Firme parcerias com fornecedores de tecnologia para otimizar os recursos do CoE;

  • Crie plataformas de conhecimento (inovação como serviço): reúna guias, manuais técnicos, documentos com conceitos básicos e casos de uso relevantes para assegurar o acesso em toda a empresa;

  • Monitore e avalie a eficácia: realize pesquisas para obter insights sobre o impacto e as áreas de melhoria do CoE. Priorize medidas além ou resultantes do aumento da produtividade e das eficiências. Relate as métricas e histórias de sucesso aos líderes seniores para contar com suporte contínuo para o CoE.

Posso contar com robôs habilitados por IA para desempenhar funções essenciais com segurança?

Há muita desconfiança em relação à IA por causa do efeito “caixa-preta” – ou seja, vemos os resultados, mas não compreendemos como eles foram alcançados. A falta da gestão da confiança, risco e segurança de IA (AI TRiSM) é agravada pela ausência de visibilidade dos dados subjacentes que os modelos de IA utilizaram para gerar os resultados. Em última análise, os robôs habilitados por IA precisam que os humanos assumam a responsabilidade para que possam desempenhar suas funções de maneira segura, protegida, justa e socialmente relevante.

Ao avaliar robôs habilitados por IA ou outros casos de uso de IA, o Gartner recomenda:

  • Colaborar com partes interessadas apropriadas, como líderes de arquitetura empresarial, TI, RH, jurídico e análise de dados, para aproveitar o potencial de plataformas aprimoradas de governança de IA ética. Coloque em prática os princípios fundamentais de ética e incorpore-os à estratégia de IA mais ampla; 

  • Abordar dilemas éticos relacionados ao uso e desenvolvimento de sistemas de IA. Inclua um especialista em ética de IA à equipe principal e/ou forme um conselho consultivo de ética digital para validar resultados gerados pela tecnologia que, do contrário, seriam ambíguos. Foque também em aprimorar sua precisão contextual;

  • Monitorar continuamente o comportamento dos sistemas de IA ao implementar um programa de testes de IA abrangente, alinhado a princípios éticos básicos para evitar eventuais repercussões negativas, como consequências jurídicas.

Como as interrupções na nuvem destacam a necessidade de tecnologias emergentes que aumentem a resiliência?

By: Nathan Hill

A interrupção do Google Cloud em junho de 2025 reforça que mesmo os provedores de nuvem mais avançados não estão imunes a falhas. A adoção de um provedor de nuvem não elimina a necessidade de um planejamento aprofundado de BCP/DR, nem dispensa a avaliação criteriosa da resiliência e da arquitetura do fornecedor escolhido.

Tecnologias emergentes, como redes multinuvem otimizadas, observabilidade para ambientes de nuvem e remediação autônoma, estão ajudando as organizações a reduzir a dependência de um único provedor e a responder mais rapidamente a incidentes.

À medida que o uso de nuvem se intensifica, líderes de I&O e CIOs devem priorizar a resiliência como um resultado estratégico, avaliando tecnologias que fortaleçam a disponibilidade, a visibilidade e o isolamento de falhas em ambientes complexos de nuvem híbrida.

Saiba mais em nosso webinar: guia para CIOs e líderes de I&O: como tomar decisões entre estratégias de nuvem única e multinuvem.

Abril de 2025

O que é Manus AI? É possível usá-lo para fins empresariais?

Por Daniel Sun 

Desenvolvido pela startup chinesa Monica.im e lançado em 6 de março de 2025, o Manus AI é um assistente de modelo de linguagem de grande porte (LLM) de uso geral com o potencial de evoluir para um agente de IA de uso geral. É um avanço na tecnologia de IA, centrado no aprimoramento da colaboração humano-máquina e na automação de tarefas de aplicativos de IA. 

As principais informações sobre o Manus AI para CIOs

  • Capacidades: o Manus AI oferece uma ampla gama de funcionalidades, como automação de tarefas, processamento de dados, análises, tomada de decisões e geração de conteúdo. Além disso, o Manus AI pode aprender com interações e, a partir delas, adaptar suas ações – como, por exemplo, ao iniciar tarefas de maneira autônoma ou alterar planos para um novo contexto;

  • Tecnologia: o Manus AI utiliza LLMs existentes, incluindo o Claude da Anthropic e o Qwen do Alibaba, empregando uma arquitetura multiagente. Dessa forma, o modelo pode usar diversas ferramentas e softwares de código aberto, aprimorando suas capacidades na execução de tarefas e na interação com APIs;

  • Interface de usuário: um chatbot com experiência de usuário simplificada torna interação dos usuários com a IA acessível, enquanto o modelo gerencia tarefas em segundo plano;

  • Aplicações: os possíveis casos de uso do Manus AI para os negócios incluem simplificação de processos complexos, ampliação do engajamento dos clientes por meio de respostas automatizadas e auxílio a tarefas, como análises financeiras;

  • Desafios: a estabilidade operacional pode ser problemática, pois o Manus AI depende de sistemas e APIs terceirizados, o que representaria um risco para ambientes corporativos. Também há preocupações regulatórias e éticas. Dentre elas, questões sobre prestação de contas e responsabilidade quando a IA toma decisões críticas, bem como incerteza sobre suas fontes de dados e seus mecanismos operacionais. Seu preço não está definido com clareza.

O que são os SLMs? Qual é a diferença entre SLMs e LLMs?

Por George Brocklehurst

Os modelos de linguagem pequenos (SLMs) são uma alternativa mais eficiente e econômica aos modelos de linguagem de grande porte (LLMs). 

Em termos de tamanho, os SLMs contêm 10 bilhões de parâmetros. Quando esses modelos são adaptados para tarefas e domínios específicos, é possível atestar sua potência. Como eles são menores, é mais fácil aperfeiçoá-los e implantá-los em comparação aos LLMs.

As vantagens específicas dos SLMs

  • Relação custo-benefício: o custo do aperfeiçoamento e da manutenção dos SLMs é relativamente baixo, tornando-os adequados para organizações com restrições orçamentárias;

  • Eficiência: eles exigem um volume muito menor de recursos computacionais, possibilitando a implantação em dispositivos, no local ou em ambientes de nuvem privada, o que aumenta a privacidade e a segurança dos dados;

  • Especialização em tarefas: quando eles são devidamente alinhados a um caso de uso específico e aperfeiçoados para tal implementação, podem superar modelos maiores. Esse potencial torna-os úteis em cenários que dispensam capacidades de linguagem mais amplas.

Os casos de uso para modelos de linguagem pequenos

  • Os SLMs são ideais para aplicações que envolvem grandes volumes de interações com usuários, requisitos de baixa latência e dados sigilosos. Eles podem ser utilizados com eficácia em chatbots de documentos, aplicativos de atendimento ao cliente e modelos de linguagem organizacional;

  • Também podem ser integrados a sistemas multimodelos especializados em tarefas que funcionam em conjunto para abordar desafios complexos de IA.

SLMs vs. LLMs

Embora os SLMs não apresentem as mesmas capacidades de raciocínio e geração de linguagem genérica dos LLMs, eles se destacam em aplicações específicas em que seu tamanho compacto e requisitos de menos recursos são uma vantagem considerável. 

Os SLMs são uma abordagem prática e eficiente para implementar soluções de IA generativa, principalmente para organizações que precisam de recursos especializados sem a sobrecarga de modelos de grande porte. Por isso, é esperado que a adoção dos SLMs cresça. De acordo com a projeção do Gartner, até 2026 mais consultas e solicitações de IA generativa serão processadas em dispositivos do que na nuvem, habilitando assistentes inteligentes e outros aplicativos proativos.

Como a IA está transformando o cenário dos dispositivos de borda?

Por Christian Stephan 

Os dispositivos de borda modernos estão se tornando cada vez mais capazes de executar algoritmos complexos. Ao mesmo tempo, a IA está sendo reformulada e adaptada aos recursos desses dispositivos, viabilizando aplicações mais inteligentes, eficientes e autônomas. Conforme os modelos de IA evoluem, a inferência em dispositivos com capacidade computacional limitada será cada vez mais eficiente. Além disso, podemos esperar uma interação ainda maior, impulsionando inovações em diversos setores.

Os principais impactos da IA sobre os dispositivos de borda

  • Processamento em tempo real: a IA permite que os dispositivos de borda processem e analisem dados localmente em tempo real, reduzindo a latência e o uso de largura de banda, além de eliminar a dependência da infraestrutura de rede. Essa capacidade é fundamental para aplicações que exigem tomada de decisões imediatas e processos robustos, como veículos autônomos e automação industrial;

  • Privacidade e segurança: ao computar dados localmente, a IA ajuda a responder a preocupações relacionadas à privacidade, eliminando a necessidade de transmitir informações sigilosas para a nuvem ao processá-las ao longo do tempo de execução sem armazenar dados brutos. Tal recurso é importante especificamente para processar informações pessoais, como biometria. Também é importante para outras indústrias com alto número de regulamentações, que se preocupam com a soberania de dados;

  • Integração com IoT: os dispositivos de borda estão cada vez mais integrados a malhas da Internet das Coisas (IoT), permitindo operações mais inteligentes e autônomas. A integração da IA à borda possibilita que os dispositivos aprendam com o ambiente e aprimorem seu desempenho ao longo do tempo, resultando em operações mais eficientes e experiências de usuário otimizadas;

  • Uso de técnicas avançadas: técnicas como TinyML, aprendizado por transferência e aprendizado federado, estão sendo utilizadas para otimizar o treinamento de modelos para dispositivos de borda. Esses avanços permitem que os dispositivos de borda desempenhem tarefas de aprendizado de máquina sem necessidade de grandes recursos computacionais;

  • Relação custo-benefício: ao reduzir a necessidade de transmissão de dados para sistemas centralizados, a edge AI pode diminuir os custos operacionais a longo prazo e, ao mesmo tempo, aumentar as despesas de capital inicialmente. Trata-se de uma vantagem relevante para aplicações que processam grandes volumes de dados, mas precisam transferir apenas um resumo federado ou agregado. Em comparação ao processamento de todas as informações na nuvem, os requisitos de largura de banda e os custos associados são reduzidos;

  • Escalabilidade e flexibilidade: a IA amplia a escalabilidade das soluções de borda ao viabilizar o processamento e a tomada de decisões distribuídos. É possível aplicar novos nós na borda sem aumentar expressivamente a demanda pela expansão das estruturas centrais de TI. Essa flexibilidade é fundamental para se adaptar a vários casos de uso em diferentes indústrias, de cidades inteligentes à assistência médica;

  • Eficiência energética: processar dados diretamente no dispositivo de borda reduz drasticamente o consumo geral de energia de toda a infraestrutura de rede, minimizando o tráfego desnecessário ou eliminando etapas de processamento adicionais, como algoritmos de proteção para dados brutos sigilosos;

  • Infraestrutura flexível: os dispositivos de borda habilitados por IA podem integrar estruturas modulares maiores para fornecer funcionalidades avançadas por meio de integrações cloud-to-edge e edge-to-cloud. Essa opção possibilita a sincronização com orquestrações maiores, mantendo a execução local.

No contexto empresarial, qual é a diferença entre modelos de IA para domínios específicos e LLMs genéricos?

Por Tsuneo Fujiwara

Os modelos de IA para domínios específicos (DSAMs) e os modelos LLMs genéricos têm propósitos diferentes e características específicas, tornando-os apropriados para diversas aplicações empresariais. Os LLMs são desenvolvidos para uso em todas as classes de tarefas, dificuldades e problemas, independentemente do domínio. Os DSAMs, por sua vez, são criados para abordar dificuldades em determinada indústria, função de negócios ou classe de problema, a exemplo da otimização de recursos. Portanto, a metodologia de treinamento utilizada e as vantagens de cada modelo serão distintas.

As principais diferenças entre modelos de IA para domínios específicos e LLMs genéricos

Finalidade e especialização

  • DSAMs: adaptados para indústrias, funções de negócios ou tarefas específicas e otimizados para entender e gerar conteúdo relevante para determinados domínios, como os setores financeiro, jurídico ou da saúde, fornecendo precisão, confiabilidade e compreensão contextual aprimoradas;

  • LLMs genéricos: desenvolvidos para processar uma ampla gama de tarefas em vários domínios. Eles se destacam na compreensão e na geração de linguagem geral.

Dados de treinamento

  • DSAMs: em geral, aperfeiçoados a partir de conjuntos de dados específicos para seu domínio-alvo, ajudando-os a aprender as nuances e terminologias relevantes para tal campo. Essa metodologia reduz a necessidade de engenharia de prompt extensa e aprimora o desempenho do modelo em determinadas tarefas;

  • LLMs genéricos: treinados a partir de grandes volumes de dados de texto não rotulados de diversas fontes, ampliando sua capacidade.

Eficiência de recursos e custo-benefício

  • DSAMs: costumam ser economicamente mais vantajosos para as empresas, pois exigem menos capacidade computacional e dados para aperfeiçoamento em comparação aos LLMs genéricos. Eles são mais fáceis de implementar e manter, principalmente em ambientes com recursos limitados;

  • LLMs genéricos: podem exigir muitos recursos para implantação e aperfeiçoamento, necessitando de mais parâmetros e energia, além do custo mais alto para alcançar o mesmo nível de desempenho dos DSAMs. 

Casos de uso

  • DSAMs: ideais para aplicações que exigem conhecimento aprofundado de um campo específico, como diagnósticos médicos, análise de documentos jurídicos ou projeções financeiras. Eles podem fornecer resultados mais relevantes e precisos para essas tarefas especializadas;

  • LLMs genéricos: apropriados para uma ampla gama de tarefas gerais, como criação de conteúdo, resumo e recuperação de informações para agentes de conversação.

O que é o protocolo de contexto de modelo (MCP) e como ele habilita agentes de IA?

Por Gary Olliffe

Para que agentes de IA assumam tarefas mais complexas nos fluxos de trabalho e processos, à medida que as empresas buscam implementá-los, eles precisarão acessar uma série de dados, informações e recursos funcionais. O MCP é uma interface de padrão aberto que estabelece uma maneira coesa e flexível para conectar aplicativos e agentes de IA a esses recursos. 

Seja qual for o modelo ou aplicativo de IA, o MCP define como ele acessa e interage com outros recursos, como repositórios de informações, APIs e demais aplicativos. À medida que os agentes de IA deixam de ser assistentes isolados e se consolidam como sistemas colaborativos, eles são cada vez mais utilizados para automatizar operações, aumentar a produtividade e fornecer suporte para processos de negócios de ponta a ponta que exigem integração flexível.

Sem o MCP, cada modelo ou plataforma de aplicativo de IA definirá sua própria abordagem para estabelecer conexão com recursos externos. Com o MCP, as organizações poderão compartilhar recursos entre diversos casos de uso de IA de maneira coesa e gerenciável, reduzindo a duplicação. Além disso, os desenvolvedores e usuários poderão conectar seus aplicativos de IA aos recursos mais apropriados para uma tarefa ou um caso de uso. 

Por exemplo, no desenvolvimento de software, os agentes apoiarão tarefas como modernização de códigos, automação de testes e resolução de problemas, assegurando que as ferramentas e o contexto corretos estejam disponíveis em todas as etapas, o que é fundamental para eficiência e precisão. O MCP fornece um mecanismo padrão para integrar esses recursos a aplicativos de IA prontos para uso ou personalizados.

Conforme os agentes de IA se tornam mais autônomos e interdependentes, os executivos de TI devem avaliar se suas arquiteturas de IA foram projetadas para respaldar a integração flexível com contexto compartilhável. O MCP é uma estrutura nova e precisará amadurecer rápido para atender às necessidades empresariais. No entanto, sua popularidade crescente ressalta a demanda por uma interface padronizada para aplicativos e agentes de IA baseados em LLMs para se conectar ao contexto externo.

Promova um desempenho mais sólido em suas principais prioridades estratégicas.

TOP