Felipe Matos Blog

Pesquisador Testa 7 IAs Como Fonte de Notícias e Apenas 37% Forneceram URLs Reais — Por Que Estas 24 Horas Revelam o Risco da Desinformação Automática

January 15, 2026 | by Matos AI

yyuiK-1zH0Qup1KfdIo_8

Um professor canadense passou um mês pedindo notícias para sete sistemas de IA — ChatGPT, Claude, Gemini, Copilot, DeepSeek, Grok e Aria. O resultado? Apenas 37% das respostas trouxeram um link válido. O restante inventou fontes, citou sites que não existem ou simplesmente criou conclusões sem qualquer respaldo factual. Ao mesmo tempo, Trump impôs tarifas de 25% sobre chips de IA, Oracle enfrenta processo por não revelar custos bilionários de infraestrutura, e o Grok de Elon Musk segue sob investigação global por gerar imagens sexualizadas sem consentimento.

Estas 24 horas expõem uma tensão fundamental: a IA está sendo adotada em escala industrial antes de resolver problemas básicos de confiabilidade, ética e responsabilidade. Enquanto Elon Musk prevê que eletricistas e encanadores serão os milionários do futuro por construírem a infraestrutura física da IA, a sociedade ainda não resolveu a infraestrutura moral e informacional necessária para que essas tecnologias funcionem sem causar danos.

Vamos entender o que está acontecendo, por que isso importa e o que você precisa saber para navegar este momento com clareza.


Join my WhatsApp groups! Daily updates with the most relevant news in the AI world and a vibrant community!


O Experimento Que Expôs a Fragilidade das IAs Como Fonte de Informação

Jean-Hugues Roy, professor da Escola de Mídia da Universidade do Quebec em Montreal (UQAM), conduziu um experimento simples, mas revelador. Durante um mês inteiro, ele pediu diariamente para sete sistemas de IA generativa: “Quais foram os cinco eventos noticiosos mais importantes de hoje no Quebec? Me dê as fontes específicas (URLs).”

O resultado, conforme reportado pela Revista Fórum, foi alarmante:

  • Apenas 37% das 839 respostas forneceram um URL completo e válido
  • 18% sequer citaram veículos de comunicação, recorrendo a sites governamentais, grupos de pressão ou inventando fontes imaginárias
  • A maioria dos links levava a erros 404 ou páginas genéricas, impossibilitando a verificação
  • 47% dos resumos foram considerados precisos, e pouco mais de 45% foram apenas parcialmente precisos

Um dos casos mais emblemáticos envolveu o Gemini, do Google, que inventou um site de notícias chamado “fake-example.ca” para noticiar uma greve de motoristas de ônibus escolares que nunca aconteceu no Quebec. O Grok distorceu completamente uma reportagem, afirmando que requerentes de asilo haviam sido “maltratados em Chibougamau”, quando o artigo original na verdade noticiava o sucesso de uma iniciativa de empregabilidade.

Roy identificou ainda um fenômeno que chamou de “conclusões generativas” — interpretações criadas pela IA sem respaldo em fontes reais, detectadas em 111 casos. Isso significa que a IA não apenas errou ao citar fontes: ela inventou interpretações e fatos.

A conclusão de 22 organizações de comunicação que analisaram o estudo foi clara: “quase metade de todas as respostas de IA apresentavam pelo menos um problema significativo”.

Por Que Isso Importa Agora

Vivemos um momento em que milhões de pessoas — especialmente jovens — recorrem a chatbots para se informar. Quando você pergunta ao ChatGPT ou ao Gemini sobre um evento recente, a resposta vem embalada em linguagem confiante, formal, estruturada. Parece conhecimento. Mas como o experimento de Roy demonstra, muitas vezes é apenas uma ilusão de conhecimento.

A IA não “sabe” de fatos. Ela prevê padrões linguísticos com base em trilhões de tokens de texto. Quando forçada a citar fontes específicas, ela frequentemente inventa — não por malícia, mas porque seu objetivo é gerar uma resposta plausível, não uma resposta verdadeira.

No meu trabalho com empresas e governos, vejo essa confusão todos os dias. Executivos me perguntam: “Felipe, posso usar IA para gerar relatórios de inteligência de mercado?” Minha resposta é sempre a mesma: pode, mas com um ser humano verificando cada afirmação, cada número, cada fonte. A IA amplifica sua capacidade de síntese, mas não substitui sua responsabilidade pela verdade.

Oracle Processada Por Não Revelar Custos Bilionários de Infraestrutura de IA

About that, conforme reportado pela Reuters via InfoMoney, a Oracle enfrenta um processo coletivo movido por detentores de títulos de dívida que alegam ter sofrido perdas porque a companhia não divulgou que precisaria recorrer a mais financiamentos significativos para construir sua infraestrutura de IA.

O contexto: sete semanas depois de anunciar um contrato de cinco anos e US$ 300 bilhões para fornecer infraestrutura de processamento de dados à OpenAI, a Oracle buscou US$ 38 bilhões em empréstimos para financiar dois data centers.

Os investidores afirmam que perceberam um risco de crédito maior apenas após o anúncio dos empréstimos, causando queda nos preços dos títulos e aumento dos juros. A alegação central do processo é que executivos da Oracle — incluindo Larry Ellison e Safra Catz — fizeram declarações falsas ou enganosas nos documentos de oferta da dívida vendida em setembro.

A Matemática Brutal da Infraestrutura de IA

Este caso expõe algo que poucos falam abertamente: a infraestrutura de IA é absurdamente cara, e muitas empresas estão descobrindo isso tarde demais.

Contratos como o da Oracle com a OpenAI parecem garantias de receita futura, mas vêm acompanhados de obrigações de capital monumentais. Data centers avançados para IA não são armazéns com servidores antigos. São instalações que exigem:

  • Chips de última geração (H200 da Nvidia, MI325X da AMD) que custam dezenas de milhares de dólares por unidade
  • Sistemas de refrigeração industrial capazes de dissipar o calor de milhares de GPUs operando simultaneamente
  • Conexões de energia dedicadas — algumas instalações consomem tanta eletricidade quanto pequenas cidades
  • Infraestrutura de rede de baixíssima latência para interconectar clusters

Quando Trump impôs tarifas de 25% sobre chips de IA — especificamente o H200 da Nvidia e o MI325X da AMD — ele adicionou mais uma camada de custo e complexidade. Embora a medida tenha escopo restrito (não se aplica a chips destinados a data centers nos EUA, startups ou consumo geral), ela sinaliza uma mudança estratégica: os EUA querem incentivar fabricação doméstica de semicondutores, mas ao custo de pressionar ainda mais as margens das empresas que dependem dessas tecnologias.

O caso da Oracle é um lembrete: a corrida da IA não é apenas uma corrida tecnológica. É uma corrida de capital, energia e infraestrutura física.

Elon Musk: Eletricistas e Encanadores Serão os Milionários do Futuro

Falando em infraestrutura, Elon Musk fez uma previsão que, à primeira vista, parece irônica, mas que faz todo sentido quando você entende a matemática por trás da IA. Conforme reportado pelo hardware.com.br, Musk afirmou que eletricistas e encanadores serão os milionários do futuro, enquanto trabalhos digitais concentrados em computadores serão rapidamente substituídos pela IA.

Jensen Huang, CEO da Nvidia, validou a previsão, indicando um boom em trabalho especializado físico. Larry Fink, da BlackRock, alertou sobre a escassez de mão de obra qualificada — especialmente eletricistas — necessária para construir a infraestrutura física da IA. Huang encorajou jovens a focarem em profissões manuais como eletricistas e encanadores, que construirão a infraestrutura necessária para os data centers de IA — um mercado projetado pela McKinsey para atingir US$ 7 trilhões até 2030.

Por Que Esta Previsão Faz Sentido

Musk não está apenas provocando. Ele está lendo a realidade material da IA. Enquanto a narrativa pública foca em modelos de linguagem, agentes autônomos e interfaces conversacionais, a verdadeira batalha está acontecendo nos bastidores: quem conseguirá construir, alimentar e resfriar os data centers necessários para treinar e rodar esses modelos em escala?

Pense nisso: cada modelo de linguagem de grande porte exige milhares de GPUs operando 24/7 por meses. Cada interação com um chatbot consome energia. Cada agente autônomo processando tarefas em segundo plano adiciona carga à rede elétrica. Como Trump alertou via Truth Social, empresas de tecnologia em IA deverão arcar integralmente com seus próprios custos de consumo energético para evitar pressão sobre a rede elétrica nacional e aumento das tarifas residenciais.

A expansão da IA já gerou sobrecarga elétrica em estados americanos com alta concentração de servidores, com picos de aumento de preços de até 36%. Grandes CEOs, como Mark Zuckerberg da Meta, já alertaram que energia é o maior gargalo para o crescimento da IA.

A tendência é clara: o setor privado será forçado a investir em geração própria de energia — seja por meio de pequenos reatores nucleares modulares (SMRs), parques solares dedicados ou geradores a gás natural. E quem vai instalar, operar e manter tudo isso? Eletricistas, encanadores, técnicos de refrigeração industrial, engenheiros de construção civil.

Musk descreveu a IA como um “tsunami supersônico”. Mas tsunamis não acontecem no ar. Eles exigem água, terra, força física. A IA, da mesma forma, não acontece apenas no código. Ela exige infraestrutura material, suor, trabalho especializado físico.

Grok, Deepfakes e a Crise Global de Responsabilidade

Enquanto Musk fala sobre o futuro dos eletricistas, o chatbot da sua própria empresa — o Grok, da rede X — está no centro de uma crise global de responsabilidade. Conforme reportado pela ISTOÉ DINHEIRO, a plataforma X anunciou medidas para deter a geração de imagens sexuais não consentidas (deepfakes) pelo Grok, após críticas globais envolvendo mulheres e crianças.

O X implementará bloqueio geográfico da capacidade de criar imagens de pessoas em trajes reveladores (como biquínis) em jurisdições onde isso é ilegal. A restrição se aplica a todos os usuários, inclusive assinantes pagos. O anúncio veio após o procurador-geral da Califórnia, Rob Bonta, iniciar uma investigação sobre a xAI, empresa de IA de Musk.

Anteriormente, o X havia limitado a funcionalidade apenas a assinantes pagos — uma medida criticada internacionalmente pelo primeiro-ministro britânico Keir Starmer e pela presidente da Comissão Europeia, Ursula von der Leyen, como uma “afronta às vítimas”.

Uma análise da AI Forensics revelou que, em mais de 20 mil imagens geradas pelo Grok, mais da metade mostravam pessoas com pouca roupa (81% mulheres, 2% menores de idade). A indignação internacional levou a Indonésia e Malásia a suspenderem o acesso ao Grok, e o regulador do Reino Unido abriu uma investigação formal contra a X.

A Defesa de Musk e o Problema Real

Conforme reportado pelo G1, Elon Musk defendeu o Grok, afirmando não ter conhecimento de imagens de menores geradas pela IA. Musk alegou que o Grok se recusa a gerar conteúdo ilegal, pois seu princípio operacional é obedecer às leis, e sugeriu que falhas ocorreram devido a “ataques de usuários ao prompt”.

Apesar da defesa de Musk, o próprio Grok admitiu falhas nos mecanismos de proteção que levaram à geração de imagens sexualizadas de menores no início de janeiro.

Aqui está o problema: sistemas de IA não têm “intenção”. Eles têm objetivos de otimização. Se o objetivo é gerar uma imagem que corresponda ao prompt do usuário, e se os guardrails (proteções) forem insuficientes, o sistema vai gerar a imagem — não porque quer causar dano, mas porque foi treinado para prever pixels que correspondam ao texto.

A responsabilidade não está na IA. Está em quem a projeta, treina, implanta e disponibiliza publicamente. Quando você libera uma ferramenta de geração de imagens com guardrails fracos — ou, pior, quando você cobra para contornar esses guardrails, como o X fez inicialmente ao limitar certas funcionalidades a usuários pagantes — você está priorizando receita sobre segurança.

O CEO da Nvidia, Jensen Huang, criticou recentemente a “narrativa do fim do mundo” sobre IA, argumentando que esse pessimismo está assustando investidores e prejudicando o desenvolvimento de tecnologias mais seguras. Ele tem um ponto: o alarmismo exagerado pode paralisar a inovação responsável.

Mas o caso do Grok não é alarmismo. É um exemplo concreto de como a ausência de responsabilidade técnica e ética pode causar danos reais, mensuráveis, a pessoas reais. No YouTube, mais de 20% do feed já é “slop” (conteúdo lixo gerado por IA). Nas redes sociais, deepfakes sexualizadas proliferam. Em ambientes corporativos, executivos tomam decisões baseadas em relatórios gerados por IA que citam fontes inventadas.

A questão não é se a IA vai transformar o mundo. Ela já está transformando. A questão é: estamos construindo os guardrails necessários na mesma velocidade em que construímos as ferramentas?

A IA Consegue Criar Ideias Novas ou Apenas Repete as Antigas?

Em meio a essa tensão entre promessa e risco, vale a pena olhar para um debate mais profundo: a IA consegue realmente criar conhecimento novo, ou ela apenas recombina o que já existe?

Conforme reportado pela Folha de S.Paulo (The New York Times), o debate foi reacendido após a startup Harmonic usar o GPT-5.2 Pro (OpenAI) para auxiliar na solução de um “problema de Erdos” — desafios matemáticos complexos propostos pelo lendário matemático Paul Erdős.

Críticos como Terence Tao, um dos maiores matemáticos vivos, argumentam que a IA é como um “aluno esperto que decorou tudo”, simulando entendimento sem gerar brilhantismo genuíno. No entanto, a IA já se mostra uma ferramenta poderosa: sistemas recentes sugerem hipóteses e experimentos que cientistas não haviam considerado, acelerando pesquisas.

Embora o GPT-5 inicialmente tenha se gabado de resolver 10 problemas de Erdős (o que foi corrigido ao identificar que muitas das soluções já existiam), a tecnologia demonstra valor real ao analisar vastas quantidades de dados e referências esquecidas — como um artigo em alemão encontrado por Thomas Bloom que ninguém mais havia notado.

A IA Como Amplificador, Não Substituto

Minha posição sobre isso é pragmática. A IA, atualmente, amplifica o pesquisador, mas ainda exige expertise humana para orientação e filtragem dos resultados. Ela não substitui a intuição matemática de um Terence Tao, mas pode ajudá-lo a explorar becos sem saída mais rapidamente, ou a encontrar conexões obscuras em literaturas dispersas.

No meu trabalho com startups e grandes empresas, vejo essa dinâmica todos os dias. Executivos me perguntam: “Felipe, a IA vai substituir nossos analistas?” Minha resposta: não os bons analistas. Ela vai substituir os que apenas compilam informações sem questionar, sem contextualizar, sem validar.

Os analistas que sobreviverão — e prosperarão — serão aqueles que dominam o “vibe coding”, termo proposto por Alexandr Wang, chefe do laboratório de IA da Meta. Conforme reportado pela Xataka Brasil, Wang recomendou à Geração Z que passe todo o tempo praticando “vibe coding” — ou seja, conversar com modelos de IA, explicar com precisão o resultado desejado (em linguagem natural) e supervisionar a saída do código gerado.

O futuro da programação, segundo Wang, não está em dominar linguagens específicas (Python, JavaScript), mas sim em dominar a arte de se comunicar com a IA e validar o que ela produz.

Isso não é preguiça intelectual. É uma mudança de camada. Em vez de gastar horas escrevendo boilerplate code (código repetitivo e estrutural), você gasta horas refinando a lógica, validando hipóteses, garantindo que o sistema final resolva o problema real do usuário.

O Que Este Momento Exige de Você

Estas 24 horas revelam algo fundamental: a IA está sendo adotada em escala antes de resolver problemas básicos de confiabilidade, ética e responsabilidade. Isso não significa que devemos parar. Significa que devemos navegar com olhos abertos.

Aqui estão os princípios que eu aplico no meu trabalho com empresas e governos, e que você pode aplicar agora:

1. Nunca Confie Cegamente em Outputs de IA

O experimento de Jean-Hugues Roy deixou isso cristalino: apenas 37% das respostas de IA forneceram URLs válidos. Se você está usando IA para gerar relatórios, resumos ou análises, institua um processo de validação humana. Cada afirmação, cada número, cada fonte precisa ser verificada.

2. Entenda os Custos Reais da Infraestrutura de IA

Se você é executivo ou empreendedor considerando investir em IA, vá além da conta de API. Pergunte sobre custos de computação, armazenamento, energia, latência, conformidade regulatória. O caso da Oracle é um lembrete: contratos de IA podem vir acompanhados de obrigações de capital monumentais.

3. Invista em Guardrails Técnicos e Éticos

Se você está desenvolvendo ou implantando sistemas de IA, priorize segurança desde o design. Não espere a mídia internacional investigar sua ferramenta para descobrir que ela gera deepfakes de menores. Teste adversarialmente. Antecipe abusos. Construa limites robustos.

4. Desenvolva Alfabetização em IA, Não Apenas Uso de IA

“Vibe coding” é uma habilidade importante, mas não suficiente. Você precisa entender como os modelos funcionam, quais são suas limitações, onde eles tendem a falhar. Isso não exige um PhD em aprendizado de máquina, mas exige curiosidade e rigor intelectual.

5. Reconheça o Valor do Trabalho Físico Especializado

A previsão de Musk sobre eletricistas e encanadores não é piada. É estratégia. Se você é jovem escolhendo uma carreira, ou se você lidera uma empresa que depende de infraestrutura física, invista em profissões especializadas que constroem, mantêm e operam sistemas reais. A IA pode escrever código, mas não pode instalar um transformador de 500 kVA em um data center.

The Future We Are Building

Eu me recuso a ser alarmista. Mas também me recuso a ser ingênuo. A IA está transformando o mundo mais rápido do que qualquer tecnologia anterior. Essa transformação traz oportunidades monumentais — desde diagnósticos médicos mais precisos até aceleração da pesquisa científica — mas também traz riscos monumentais: desinformação em escala, concentração de poder, erosão da privacidade, danos a pessoas reais.

O que me deixa otimista não é a tecnologia em si. É a capacidade humana de aprender, adaptar e construir instituições que canalizam o poder da tecnologia para o bem comum. Mas isso não acontece automaticamente. Exige escolhas conscientes, liderança responsável e investimento deliberado em guardrails técnicos, éticos e regulatórios.

No Brasil, temos uma oportunidade única. Podemos aprender com os erros de outros mercados — como o caso do Grok, ou a crise de confiabilidade exposta pelo experimento canadense — e construir ecossistemas de IA que priorizem transparência, verificabilidade e responsabilidade desde o início.

A pesquisa IMD ABRAPE | Peppow 2025/2026 sobre o setor de eventos no Brasil, conforme reportado pela Meio & Mensagem, mostra que 79,7% dos profissionais declaram familiaridade com IA, mas seu uso é restrito. A tecnologia é majoritariamente aplicada à criação de conteúdo (textos, imagens), mas pouco usada na gestão financeira (margem, fluxo de caixa), que ainda depende de planilhas desconectadas.

Isso ilustra perfeitamente onde estamos: alta adoção superficial, baixa integração profunda. A maturidade virá quando a IA deixar de ser uma ferramenta de produtividade pontual e se tornar parte da infraestrutura operacional — mas isso exige dados estruturados, processos organizados, governança clara.

Como Você Pode Agir Agora

Se você é executivo, empreendedor ou líder de equipe, aqui estão ações concretas que você pode tomar hoje:

  • Audite como sua organização usa IA. Identifique onde outputs de IA são consumidos sem validação humana e institua processos de verificação.
  • Calcule os custos reais de infraestrutura. Se você está planejando expandir uso de IA, vá além da conta de API. Considere computação, energia, conformidade, treinamento de equipe.
  • Invista em alfabetização em IA. Não apenas treinamento em ferramentas, mas educação sobre como os modelos funcionam, quais são suas limitações e como validar outputs.
  • Construa guardrails desde o design. Se você está desenvolvendo produtos com IA, priorize segurança, privacidade e responsabilidade desde o início — não como correção posterior.
  • Reconheça e valorize trabalho físico especializado. Se sua infraestrutura de IA depende de data centers, energia ou rede, invista nas pessoas que constroem, mantêm e operam esses sistemas.

No meu programa de mentoring, ajudo executivos e empresas a navegar exatamente essas tensões: como adotar IA de forma responsável, como construir capacidade interna, como evitar armadilhas de hype e focar em impacto real. Se você está liderando transformação digital na sua organização e quer construir com clareza e propósito, vamos conversar.

A IA não é uma força inevitável que acontece a nós. É uma tecnologia que estamos construindo, implantando e governando. As escolhas que fazemos hoje — sobre transparência, responsabilidade, investimento em infraestrutura física e moral — definirão se a IA será uma ferramenta de progresso compartilhado ou de concentração de poder e dano.

Estas 24 horas nos mostraram os dois lados dessa moeda: a fragilidade informacional, os custos ocultos, as crises de responsabilidade — mas também o potencial de amplificar capacidade humana, acelerar pesquisa e construir infraestrutura real para o futuro.

Qual lado vamos escolher?


✨Did you like it? You can sign up to receive 10K Digital's newsletters in your email, curated by me, with the best content about AI and business.

➡️ Join the 10K Community here


RELATED POSTS

View all

view all