Blog Felipe Matos

Vídeos Falsos de IA Inundam as Redes Enquanto Brasil Gasta R$ 518 Mil em Curso Europeu — Por Que Estas 24 Horas Revelam a Urgência da Alfabetização Digital Real

diciembre 28, 2025 | by Matos AI

MESH81I3O55ruaB342XXV_80df592a57d54174aa530bbaf044ddcc

As últimas 24 horas trouxeram um contraste brutal que expõe o momento mais crítico da inteligência artificial: enquanto vídeos gerados por IA confundem milhões de pessoas sobre o que é real nas redes sociais, o Brasil investe meio milhão de reais para levar desembargadores à Itália para aprender sobre a tecnologia. Esse paradoxo entre desinformação massiva e capacitação elitizada revela uma verdade incômoda sobre onde estamos na jornada da IA.

A pergunta que não quer calar: estamos investindo na alfabetização digital das pessoas certas?

A Inundação de Deepfakes Que Ninguém Consegue Mais Identificar

Segundo reportagem publicada pelo El globo (via The New York Times), a proliferação de vídeos gerados por IA nas redes sociais atingiu um ponto crítico. Um exemplo emblemático aconteceu no TikTok em outubro de 2025: um vídeo completamente falso simulava uma entrevista sobre a venda de benefícios de alimentação. As mulheres, a conversa, tudo foi gerado pelo aplicativo Sora da OpenAI.


¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.


O mais perturbador? A maioria dos espectadores acreditou que era real. Nos comentários, pessoas reagiram com ataques racistas explícitos e críticas virulentas a programas de assistência governamental — exatamente no momento em que Donald Trump debatia cortes no programa SNAP nos EUA.

Trabalho com empresas e governos há anos ajudando a implementar IA de forma responsável, e posso afirmar: esse tipo de manipulação em escala não é ficção científica distópica. É a nossa realidade de quinta-feira à tarde.

Desde o lançamento do Sora, vídeos enganosos explodiram no TikTok, X, YouTube, Facebook e Instagram. As salvaguardas que as plataformas prometeram — como exigir divulgação do uso de IA e proibir conteúdos enganosos — se mostraram completamente insuficientes diante do salto tecnológico das ferramentas da OpenAI.

Quando a Tecnologia Serve à Hostilidade

O uso desses vídeos vai muito além de memes inofensivos. Segundo a reportagem, eles estão sendo usados para:

  • Operações de influência estrangeira: A Rússia criou vídeos falsos de soldados ucranianos chorando para desmoralizar o país
  • Incitação ao ódio religioso: Na Índia, vídeos mostram a preparação de biryani com água de bueiro para atacar muçulmanos
  • Desinformação política: Um vídeo falso sobre Jeffrey Epstein, com voz sintética de Trump, foi visto por mais de 3 milhões de pessoas em poucos dias

O pesquisador Sam Gregory, diretor executivo da Witness, foi direto ao ponto: “Eles poderiam fazer um trabalho melhor na moderação de conteúdo de desinformação? Sim, claramente não estão fazendo isso”.

Darjan Vujica, ex-integrante do Departamento de Estado dos EUA, resumiu o problema: “A barreira para usar deepfakes como parte da desinformação desmoronou, e, uma vez que a desinformação se espalha, é difícil corrigir o registro.”

A “Poluição de IA” e o Cansaço Digital

Enquanto os deepfakes confundem sobre o que é real, outro fenômeno assola a internet: o “AI slop” — conteúdo gerado por IA de baixa qualidade e geralmente indesejado. De acordo com a Euronews, as menções a “AI slop” na internet aumentaram nove vezes em 2025 comparado a 2024.

O termo ganhou tanto destaque que foi eleito Palavra do Ano de 2025 pelo Merriam-Webster e pelo dicionário nacional da Austrália. Artigos gerados por IA já representam mais de metade de todo o conteúdo em inglês na web, segundo a empresa de SEO Graphite.

Kate Moran, vice-presidente de investigação na Nielsen Norman Group, identificou o problema fundamental: há “muita pressão para mostrar aos acionistas: ‘Vejam, pusemos IA no nosso produto'”. Isso leva a um design liderado pela tecnologia — começa-se pela ferramenta e tenta-se depois procurar um problema que ela possa resolver, o que é contrário ao que o design deveria ser.

O exemplo mais recente? A Meta lançou em novembro a aplicação “Vibes” na Europa, dedicada a vídeos curtos gerados por IA. Segundo dados internos vistos pelo Business Insider, o aplicativo teve apenas 23.000 usuários ativos por dia nas primeiras semanas. França, Itália e Espanha registraram entre 4.000 a 5.000 usuários ativos diários cada um. Um fracasso desconcertante para uma empresa que tinha avisado contra “conteúdo não original”.

O Brasil Entre Dois Mundos: Inovação e Capacitação

Enquanto isso, no Brasil, observamos um contraste interessante. De um lado, temos iniciativas promissoras. Segundo o Diario de comercio, o pesquisador Guilherme Cunha Lima desenvolveu um sistema de IA capaz de analisar centenas de artigos simultaneamente, com mais de 90% de precisão — superando ferramentas como Deep Research (ChatGPT) e Elicit, que registraram acertos entre 70% e 80%.

A solução é baseada na arquitetura RAG (Retrieval Augmented Generation), mas inclui dois módulos inéditos focados em auditoria e correção automática de afirmações e citações. É o tipo de inovação brasileira que precisamos celebrar: tecnologia que resolve um problema real de confiabilidade.

Do outro lado, temos uma questão que me incomoda profundamente. Conforme noticiado pelo Blog do Lauro Jardim, o Tribunal de Justiça do Rio de Janeiro gastou R$ 518 mil para levar 23 desembargadores e um presidente do TRF-2 para um curso sobre “Direito, Justiça e Inteligência Artificial” na Universidade de Milão, na Itália.

O curso, que ocorreu entre 1º e 5 de dezembro, totalizou 25 horas de atividades teóricas e práticas. Há mais três cursos de valor semelhante previstos para 2026, todos na Europa.

Não questiono a importância da capacitação judicial em IA. Questiono a escolha. Por que gastar meio milhão de reais para levar magistrados à Europa quando poderíamos criar programas de capacitação massiva aqui, usando especialistas brasileiros — alguns dos quais, como Guilherme Cunha Lima, estão desenvolvendo soluções mais precisas que as ferramentas comerciais globais?

A Urgência da Alfabetização Digital Democrática

O verdadeiro problema não é a IA em si. É a assimetria brutal de conhecimento sobre ela. Enquanto deepfakes enganam milhões de brasileiros comuns nas redes sociais, investimos em capacitação premium para uma elite judicial que poderia ser treinada localmente.

Daniel Mügge, pesquisador da Universidade de Amesterdão, fez uma observação perspicaz sobre as prioridades das empresas tecnológicas: elas se envolvem numa “corrida entre si”, apostando tudo para tentar bater a OpenAI. Isso limita o investimento em IA que poderia resolver problemas sociais concretos. “Vemos que muitos investimentos em IA acabam, de facto, em aplicações que tornam a sociedade pior e não melhor”, afirmou.

O mesmo raciocínio vale para investimentos públicos. Precisamos nos perguntar: nossos recursos estão sendo direcionados para democratizar o conhecimento sobre IA ou para manter privilégios de acesso?

Os Dilemas Setoriais Que Não Podemos Ignorar

EL reportagem do Globo sobre IA no audiovisual ilustra bem a complexidade do momento. Enquanto James Cameron defende a IA como meio de reduzir custos e acelerar processos — sem tornar os artistas humanos obsoletos —, o setor de dublagem brasileiro vive um cenário sombrio.

Fábio Azevedo, presidente da Dublar, denuncia que dubladores estão sendo abordados para vender suas vozes para alimentar programas de IA. O filme espanhol “O silêncio de Marcos Tremmer” no Prime Video foi totalmente dublado por IA e recebeu críticas devastadoras por erros básicos e falta de sentimento.

Esse é o tipo de aplicação que Mügge citou: tecnologia que torna a sociedade pior, não melhor. Não porque a IA seja má, mas porque sua implementação ignora o impacto humano real.

Regulação: Entre a Proteção e a Inovação

O debate regulatório também avançou. Segundo a jota, o PL nº 2338/2023, liderado pelo senador Rodrigo Pacheco, parte da premissa de afirmar a centralidade da pessoa humana e a necessidade de sistemas seguros e confiáveis — aproximando o Brasil de modelos baseados em risco como o AI Act da União Europeia.

A abordagem evita tanto a proibição indiscriminada quanto a permissividade absoluta. Falhas algorítmicas já impactam o acesso à saúde, ao crédito e ao mercado de trabalho. Sistemas de diagnóstico apresentam menor precisão para pessoas negras, enquanto modelos de concessão de crédito reproduzem desigualdades por meio de variáveis aparentemente neutras.

Mas a eficácia de qualquer marco legal depende da capacidade do Estado de fiscalizar sistemas complexos. Auditar algoritmos, enfrentar a caixa-preta e acompanhar a velocidade da inovação exigem órgãos reguladores com autonomia, recursos e expertise técnica. Sem isso, a regulação corre o risco de ser simbólica.

A China, aliás, já divulgou regras preliminares para regular IA com interação semelhante à humana, estabelecendo uma abordagem que exige que os provedores alertem os usuários contra o uso excessivo e intervenham quando mostrarem sinais de dependência. É uma visão paternalista, mas que reconhece riscos psicológicos reais.

O Que Realmente Importa Agora

Estas 24 horas de notícias sobre IA expõem uma verdade desconfortável: estamos vivendo uma crise de alfabetização digital em escala civilizacional. Não adianta termos pesquisadores brasileiros criando soluções mais precisas que o ChatGPT se milhões de pessoas não conseguem distinguir um vídeo real de um deepfake.

Não adianta gastarmos meio milhão em cursos europeus para magistrados se não investimos na capacitação massiva de educadores, comunicadores, profissionais de saúde e cidadãos comuns que precisam navegar essa nova realidade diariamente.

Kate Moran tem razão ao sugerir que a IA “aborrecida” — aquela que melhora a experiência do usuário sem exigir interação além da leitura, como o resumo de avaliações de produtos na Amazon — pode ser melhor a longo prazo do que ferramentas chamativas. Mas precisamos ir além: precisamos de programas nacionais de alfabetização em IA que ensinem as pessoas a:

  • Identificar sinais de manipulação em vídeos e imagens
  • Questionar a origem e autenticidade de conteúdos
  • Usar ferramentas de IA de forma produtiva, não apenas consumir passivamente
  • Entender os vieses algorítmicos que afetam suas vidas
  • Exigir transparência e prestação de contas das plataformas

A Meta Apostando em Modelos Fechados

Vale mencionar que a Meta está mudando de estratégia. Depois de apostar no LLaMa como um modelo open source que seria o “Android da IA”, a empresa gastou US$ 14,3 bilhões para adquirir a Scale AI e está desenvolvendo dois novos modelos: o Avocado (sucessor do LLaMa, mas fechado) e o Mango (geração de imagem e vídeo para competir com Sora).

É uma mudança significativa: da democratização via código aberto para um modelo ao estilo Apple — fechado e voltado ao consumo. Isso concentra ainda mais poder nas mãos de poucas empresas e reforça a urgência de alfabetização digital independente.

O Caminho À Frente

Não tenho respostas fáceis, mas tenho convicções. Precisamos construir ecossistemas de inovação em IA que coloquem impacto social no centro, não como discurso de marketing, mas como métrica real de sucesso. Precisamos investir em capacitação democrática, não elitista. Precisamos desenvolver tecnologia que resolva problemas reais de brasileiros reais.

O caso do dublador Robson Kumode, que criticou a dublagem por IA dizendo que “não tem respiração”, captura algo essencial: tecnologia sem humanidade não é progresso, é empobrecimento. A IA deve amplificar nossa capacidade criativa, não substituir nossa essência.

No meu trabalho com empresas e governos, vejo todos os dias a diferença entre organizações que tratam IA como ferramenta de transformação real e aquelas que a usam apenas para marketing. As primeiras investem em capacitação de equipes, redesenham processos com foco em impacto humano e medem sucesso por resultados tangíveis. As segundas compram soluções prontas, implementam sem contexto e se frustram quando não veem retorno.

A mesma lógica vale para políticas públicas. Podemos escolher investir em capacitação massiva e democrática, ou podemos continuar gastando fortunas em treinamentos premium para poucos enquanto a maioria da população fica vulnerável à manipulação digital.

A alfabetização digital não é um luxo opcional. É a infraestrutura básica da cidadania no século XXI.

Estas 24 horas de notícias sobre IA não trouxeram avanços tecnológicos revolucionários. Trouxeram algo mais importante: clareza sobre onde estamos errando. Deepfakes enganando milhões, “AI slop” poluindo a internet, investimentos públicos desconectados da realidade da maioria, setores inteiros sendo transformados sem proteção aos trabalhadores.

O momento exige menos deslumbramento e mais pragmatismo. Menos viagens à Europa e mais investimento em expertise local. Menos ferramentas chamativas e mais soluções que resolvam problemas reais. Menos concentração de conhecimento e mais democratização radical.

No meu mentoring e nos cursos imersivos que ofereço, trabalho exatamente nessa fronteira: ajudar executivos, empreendedores e organizações a navegar a IA de forma estratégica, ética e centrada em impacto real. Porque acredito que a tecnologia precisa servir às pessoas, não o contrário. E porque sei que a alfabetização digital de qualidade não pode ser privilégio de poucos.

A pergunta que deixo é simples: que tipo de futuro com IA estamos construindo? Um onde poucos entendem e muitos são manipulados, ou um onde o conhecimento é democrático e o impacto é compartilhado?

A resposta está nas escolhas que fazemos hoje. Nas prioridades que definimos. Nos investimentos que aprovamos. Estas 24 horas mostraram que o caminho atual não está funcionando. Está na hora de escolher outro.


✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.

➡️ Accede a la Comunidad 10K aquí


ARTÍCULOS RELACIONADOS

Ver todo

ver todo