Blog Felipe Matos

USP e Google Lançam Cátedra de IA Responsável Enquanto Nvidia Cai 4% com TPUs — Por Que Este Momento Define a Virada Brasileira na Inteligência Artificial

noviembre 26, 2025 | by Matos AI

UOKx5QnSfrwTuD0XZ5QAB_7180014356d14bdabc2fc4427965806e

A Universidade de São Paulo acaba de anunciar algo que pode parecer mais uma notícia institucional, mas que na verdade representa uma virada fundamental no ecossistema brasileiro de inteligência artificial. A criação da cátedra IA Responsável em parceria com o Google, sob coordenação de Carlos Américo Pacheco (ex-diretor da Fapesp por nove anos), não é só sobre pesquisa acadêmica — é sobre formar a base intelectual e ética que vai determinar se o Brasil será protagonista ou coadjuvante na era da IA.

E isso acontece exatamente quando o mercado global de chips para IA vive seu momento mais turbulento: as ações da Nvidia caíram 4,11% após a notícia de que a Meta negocia bilhões em chips TPU do Google para seus data centers a partir de 2027. Enquanto isso, debates sobre uma possível “bolha de IA” ganham força mesmo diante de lucros recordes das big techs.

No meu trabalho com empresas, governos e entidades de apoio ao ecossistema de inovação, tenho visto uma tensão crescente: de um lado, investimentos massivos e avanços técnicos impressionantes; de outro, uso indiscriminado, falta de formação qualificada e sinais de supervalorização. As últimas 24 horas condensaram perfeitamente esse paradoxo — e o Brasil está no centro dele.


¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.


A Virada Estrutural: USP, Google e a Formação que Faltava

Quando Glauco Arbix, coordenador do Observatório de Inovação do IEA-USP, diz que “a IA está alterando a mecânica da economia, da geociência e da geopolítica”, ele não está exagerando. A questão é: como nos preparamos para isso?

A nova cátedra funcionará de maneira flexível, reunindo seminários, workshops, estudos e pesquisas, mas com um objetivo central que me parece absolutamente estratégico: cooperar na discussão de políticas públicas. Não se trata apenas de formar pesquisadores — trata-se de criar uma interface institucional entre academia, setor privado e Estado para definir os rumos da IA no país.

Os números justificam a urgência. Entre 2022 e 2024, o número de empresas industriais brasileiras que incorporaram IA cresceu 163,2%, segundo o IBGE. Hoje, 41,9% das 10 mil companhias consultadas usam inteligência artificial — um salto de 25 pontos percentuais em apenas dois anos. E desde 2019, a demanda por profissionais qualificados em IA cresce 21% ao ano, segundo a Bain&Company.

Mas aqui está o problema: 39% dos executivos consideram a falta de experiência interna a principal barreira para expandir o uso de IA. Temos demanda, temos empresas adotando, mas não temos gente preparada o suficiente. É exatamente aí que entra a formação responsável que a USP e Google propõem.

O Que Significa “IA Responsável” na Prática

No meu mentoring, quando trabalho com executivos e empresas na implementação de IA, sempre reforço: tecnologia sem ética é apenas ferramenta aguardando desastre. A cátedra proposta pela USP coloca no centro exatamente isso: privacidade, segurança dos usuários, fundamentos éticos, sustentabilidade e prevenção de preconceito nos modelos.

Pacheco acertou ao enfatizar que a formação deve seguir critérios de IA responsável. Porque o que vemos hoje, muitas vezes, é o contrário: implementações apressadas, modelos que reproduzem vieses históricos, uso de dados sem transparência, e uma corrida tecnológica sem reflexão sobre impacto social.

A parceria estratégica com o Google — que já tem cátedras similares em instituições como a Universidade de Waterloo, no Canadá — traz não só recursos, mas também experiência prática. Como disse Alex Freire, diretor de engenharia do Google no Brasil, a ideia é “promover a extensão da pesquisa em IA responsável e disseminar esse conceito para toda a sociedade civil”.

A Guerra dos Chips: Quando a Nvidia Treme e o Google Avança

Enquanto isso, o mercado de semicondutores para IA vive um momento histórico. A queda de 4,11% nas ações da Nvidia não é trivial — estamos falando de uma empresa avaliada em US$ 4,27 trilhões que, até agora, dominava praticamente sozinha o fornecimento de GPUs para treinar e rodar modelos de IA.

A notícia de que a Meta negocia gastar bilhões nos chips TPU do Google sinaliza algo fundamental: o mercado está amadurecendo e buscando alternativas. Os TPUs (Tensor Processing Units) foram desenvolvidos há mais de 10 anos pelo Google especificamente para tarefas de IA, e agora começam a provar que podem competir de verdade com as GPUs da Nvidia.

O analista Jay Goldberg, da Seaport, classificou o movimento como uma “validação muito forte” das TPUs. E ele tem razão. Quando uma empresa do porte da Meta — que deve investir pelo menos US$ 100 bilhões em capex para 2026 — considera diversificar fornecedores, isso não é apenas uma decisão comercial. É um sinal de maturidade do mercado.

O Que Isso Significa Para o Brasil

Aqui está a conexão que poucos estão fazendo: enquanto o mercado global de chips para IA se diversifica e amadurece, o Brasil precisa aproveitar esse momento para não ficar dependente de um único fornecedor. A cátedra da USP pode justamente ajudar a pensar estratégias nacionais de infraestrutura de IA que considerem essa diversidade de opções.

Arbix apontou que o Brasil possui atualmente 195 centros de dados, ficando em 12º lugar globalmente — distante dos 4.204 centros dos EUA. Mas ele finalizou com otimismo: “O Brasil está se mexendo. Não ficou parado. Tem energia razoavelmente limpa e barata, e uma visão positiva sobre a inteligência artificial”.

Nas minhas consultorias com entidades de apoio ao ecossistema, sempre ressalto: infraestrutura não é só hardware. É também capacidade intelectual, marco regulatório e visão estratégica. E nisso, a iniciativa da USP é tão importante quanto a construção de novos data centers.

O Uso “Selvagem” de IA na Educação: 70% Sem Orientação

Enquanto instituições como a USP se organizam para formar a próxima geração de profissionais, a realidade nas escolas brasileiras revela um cenário preocupante. Pesquisa do Cetic.br mostrou que 70% dos alunos do ensino médio (cerca de 5,2 milhões de estudantes) e 58% dos professores já utilizam ferramentas de IA generativa — mas sem qualquer mediação, orientação, supervisão ou regramento das escolas.

Graziela Castello, coordenadora da pesquisa, usou uma expressão perfeita: o uso é “quase selvagem”. Alunos usam IA para tudo — desde pesquisar palavras até buscar suporte emocional, funcionando como terapeuta ou conselheiro. Professores também utilizam intensamente para preparar aulas, mas sem orientação institucional.

E aqui está o paradoxo que me preocupa profundamente: ambos os grupos querem informação sobre uso ético e seguro, mas ninguém está fornecendo isso de forma estruturada. Nas minhas palestras e cursos imersivos sobre IA para educadores, vejo o quanto essa lacuna é real.

Os Riscos Que os Próprios Alunos Reconhecem

O que mais me chamou atenção na pesquisa do Cetic.br foi o fato de que os próprios estudantes reconhecem os riscos. Eles têm medo de:

  • Desaprender ou “emburrecer” devido à dependência tecnológica
  • Perder a capacidade de criar ou exercer a criatividade
  • Perder sua identidade, temendo que o processo educacional se torne muito “pasteurizado”

Isso revela uma maturidade surpreendente. Os jovens não são ingênuos em relação à tecnologia — eles sabem que há um preço a pagar pelo uso indiscriminado. O problema é que estão navegando sozinhos.

Os professores, por sua vez, estão sobrecarregados e questionam: quem deveria fornecer a formação necessária sobre IA? A escola? O governo? As universidades? A resposta é: todos esses atores, de forma coordenada. E é exatamente esse tipo de articulação que a cátedra da USP pode ajudar a construir.

Desigualdades Que se Ampliam

A pesquisa também revelou algo que já sabíamos, mas que precisa ser dito: alunos de escolas privadas têm maior acesso a computadores e conseguem usar a IA com mais proveito, enquanto quem depende de celulares enfrenta limitações.

Como Graziela Castello alertou: “Fundamentalmente, você tem ainda a reprodução de desigualdades em infraestrutura digital que vão ampliar, se não forem contornadas, ainda mais essa desigualdade de oportunidades entre escolas públicas e privadas”.

No meu trabalho com governos, sempre defendo que políticas públicas de tecnologia não podem ignorar essa dimensão social. IA não é neutra — ela amplifica estruturas existentes, para o bem ou para o mal.

A Regulação que Está Por Vir (e Que Precisa Acertar)

O debate sobre regulação da IA ganhou força global. A Europa já aprovou o AI Act, que estabelece medidas baseadas no risco da IA — desde riscos inaceitáveis (como manipulação subliminar de vulneráveis) até regulação forte em áreas como saúde e educação.

No Brasil, o Projeto de Lei 2338/23, de autoria do senador Rodrigo Pacheco, tramita no Congresso inspirado no modelo europeu. O PL classifica o risco da IA e traz avanços importantes:

  • Considera inaceitável o uso de modelos de pontuação social pelo Estado que restrinjam direitos
  • Garante ao indivíduo acesso à justificativa de decisões automatizadas (como recusa de crédito) e direito de contestação
  • Exige identificação de conteúdos sintéticos (texto, imagem, vídeo) gerados por IA, para evitar desinformação ou deepfakes
  • Prevê uma “autoridade competente” para regulamentação técnica, fiscalização e sanções

Carlos Américo Pacheco, que coordenará a cátedra da USP, defendeu que a legislação deve estimular a criação de startups, além de definir critérios de uso. E ele está absolutamente certo. Regulação não pode ser sinônimo de engessamento — precisa ser marco que dá segurança jurídica para inovar com responsabilidade.

A Bolha que Pode (ou Não) Estourar

Enquanto tudo isso acontece, os debates sobre uma possível bolha de IA se intensificam. Um relatório do Goldman Sachs estima que, em três anos, o valor de empresas ligadas direta ou indiretamente à IA aumentou mais de US$ 19 trilhões.

Sam Altman, CEO da OpenAI, comparou o momento atual à bolha da internet nos anos 1990. Sundar Pichai, CEO da Alphabet, admitiu que nenhuma empresa, incluindo o Google, passaria ilesa por um colapso do mercado. E até Jensen Huang, CEO da Nvidia, reagiu aos debates externos sobre a bolha, descrevendo uma situação “sem vitória” para sua empresa.

Os sinais de alerta são reais:

  • Apenas entre setembro e outubro, empresas como Meta, Oracle e Google emitiram cerca de US$ 75 bilhões em dívidas
  • Projeção do UBS: investimento de empresas em IA vai atingir US$ 500 bilhões em 2026
  • “Negócios circulares”: operações em que as próprias empresas financiam a demanda por seus produtos (como a Nvidia investindo em empresas de IA que vão comprar seus chips)

Mas Há Outra Leitura Possível

Quem discorda da tese de bolha argumenta que a IA ainda está no começo e, como toda tecnologia transformadora, exige investimentos massivos. Os resultados financeiros das big techs (Google, Amazon, Nvidia com lucros acima do esperado) reforçariam que essa aposta tem fundamento.

Na minha visão, a verdade está no meio. Sim, há exageros de precificação e apostas arriscadas. Mas também há transformação real acontecendo. O desafio é separar o joio do trigo — e é exatamente por isso que iniciativas como a cátedra da USP são tão importantes. Precisamos de pensamento crítico institucionalizado para analisar o que é hype e o que é mudança estrutural.

O Paradoxo Brasileiro: Avanço Real com Lacunas Críticas

O Brasil vive um momento paradoxal. Por um lado:

  • Adoção crescente: 41,9% das empresas industriais usam IA
  • Crescimento de startups: empresas com referências diretas à IA em seus nomes aumentaram 857% desde 2023, passando de 142 para 1.209 CNPJs (BigData Corp)
  • Mais de 2 mil empresas brasileiras estão formalmente ligadas à área
  • Energia limpa e barata: vantagem competitiva real para data centers
  • Visão positiva sobre IA (segundo Arbix)

Por outro lado:

  • 39% dos executivos citam falta de experiência interna como principal barreira
  • 70% dos alunos e 58% dos professores usam IA sem orientação
  • Desigualdades de infraestrutura digital que podem ampliar o fosso entre escolas públicas e privadas
  • Falta de marco regulatório aprovado (PL 2338/23 ainda tramita)

É um país que, ao mesmo tempo, avança rápido e corre o risco de deixar muita gente para trás.

Por Que Este É o Momento Mais Estratégico

Nos meus cursos imersivos sobre IA, sempre digo: não existe tecnologia neutra. Toda ferramenta carrega valores, escolhas e impactos sociais. A IA não é diferente — aliás, ela é talvez a tecnologia mais não-neutra da história, porque toma decisões que afetam vidas diretamente.

A criação da cátedra de IA Responsável na USP, em parceria com o Google, acontece no momento certo. Não porque chegamos tarde — chegamos no timing ideal para:

  • Aprender com os erros dos outros: já vimos casos de viés algorítmico, uso inadequado, falta de transparência
  • Construir do jeito certo desde o começo: formar profissionais com pensamento ético desde a graduação
  • Influenciar políticas públicas: participar ativamente da construção do marco regulatório
  • Aproveitar a janela de oportunidade: o mercado global está em reconfiguração (disputa Nvidia vs. TPUs), e isso abre espaço para novos atores

Carlos Américo Pacheco destacou algo fundamental: a diferença entre LLMs (Grandes Modelos de Linguagem, caros de treinar) e agentes de IA (criados rapidamente com baixo custo). “Jovens da periferia podem criar soluções locais com auxílio da nuvem, se houver interesse”, disse ele.

Essa é a democratização real. Não é só sobre ter acesso à tecnologia — é sobre ter capacidade intelectual, formação crítica e infraestrutura para criar soluções que façam sentido para nossos problemas.

O Que Precisamos Fazer Agora

Se você é empresário, executivo, educador ou gestor público, aqui vão ações concretas:

Para Empresas:

  • Invista em formação da sua equipe, não apenas em ferramentas. A barreira não é tecnológica, é de capacitação
  • Estabeleça diretrizes éticas claras para uso de IA na sua organização
  • Diversifique fornecedores: não fique dependente de um único provedor de infraestrutura de IA
  • Participe do debate regulatório: sua experiência prática pode contribuir para uma legislação mais equilibrada

Para Educadores e Escolas:

  • Crie protocolos de uso de IA, não proíba — a tecnologia já está nas mãos dos alunos
  • Forme os professores antes de cobrar que eles ensinem sobre IA
  • Desenvolva pensamento crítico nos alunos sobre checagem de informações e vieses algorítmicos
  • Endereça as desigualdades de infraestrutura digital que você conseguir dentro da sua esfera de atuação

Para Gestores Públicos:

  • Acelere a aprovação de marcos regulatórios claros, mas que não engessem a inovação
  • Invista em formação pública massiva sobre IA responsável
  • Apoie iniciativas como a cátedra da USP e crie outras parcerias estratégicas
  • Garanta infraestrutura que não amplie desigualdades existentes

O Brasil Não Pode Perder Este Momento

Nos meus mais de quinze anos trabalhando com inovação, tecnologia e empreendedorismo, vi muitas ondas tecnológicas passarem. Algumas o Brasil surfou bem, outras nem tanto. A IA é diferente porque ainda estamos no começo da curva — e porque, finalmente, temos instituições de ponta (como a USP) se movimentando para construir capacidade intelectual estruturada.

A parceria com o Google não é colonização tecnológica — é articulação estratégica. O Google ganha acesso a um dos mercados mais dinâmicos do mundo e a uma das melhores universidades da América Latina. O Brasil ganha formação de ponta, recursos e conexão com redes globais de pesquisa.

Enquanto isso, o mercado de chips para IA se reconfigura, sinalizando maturidade e diversificação. E o debate sobre bolhas nos lembra que nem tudo que brilha é ouro — mas que descartar a transformação real por medo de hype é igualmente perigoso.

O momento é de construir com responsabilidade, formar com excelência e regular com equilíbrio. E, principalmente, de não deixar ninguém para trás.

No meu mentoring e nos cursos imersivos que ofereço, ajudo empresas, executivos e entidades de apoio ao ecossistema a navegar exatamente por essas tensões — entre adotar rápido e adotar bem, entre inovar e fazer com responsabilidade, entre aproveitar a onda e não ser engolido por ela. Porque acredito que a IA pode ser uma ferramenta poderosa para inclusão, criação de valor e impacto social positivo. Mas isso não acontece automaticamente. Precisa de escolha consciente, formação qualificada e visão estratégica.

O Brasil está se mexendo. A USP deu um passo fundamental. Agora é com a gente amplificar esse movimento e garantir que a inteligência artificial realmente sirva à inteligência coletiva brasileira.


✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.

➡️ Accede a la Comunidad 10K aquí


ARTÍCULOS RELACIONADOS

Ver todo

ver todo