Todas as postagens do blog
Insights sobre startups, IA, inovação, futuro do trabalho e educação tecnológica. Estratégias práticas para negócios de impacto e transformação digital.
Estamos em uma encruzilhada. Não é mais uma escolha entre adotar IA ou não — essa já foi feita. A questão agora é: qual caminho vamos tomar? O das máquinas que consomem recursos exponencialmente enquanto os riscos financeiros e ambientais são transferidos para os mais vulneráveis, ou o da construção consciente de uma tecnologia que sirva à humanidade sem destruir o planeta?
As últimas 24 horas trouxeram um conjunto de notícias que, vistas em conjunto, expõem exatamente essa tensão. De um lado, o físico Mario Rasetti alerta que a IA se desenvolve a uma velocidade “duplamente exponencial” e consome energia e água em níveis insustentáveis. De outro, empresas como Meta e Microsoft transferem os riscos dessa corrida para investidores menores através de estruturas financeiras sofisticadas.
Enquanto isso, o livro Atlas da IA documenta o rastro extrativista dessa indústria, e especialistas debatem como mitigar desigualdades no mercado de trabalho.
Não é catastrofismo. É realismo. E é também a oportunidade de escolhermos o caminho certo.
A Revolução Mais Rápida da História e Seu Custo Invisível
Mario Rasetti, físico de renome mundial e professor emérito do Politécnico de Turim, não usa meias palavras. Para ele, a IA representa “talvez a maior revolução cultural de toda a história do Homo sapiens“ — uma “transição antropológica”.
Mas diferente de outras revoluções tecnológicas, esta acontece em velocidade “duplamente exponencial”. O que isso significa na prática? Que a cada ciclo, o crescimento não apenas dobra, mas acelera em ritmo cada vez mais rápido. É como se estivéssemos em um carro cujo acelerador aumenta sua própria potência a cada segundo.
E aqui está o problema: a infraestrutura física não acompanha essa velocidade.
Rasetti alerta especificamente para dois custos críticos:
- Energia: Os data centers que processam IA consomem quantidades monumentais de eletricidade. Ele cita o caso dos centros do Google na Irlanda e os investimentos da Microsoft em Three Mile Island (sim, a mesma usina nuclear que teve o famoso acidente em 1979).
- Água: O resfriamento desses servidores consome água em escala industrial, gerando impacto direto em regiões já afetadas por escassez hídrica.
Trabalho há anos com empresas e governos no desenvolvimento de estratégias de IA, e uma pergunta que faço sempre é: “Você sabe quanto custa, em termos ambientais, rodar esse modelo?” A resposta, na maioria das vezes, é silêncio.
Não porque as pessoas sejam irresponsáveis, mas porque essa informação é deliberadamente invisibilizada. A nuvem parece leve, mas como documenta Kate Crawford no Atlas da IA, ela é sustentada por uma cadeia extrativista brutal.
A Insustentável Leveza da Nuvem
Kate Crawford, pesquisadora reconhecida internacionalmente, desmonta o mito da tecnologia “limpa”. Seu livro mostra que a IA se apoia em:
- Extração de minérios raros: Lítio, cobalto, terras raras — elementos essenciais para supercomputadores que são extraídos em condições frequentemente precárias, modificando paisagens inteiras.
- Redes de abastecimento globais: Uma cadeia logística que conecta minas na África a fábricas na Ásia e data centers nos EUA e Europa.
- Consumo energético exponencial: A IA se tornou uma das maiores consumidoras de energia do planeta.
E ainda há os custos sociais: privacidade minerada constantemente, algoritmos que reproduzem preconceitos históricos, e uma concentração de poder nas mãos de uma elite tecnológica cada vez menor.
A questão não é abandonar a IA. É exigir que ela seja construída de forma sustentável e democrática. No meu trabalho com empresas, sempre reforço: IA responsável não é apenas uma questão ética — é uma questão de viabilidade a longo prazo.
Como as Gigantes Transferem os Riscos (E Por Que Isso Importa)
Enquanto os custos ambientais são invisibilizados, os riscos financeiros estão sendo transferidos de forma cada vez mais sofisticada.
Uma reportagem do New York Times publicada no InfoMoney expõe como Meta e Microsoft usam estruturas financeiras complexas para expandir data centers sem assumir dívidas diretamente em seus balanços.
A Meta, por exemplo, criou um veículo de propósito específico chamado Beignet Investor LLC. Através dele, emitiu títulos de dívida que vencem em 2049 (!), transferindo o risco para credores privados como Blue Owl Capital e Pimco.
A estratégia é simples (e genial, do ponto de vista financeiro):
- Alugar capacidade computacional de terceiros
- Esperar a demanda se confirmar
- Só então se comprometer financeiramente a longo prazo
- Se o boom desacelerar, sair dos acordos classificando custos como despesas operacionais
Quem fica com o prejuízo? Empresas menores, fornecedores e investidores que assumiram infraestrutura de longo prazo.
Como disse Shivaram Rajgopal, professor da Columbia Business School: “Risco é como um tubo de pasta de dente. Você aperta aqui, ele vai sair em algum outro lugar.”
Isso me lembra das estruturas contábeis que precederam a bolha pontocom e a crise de 2008. A diferença é que agora o ativo em questão não são apenas hipotecas ou ações de empresas de internet, mas a própria infraestrutura computacional da IA.
Especialistas comparam esses arranjos a métodos ultrapassados que adicionam opacidade ao financiamento. E quando há opacidade, há risco sistêmico.
O Que Isso Significa Para o Ecossistema de Inovação?
Se você é empreendedor, executivo ou investidor, preste atenção: a concentração de riscos em players menores pode criar um efeito dominó.
Imagine uma startup brasileira que desenvolveu uma solução de IA promissora e precisa de capacidade computacional. Ela pode:
- Alugar de uma grande cloud (que pode reajustar preços ou sair do acordo)
- Investir em infraestrutura própria (assumindo dívida de longo prazo)
- Depender de crédito privado (com juros altos e riscos transferidos)
Enquanto as gigantes têm flexibilidade para navegar essas opções, startups e empresas de médio porte ficam expostas.
No meu trabalho de mentoria com executivos e empresas, sempre reforço: não basta ter uma boa ideia de IA. É preciso entender a estrutura de custos e riscos da infraestrutura que a sustenta.
A Encruzilhada: Três Caminhos Possíveis
Rasetti usa uma metáfora poderosa: estamos em uma encruzilhada. E como toda encruzilhada, temos que escolher um caminho.
Caminho 1: Acelerar Sem Limites
Continuar na corrida exponencial, ignorando custos ambientais e sociais, transferindo riscos para os mais vulneráveis. É o caminho do crescimento a qualquer custo.
Consequência: Colapso ambiental, crises financeiras sistêmicas, ampliação brutal de desigualdades.
Caminho 2: Frear Radicalmente
Impor moratórias, restringir desenvolvimento, tratar IA como ameaça existencial. É o caminho do medo.
Consequência: Perda de oportunidades reais de resolver problemas complexos, atraso competitivo, concentração de poder nos países que não frearam.
Caminho 3: Transformar IA de Prática em Ciência
É a proposta de Rasetti — e a que faz mais sentido. Compreender profundamente a tecnologia, estabelecer limites éticos e ambientais claros, democratizar acesso, e construir governança responsável.
Consequência: IA sustentável, inclusiva, que serve à humanidade sem destruir o planeta.
Eu escolho o terceiro caminho. E acredito que a maioria das pessoas, quando entende as opções reais, também escolhe.
IA Não é Criativa, Não Tem Consciência — E Isso é Fundamental
Rasetti faz questão de reafirmar algo que frequentemente esquecemos no hype: máquinas inteligentes nunca terão sentimentos nem consciência.
A IA representa a realidade, mas não a compreende. É como a alegoria da caverna de Platão: vemos sombras projetadas na parede, mas não a realidade em si.
E mais:
- IA não é criativa: Ela reorganiza padrões existentes, mas não cria genuinamente novo conhecimento.
- Não compreende o sentido profundo: Pode processar linguagem, mas não entende experiência humana.
- Não sabe se corrigir autonomamente: Depende de intervenção humana para ajustes éticos e contextuais.
A conclusão de Rasetti é reconfortante e desafiadora ao mesmo tempo: “Nós, seres humanos, somos muito mais poderosos do que as máquinas.”
Mas isso também significa que a responsabilidade é nossa.
No meu trabalho com empresas, uma das principais transformações que busco é justamente essa mudança de mentalidade: de “a IA vai resolver tudo” para “a IA é uma ferramenta poderosa que precisa de orientação humana estratégica e ética”.
O Impacto no Mundo do Trabalho: Entre Oportunidade e Desigualdade
Um artigo publicado no JOTA aborda exatamente essa tensão: a IA transforma o mercado de trabalho gerando novas vagas e tornando outras obsoletas, mas o ritmo é muito mais rápido que nossa capacidade de adaptação.
A principal preocupação não é se a IA vai criar ou destruir empregos — ela fará ambos. A questão é: quem terá acesso à requalificação necessária?
Três Estratégias Que Funcionam
O artigo destaca três caminhos comprovados para mitigar desigualdades:
1. Capacitação em habilidades digitais
Exemplos de sucesso no Quênia mostram que treinamento adequado gera crescimento real de renda. Não é teoria — é evidência empírica.
2. Requalificação dentro das empresas
Empresas que adotam IA e reorganizam funções (em vez de apenas cortar postos) geram ganhos salariais significativos para os requalificados. E atenção: competências socioemocionais são cada vez mais valorizadas.
A IA pode processar dados, mas não pode negociar conflitos, liderar equipes diversas, ou entender nuances culturais de um mercado.
3. Inclusão facilitada por IA
Ferramentas de IA para criação de currículos aumentaram em 8% as chances de contratação para candidatos menos qualificados. A tecnologia pode democratizar acesso — quando bem aplicada.
O risco: Algoritmos de triagem podem reproduzir preconceitos históricos. Se os dados de treinamento refletem discriminação passada, a IA amplifica essa discriminação.
Por isso reforço sempre: IA responsável exige auditoria constante, diversidade nas equipes de desenvolvimento, e transparência nos critérios.
Repensando a Seguridade Social
O artigo levanta um ponto crucial: será necessário repensar a seguridade social para acomodar a gig economy e o trabalho flexível.
O modelo tradicional de emprego formal com carteira assinada está sendo complementado (e em alguns casos substituído) por arranjos mais fluidos. Isso exige políticas públicas integradas que protejam trabalhadores sem engessar inovação.
É um debate complexo, mas inadiável.
Casos Curiosos Que Revelam Tendências Profundas
As notícias das últimas 24 horas também trouxeram casos aparentemente menores, mas que revelam tendências importantes.
Carros Autônomos Que “Leem a Mente” de Pedestres
Pesquisadores dos EUA e Coreia do Sul desenvolveram o OmniPredict, uma IA que prevê o comportamento de pedestres em tempo real com 67% de precisão — 10% superior aos modelos anteriores.
O sistema analisa 16 quadros de vídeo (meio segundo) para prever a ação 30 quadros à frente (cerca de um segundo). Parece pouco, mas é o suficiente para um carro planejar manobras com antecedência, tornando o trânsito mais fluido e reduzindo paradas bruscas.
A inovação está no uso de zero-shot learning e modelos de linguagem para “raciocinar” sobre intenções humanas. Em vez de apenas reagir, o veículo antecipa.
Limitações: Dificuldades com sombras fortes e diferenciação entre pedestres e ciclistas em certas condições.
Isso ilustra perfeitamente o que Rasetti diz: a IA representa, mas não compreende. Ela identifica padrões de comportamento, mas não entende por que alguém age de determinada forma.
Vídeos Falsos de IA e a Crise de Confiança
Um vídeo viralizado que alegava mostrar uma “fábrica de visualizações” da Polícia Militar inflando acessos no YouTube — alcançando 1,2 milhão de visualizações no X — foi criado usando IA.
Embora as click farms sejam uma fraude real, o uso de IA para fabricar vídeos sobre elas levanta preocupações sobre desinformação em camadas.
Não é só o conteúdo falso que preocupa, mas a capacidade da IA de gerar material verossímil sobre práticas fraudulentas reais, criando confusão entre o que é genuíno e o que é fabricado.
A repressão é dificultada pela falta de legislação específica em muitos países. E aqui voltamos à encruzilhada: precisamos de governança.
TJRJ Gasta R$ 518 Mil em Curso de IA na Itália
Vinte e três desembargadores do TJRJ participaram de um curso sobre “Direito, Justiça e Inteligência Artificial” na Universidade de Milão, custando R$ 518 mil aos cofres públicos.
A notícia gerou polêmica, mas vejo dois lados:
Lado positivo: Magistrados precisam sim entender IA para julgar casos envolvendo a tecnologia. Regulamentação, proteção de dados, desafios éticos da automação judicial — são temas fundamentais.
Lado problemático: O custo e a opacidade. Existem cursos de qualidade equivalente no Brasil? Por que a escolha de um curso internacional caro? Qual o impacto real desse investimento na aplicação jurídica?
O TJRJ planeja mais três cursos semelhantes na Europa em 2026. Transparência e prestação de contas são essenciais, especialmente quando falamos de recursos públicos.
O Que Fazer Diante Dessa Encruzilhada?
Então, voltamos à pergunta inicial: qual caminho escolher?
Acredito que o caminho certo passa por cinco princípios fundamentais:
1. Transparência Radical nos Custos Ambientais
Empresas precisam divulgar o consumo de energia e água de seus modelos de IA. Não como marketing, mas como métrica obrigatória. Assim como temos rótulos nutricionais em alimentos, precisamos de “rótulos ambientais” em IA.
2. Governança Financeira Rigorosa
Estruturas que transferem riscos de forma opaca devem ser reguladas. Não para inviabilizar inovação, mas para proteger o ecossistema como um todo.
3. Investimento Massivo em Requalificação
Empresas, governos e entidades de apoio precisam criar programas de capacitação acessíveis e práticos. Não adianta falar em “futuro do trabalho” sem preparar as pessoas para ele.
4. Auditoria Ética de Algoritmos
Sistemas de IA usados em decisões críticas (contratação, crédito, justiça) devem ser auditados regularmente por equipes diversas e independentes.
5. Liderança Consciente
Executivos e empreendedores precisam entender que IA não é magia. É tecnologia poderosa que exige decisões estratégicas informadas, responsabilidade social, e visão de longo prazo.
Como Rasetti reforça: nós, seres humanos, somos mais poderosos que as máquinas. Mas apenas se exercermos essa liderança de forma consciente.
A Escolha é Nossa — E o Momento é Agora
As últimas 24 horas trouxeram um retrato nítido da encruzilhada em que estamos. De um lado, uma tecnologia que se desenvolve exponencialmente, consumindo recursos e transferindo riscos. De outro, a possibilidade de construir IA sustentável, inclusiva e responsável.
A escolha não é entre ter ou não ter IA. É entre ter IA que serve à humanidade ou ter humanidade que serve à IA.
Rasetti nos lembra que estamos vivendo talvez a maior revolução cultural da história humana. Crawford nos alerta sobre os custos escondidos. Especialistas apontam caminhos concretos para mitigar desigualdades.
A pergunta que deixo é: qual caminho você e sua organização vão escolher?
No meu trabalho de mentoria com executivos e empresas, ajudo a navegar exatamente essa encruzilhada — traduzindo complexidade técnica em estratégia aplicável, conectando inovação com responsabilidade, e construindo capacidade organizacional real para aproveitar a IA sem cair nas armadilhas do hype ou do extrativismo.
Porque no final, a IA mais poderosa não é a que processa mais dados. É a que está a serviço de propósito claro, liderada por pessoas conscientes, e construída para durar.
E esse caminho, ao contrário dos algoritmos, não se constrói sozinho.
