Blog Felipe Matos

Un investigador prueba 7 IA como fuentes de noticias y sólo 37% proporcionan URL reales - Por qué estas 24 horas revelan el riesgo de la desinformación automática

15 de enero de 2026 | por Matos AI

yyuiK-1zH0Qup1KfdIo_8

Un profesor canadiense pasó un mes pidiendo noticias a siete sistemas de inteligencia artificial: ChatGPT, Claude, Gemini, Copilot, DeepSeek, Grok y Aria. ¿El resultado? Sólo 37% de las respuestas proporcionaron un enlace válido. El resto inventó fuentes, citó sitios web que no existen o simplemente creó conclusiones sin ningún respaldo fáctico. Al mismo tiempo, Trump ha impuesto aranceles de 25% a los chips de IA, Oracle se enfrenta a un proceso judicial por no revelar costes multimillonarios de infraestructuras y Grok, de Elon Musk, sigue bajo investigación mundial por generar imágenes sexualizadas sin consentimiento.

Estas 24 horas ponen de manifiesto una tensión fundamental: La IA se está adoptando a escala industrial antes de resolver problemas básicos de fiabilidad, ética y responsabilidad. Mientras Elon Musk predice que electricistas y fontaneros serán los millonarios del futuro por construir la infraestructura física de la IA, la sociedad aún tiene que resolver la infraestructura moral e informativa necesaria para que estas tecnologías funcionen sin causar daños.

Entendamos qué está ocurriendo, por qué es importante y qué necesita saber para navegar con claridad en este momento.


¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.


El experimento que reveló la debilidad de las IA como fuente de información

Jean-Hugues Roy, profesor de la Escuela de Medios de Comunicación de la Universidad de Quebec en Montreal (UQAM), realizó un experimento sencillo pero revelador. Durante todo un mes, preguntó cada día a siete sistemas de IA generativa: “¿Cuáles han sido las cinco noticias más importantes de hoy en Quebec? Dame las fuentes concretas (URL)”.”

El resultado, según la revista Fórum, era alarmante:

  • Sólo 37% de las 839 respuestas proporcionaron una URL completa y válida
  • 18% ni siquiera citó a los medios de comunicación, recurriendo a sitios web gubernamentales, grupos de presión o inventando fuentes imaginarias
  • La mayoría de los enlaces conducían a errores 404 o a páginas genéricas, lo que imposibilitaba la verificación.
  • 47% de los resúmenes se consideraron exactos, y algo más de 45% fueron sólo parcialmente exactos.

Uno de los casos más emblemáticos fue el de la Gemini, de Google, que inventó un sitio de noticias llamado “fake-example.ca” para informar sobre una huelga de conductores de autobuses escolares que nunca ocurrió en Quebec. The Grok distorsionó completamente un informe, afirmando que los solicitantes de asilo habían sido “maltratados en Chibougamau”, cuando el artículo original en realidad informaba de lo siguiente éxito de una iniciativa de empleabilidad.

Roy también identificó un fenómeno que denominó “conclusiones generativas” - interpretaciones creadas por la IA sin apoyo de fuentes reales, detectadas en 111 casos. Esto significa que la IA no sólo se ha equivocado al citar fuentes: ha interpretaciones y hechos inventados.

La conclusión de las 22 organizaciones de comunicación que analizaron el estudio fue clara: “Casi la mitad de las respuestas sobre IA tenían al menos un problema importante”.

Por qué importa ahora

Vivimos en una época en la que millones de personas, sobre todo jóvenes, recurren a los chatbots para informarse. Cuando preguntas a ChatGPT o Gemini sobre un acontecimiento reciente, la respuesta viene empaquetada en un lenguaje seguro, formal y estructurado. Suena a conocimiento. Pero, como demuestra el experimento de Roy, a menudo esto no es más que una ilusión de conocimiento.

La IA no “conoce” los hechos. Predice patrones lingüísticos basándose en billones de tokens de texto. Cuando se ve obligada a citar fuentes concretas, a menudo inventa -no por maldad, sino porque su objetivo es generar una respuesta plausible, no una verdadera.

En mi trabajo con empresas y gobiernos, veo esta confusión todos los días. Los ejecutivos me preguntan: “Felipe, ¿puedo utilizar la IA para generar informes de inteligencia de mercado?”. Mi respuesta es siempre la misma: puede, pero con un ser humano comprobando cada declaración, cada número, cada fuente. La IA amplifica tu capacidad de síntesis, pero no sustituye tu responsabilidad por la verdad.

Demandan a Oracle por no revelar costes multimillonarios de infraestructura de IA

Sobre eso, según informa Reuters vía InfoMoney, Oracle se enfrenta a una demanda colectiva presentada por tenedores de bonos que afirman haber sufrido pérdidas porque la empresa no reveló que necesitaría recurrir a más financiación significativa para construir su infraestructura de IA.

El contexto: siete semanas después de anunciar un contrato de cinco años y 300.000 millones de US$ para proporcionar a OpenAI infraestructura de procesamiento de datos, Oracle buscó US$ 38 000 millones en préstamos para financiar dos centros de datos.

Los inversores dicen haber notado un mayor riesgo de crédito sólo después de que se anunciaran los préstamos, lo que provocó la caída de los precios de los bonos y la subida de los tipos de interés. La alegación central de la demanda es que los ejecutivos de Oracle -incluidos Larry Ellison y Safra Catz- hicieron declaraciones falsas o engañosas en los documentos de oferta de la deuda vendida en septiembre.

La brutal matemática de la infraestructura de IA

Este caso expone algo de lo que poca gente habla abiertamente: La infraestructura de IA es absurdamente cara, y muchas empresas lo están descubriendo demasiado tarde.

Contratos como el de Oracle con OpenAI parecen garantías de ingresos futuros, pero van acompañados de obligaciones de capital monumental. Los centros de datos avanzados para la IA no son almacenes con servidores viejos. Son instalaciones que lo exigen:

  • Chips de última generación (H200 de Nvidia, MI325X de AMD) que cuestan decenas de miles de dólares por unidad.
  • Sistemas de refrigeración industriales capaces de disipar el calor de miles de GPU funcionando simultáneamente.
  • Conexiones eléctricas específicas: algunas instalaciones consumen tanta electricidad como ciudades pequeñas.
  • Infraestructura de red de muy baja latencia para interconectar clústeres

Cuando Trump impone aranceles de 25% a los chips de IA - concretamente el H200 de Nvidia y el MI325X de AMD- añadía otra capa de costes y complejidad. Aunque el alcance de la medida es limitado (no se aplica a los chips destinados a centros de datos estadounidenses, empresas de nueva creación o consumo general), señala un cambio estratégico: Estados Unidos quiere incentivar la fabricación nacional de semiconductores, pero a costa de presionar aún más los márgenes de las empresas que dependen de estas tecnologías.

El caso Oracle nos lo recuerda: La carrera de la IA no es sólo una carrera tecnológica. Es una carrera por el capital, la energía y la infraestructura física..

Elon Musk: los electricistas y fontaneros serán los millonarios del futuro

Hablando de infraestructuras, Elon Musk hizo una predicción que, a primera vista, parece irónica, pero que tiene mucho sentido cuando se entienden las matemáticas que hay detrás de la IA. Según informa hardware.com.br, Musk declaró que electricistas y fontaneros serán los millonarios del futuro, mientras que los empleos digitales concentrados en los ordenadores serán rápidamente sustituidos por la IA.

Jensen Huang, Consejero Delegado de Nvidia, validó la previsión, indicando un auge del trabajo físico especializado. Larry Fink, de BlackRock, advirtió sobre la escasez de mano de obra cualificada - especialmente electricistas- necesarios para construir la infraestructura física de la IA. Huang animó a los jóvenes a centrarse en oficios manuales como electricistas y fontaneros, que construirán la infraestructura necesaria para los centros de datos de IA, un mercado diseñado por McKinsey para llegar al futuro. US$ 7 billones en 2030.

Por qué esta previsión tiene sentido

Musk no está bromeando. Está leyendo la realidad material de la IA. Mientras la narrativa pública se centra en modelos lingüísticos, agentes autónomos e interfaces conversacionales, la verdadera batalla se libra entre bastidores: ¿Quién podrá construir, alimentar y refrigerar los centros de datos necesarios para entrenar y hacer funcionar estos modelos a gran escala?

Piénsalo: cada gran modelo lingüístico requiere miles de GPU funcionando 24/7 durante meses. Cada interacción con un chatbot consume energía. Cada agente autónomo que procesa tareas en segundo plano añade carga a la red eléctrica. Cómo Trump advirtió a través de Truth Social, Las empresas de tecnología de IA deben asumir plenamente sus propios costes de consumo de energía para evitar presionar a la red eléctrica nacional y aumentar las tarifas residenciales.

La expansión de la IA ya ha provocado sobrecargas de electricidad en los estados de EE.UU. con una alta concentración de servidores, con picos de precios de hasta 1.000 millones de euros. 36%. Importantes consejeros delegados, como Mark Zuckerberg, de Meta, ya han advertido de que la energía es el mayor obstáculo para el crecimiento de la inteligencia artificial.

La tendencia es clara: el sector privado se verá obligado a invertir en su propia generación de energía, ya sea mediante pequeños reactores nucleares modulares (SMR), parques solares dedicados o generadores de gas natural. ¿Y quién instalará, operará y mantendrá todo esto? Electricistas, fontaneros, técnicos de refrigeración industrial, ingenieros de construcción.

Musk describió la IA como un “tsunami supersónico”. Pero los tsunamis no se producen en el aire. Requieren agua, tierra y fuerza física. Del mismo modo, la IA no se produce simplemente en el código. Requiere infraestructura material, sudor, trabajo físico especializado.

Grok, Deepfakes y la crisis mundial de rendición de cuentas

Mientras Musk habla del futuro de los electricistas, el chatbot de su propia empresa -Grok, de la red X- está en el centro de una crisis mundial de responsabilidad. Según ISTOÉ DINHEIRO, la plataforma X anunció medidas para poner fin a la generación de deepfakes por parte de Grok, a raíz de las críticas mundiales que afectan a mujeres y niños.

X aplicará geobloqueo de la posibilidad de crear imágenes de personas con ropa reveladora (como bikinis) en jurisdicciones donde esto es ilegal. La restricción se aplica a todos los usuarios, incluidos los suscriptores de pago. El anuncio se produjo después de que el fiscal general de California, Rob Bonta, iniciara una investigación sobre la empresa de IA xAI de Musk.

Anteriormente, X había limitado la funcionalidad únicamente a los abonados de pago, una medida criticada internacionalmente por el Primer Ministro británico, Keir Starmer, y la Presidenta de la Comisión Europea, Ursula von der Leyen, por considerarla una "trampa". “afrenta a las víctimas”.

Un análisis de Inteligencia Artificial reveló que en más de 20.000 imágenes generadas por Grok, más de la mitad mostraban a personas con poca ropa (81% mujeres, 2% menores). La indignación internacional llevó a Indonesia y Malasia a suspender el acceso a Grok, y el regulador británico ha abierto un investigación formal contra X.

La defensa de Musk y el verdadero problema

Según informa G1, Elon Musk defendió a Grok, afirmando que no tenía conocimiento de imágenes de menores generadas por la IA. Musk afirmó que Grok se niega a generar contenidos ilegales porque su principio de funcionamiento es obedecer la ley, y sugirió que se han producido fallos debido a “ataques de usuarios en el prompt”.

A pesar de la defensa de Musk, el propio Grok admitió fallos en los mecanismos de protección que dio lugar a la generación de imágenes sexualizadas de menores a principios de enero.

He aquí el problema: Los sistemas de IA no tienen “intención”. Tienen objetivos de optimización. Si el objetivo es generar una imagen que coincida con la indicación del usuario, y si las barreras de protección son insuficientes, el sistema generará la imagen, no porque quiera causar daño, sino porque ha sido entrenado para predecir los píxeles que coinciden con el texto.

La responsabilidad no recae en la IA. Es de quienes la diseñan, la entrenan, la despliegan y la ponen a disposición del público. Cuando se pone a disposición del público una herramienta de tratamiento de imágenes con barreras débiles -o, peor aún, cuando se cobra por saltarse esas barreras, como hizo X inicialmente al limitar ciertas funciones a los usuarios de pago-, se está dando prioridad a los ingresos frente a la seguridad.

Jensen Huang, consejero delegado de Nvidia, criticó recientemente la “narrativa del fin del mundo” sobre la IA, Argumenta que este pesimismo está ahuyentando a los inversores y obstaculizando el desarrollo de tecnologías más seguras. Tiene razón: el alarmismo exagerado puede paralizar la innovación responsable.

Pero el caso de Grok no es alarmismo. Es un ejemplo concreto de cómo la falta de responsabilidad técnica y ética puede causar daños reales y cuantificables a personas reales. En YouTube, más de 20% de la alimentación ya es “slop” (contenido basura generado por la IA). En las redes sociales proliferan los deepfakes sexualizados. En entornos corporativos, los ejecutivos toman decisiones basándose en informes generados por IA que citan fuentes inventadas.

La cuestión no es si la IA transformará el mundo. Ya lo está haciendo. La cuestión es: ¿estamos construyendo las barreras necesarias a la misma velocidad que construimos las herramientas?

¿Puede la IA crear nuevas ideas o sólo repetir las antiguas?

En medio de esta tensión entre promesa y riesgo, merece la pena analizar un debate más profundo: ¿puede la IA crear realmente nuevos conocimientos, o se limita a recombinar lo que ya existe?

Según informa Folha de S.Paulo (The New York Times), El debate se reavivó después de que la startup Harmonic utilizara el GPT-5.2 Pro (OpenAI) para ayudar a resolver un “problema de Erdos”, complejos retos matemáticos propuestos por el legendario matemático Paul Erdős.

Críticos como Terence Tao, uno de los más grandes matemáticos vivos, sostienen que la IA es como un “estudiante inteligente que ha memorizado todo”, Es una forma de simular la comprensión sin generar auténtica brillantez. Sin embargo, la IA ya está demostrando ser una herramienta poderosa: sistemas recientes sugieren hipótesis y experimentos que los científicos no habían considerado, acelerar la investigación.

Aunque GPT-5 presumía inicialmente de resolver 10 problemas de Erdős (lo que se corrigió cuando se identificó que muchas de las soluciones ya existían), la tecnología demuestra su valor real al analizar grandes cantidades de datos y referencias olvidadas -como un artículo alemán encontrado por Thomas Bloom en el que nadie más había reparado-.

La IA como amplificador, no como sustituto

Mi posición al respecto es pragmática. AI, actualmente amplifica al investigador, pero sigue necesitando la experiencia humana para guiar y filtrar los resultados. No sustituye a la intuición matemática de un Terence Tao, pero puede ayudarle a explorar más rápidamente callejones sin salida o a encontrar conexiones oscuras en literatura dispersa.

En mi trabajo con start-ups y grandes empresas, veo esta dinámica todos los días. Los ejecutivos me preguntan: “Felipe, ¿la IA va a sustituir a nuestros analistas?”. Mi respuesta: no buenos analistas. Sustituirá a quienes sólo recopilan información sin cuestionar, sin contextualizar, sin validar.

Los analistas que sobrevivan -y prosperen- serán los que dominen la “codificación vibrante”, un término propuesto por Alexandr Wang, director del laboratorio de IA de Meta. Según informa Xataka Brasil, Wang recomienda a la Generación Z que dedique todo su tiempo a practicar “codificación de vibraciones” - Es decir, hablar con los modelos de IA, explicarles con precisión (en lenguaje natural) el resultado deseado y supervisar la salida del código generado.

El futuro de la programación, según Wang, no está en dominar lenguajes específicos (Python, JavaScript), sino en dominar el arte de comunicarse con la IA y validar lo que produce.

No es pereza intelectual. Es un cambio de capa. En lugar de pasar horas escribiendo código boilerplate (código repetitivo y estructural), pasas horas refinando la lógica, validando hipótesis, asegurándote de que el sistema final resuelve el problema real del usuario.

Lo que este momento exige de ti

Estas 24 horas revelan algo fundamental: La IA se está adoptando a gran escala antes de resolver problemas básicos de fiabilidad, ética y responsabilidad. Eso no significa que debamos detenernos. Significa que debemos navegar con los ojos abiertos.

Estos son los principios que aplico en mi trabajo con empresas y gobiernos, y que usted puede aplicar ahora:

1. Nunca confíes ciegamente en los resultados de la IA

El experimento de Jean-Hugues Roy lo dejó muy claro: sólo 37% de las respuestas de AI proporcionaron URL válidas. Si utiliza IA para generar informes, resúmenes o análisis, establezca un proceso de validación humana. Cada afirmación, cada cifra, cada fuente debe ser verificada.

2. Comprender los costes reales de la infraestructura de IA

Si usted es un ejecutivo o empresario que está considerando invertir en IA, vaya más allá de la factura de la API. Pregunte por los costes de computación, almacenamiento, energía, latencia y cumplimiento normativo. El caso de Oracle es un recordatorio: Los contratos de IA pueden conllevar obligaciones de capital monumentales.

3. Invertir en barreras técnicas y éticas

Si está desarrollando o implantando sistemas de IA, dé prioridad a la seguridad desde el diseño. No esperes a que los medios internacionales investiguen tu herramienta para descubrir que genera deepfakes de menores. Realice pruebas contradictorias. Anticipe los abusos. Establezca límites sólidos.

4. Desarrollar la alfabetización en IA, no sólo su uso

“La codificación de vibraciones es una habilidad importante, pero no es suficiente. Hay que entender cómo funcionan los modelos, cuáles son sus limitaciones, dónde tienden a fallar. Esto no requiere un doctorado en aprendizaje automático, pero sí curiosidad y rigor intelectual.

5. Reconocer el valor del trabajo físico especializado

La predicción de Musk sobre electricistas y fontaneros no es una broma. Es una estrategia. Tanto si eres un joven que elige una carrera como si diriges una empresa que depende de infraestructuras físicas, invertir en profesiones especializadas que construyan, mantengan y exploten sistemas reales. La IA puede escribir código, pero no instalar un transformador de 500 kVA en un centro de datos.

El futuro que estamos construyendo

Me niego a ser alarmista. Pero también me niego a ser ingenuo. La IA está transformando el mundo más rápidamente que ninguna otra tecnología anterior. Esta transformación trae consigo oportunidades monumentales -desde diagnósticos médicos más precisos hasta la aceleración de la investigación científica-, pero también riesgos monumentales: desinformación a gran escala, concentración de poder, erosión de la privacidad, daños a personas reales.

Lo que me hace ser optimista no es la tecnología en sí. Es la capacidad humana de aprender, adaptarse y construir instituciones que canalicen el poder de la tecnología para el bien común. Pero esto no sucede automáticamente. Requiere elecciones conscientes, liderazgo responsable e inversión deliberada en barreras técnicas, éticas y reglamentarias.

En Brasil tenemos una oportunidad única. Podemos aprender de los errores de otros mercados - como el caso Grok, o la crisis de fiabilidad expuesta por el experimento canadiense - y construir ecosistemas de IA que den prioridad a la transparencia, la verificabilidad y la rendición de cuentas desde el principio.

La encuesta IMD ABRAPE | Peppow 2025/2026 sobre el sector de eventos en Brasil, según Meio & Mensagem, muestra que 79,7% de los profesionales declaran estar familiarizados con la IA, Pero su uso es restringido. La tecnología se aplica sobre todo a la creación de contenidos (textos, imágenes), pero se utiliza poco en la gestión financiera (margen, tesorería), que sigue dependiendo de hojas de cálculo inconexas.

Esto ilustra perfectamente dónde estamos: alta adopción superficial, baja integración profunda. La madurez llegará cuando la IA deje de ser una herramienta de productividad puntual y pase a formar parte de la infraestructura operativa, pero para ello se necesitan datos estructurados, procesos organizados y una gobernanza clara.

Cómo actuar ahora

Si eres ejecutivo, empresario o jefe de equipo, aquí tienes acciones concretas que puedes emprender hoy mismo:

  • Audite cómo utiliza su organización la IA. Identificar dónde se consumen los resultados de la IA sin validación humana e instituir procesos de verificación.
  • Calcular los costes reales de las infraestructuras. Si tiene previsto ampliar el uso de la IA, vaya más allá de la cuenta API. Considere la informática, la energía, el cumplimiento, la formación del personal.
  • Invertir en alfabetización en IA. No sólo formación sobre herramientas, sino también sobre cómo funcionan los modelos, cuáles son sus limitaciones y cómo validar los resultados.
  • Construir barandillas desde cero. Si está desarrollando productos con IA, dé prioridad a la seguridad, la privacidad y la responsabilidad desde el principio, no como una solución posterior.
  • Reconocer y valorar el trabajo físico especializado. Si su infraestructura de IA depende de centros de datos, energía o redes, invierta en las personas que construyen, mantienen y operan estos sistemas.

En mi programa de tutoría, ayudo a ejecutivos y empresas a navegar exactamente por estas tensiones: cómo adoptar la IA de forma responsable, cómo crear capacidad interna, cómo evitar las trampas de la exageración y centrarse en el impacto real. Si estás liderando la transformación digital en tu organización y quieres construir con claridad y propósito, hablemos.

La IA no es una fuerza inevitable que nos sucede. Es una tecnología que estamos construyendo, desplegando y gobernando. Las decisiones que tomemos hoy -sobre transparencia, responsabilidad, inversión en infraestructura física y moral- definirán si la IA será una herramienta para el progreso compartido o para la concentración de poder y el daño..

Estas 24 horas nos han mostrado las dos caras de la moneda: la fragilidad de la información, los costes ocultos, las crisis de responsabilidad... pero también el potencial para amplificar la capacidad humana, acelerar la investigación y construir infraestructuras reales para el futuro.

¿Qué bando elegiremos?


✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.

➡️ Accede a la Comunidad 10K aquí


ARTÍCULOS RELACIONADOS

Ver todo

ver todo