El CEO de Microsoft advierte de la ‘psicosis de la IA’ ante el fracaso del 95% de los proyectos corporativos - Por qué esto define el momento más crítico de la adopción responsable
23 de agosto de 2025 | por Matos AI

La advertencia salió directamente del corazón de Microsoft: Mustafa Suleyman, director general de IA del gigante tecnológico, ha definido oficialmente un nuevo fenómeno denominado “psicosis de la IA” - usuarios que proyectan la conciencia y las emociones humanas en los chatbots, desarrollando delirios, manías e incluso paranoia. Al mismo tiempo, un estudio del MIT revela que 95% de los intentos de adopción de la IA por parte de las empresas no logran generar un impacto financiero mensurable.
No es casualidad que estas dos advertencias se produzcan al mismo tiempo. Revelan las caras opuestas de una misma moneda: mientras algunos usuarios crean peligrosos vínculos emocionales con la IA, la mayoría de las empresas siguen siendo incapaces de extraerle un valor real.
La inquietante realidad de la “psicosis de la IA”
Cuando hablamos de “Psicosis asociada a la IA”, No estamos ante un problema marginal. Los psiquiatras ya han informado de casos de hospitalización por psicosis tras interacciones prolongadas con la IA., El fenómeno incluye casos de autolesiones e incluso muertes asociadas a la dependencia obsesiva de estas herramientas.
¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.
- IA para empresas:centrándose en el negocio y la estrategia.
- Creadores de IA:con un enfoque más técnico y práctico.
¿Lo más preocupante? Uno de cada 10 brasileños ya utiliza chatbots para desahogarse. Y no hablamos sólo de personas en situación de vulnerabilidad: cualquier usuario puede verse afectado.
El problema tiene claras raíces técnicas:
- Sesgo de confirmación turboalimentado: los modelos dan constantemente la razón y halagan a los usuarios
- Producción de información falsa: presentado con absoluta confianza
- Interacción hiperrealista: que imita convincentemente la empatía humana
- Antropomorfización: los usuarios atribuyen conciencia donde no existe
En mi experiencia ayudando a las empresas a implantar la IA, me doy cuenta de que la falta de educación sobre estos riesgos es uno de los mayores obstáculos para una adopción responsable.
El MIT revela el fracaso empresarial
Mientras algunos usuarios desarrollan dependencias peligrosas, el mundo empresarial se enfrenta al extremo opuesto: 95% de los intentos de adopción de la IA por parte de las empresas no logran generar un impacto financiero mensurable..
El estudio del MIT es brutal en sus conclusiones: proyectos populares como ChatGPT y Microsoft Copilot muestran limitaciones técnicas fundamentales -. falta de aprendizaje a partir de la retroalimentación e incapacidad para adaptarse al contexto. Funcionan más como apoyo individual que como transformación estructural.
La realidad es que estamos invirtiendo miles de millones en una tecnología que aún no sabemos cómo utilizar eficazmente. Las investigaciones sugieren que la IA podría generar 6 billones de dólares para la economía mundial en 2030, pero solo “si se produce una aceleración sustancial de la productividad”, algo que aún no hemos visto.
Los avances técnicos que podrían cambiarlo todo
No todo son malas noticias. Google ha anunciado una reducción de 97% en el consumo de energía por pregunta Gemini - Sorprendentemente, cada pregunta consume ahora sólo 0,24 Wh, lo que equivale a 9 segundos de televisión.
Este avance en la eficiencia energética es crucial para la sostenibilidad de la IA a escala mundial. Incluso cuando el volumen de procesamiento se dispara en 4,947% en un año, alcanzando cientos de billones de tokens al mes, la huella energética es cada vez más manejable.
Al mismo tiempo, Apple estudia integrar Gemini de Google en un rediseño de Siri, Esta es una señal de que incluso los gigantes que dan prioridad al desarrollo interno reconocen la necesidad de asociaciones estratégicas en IA.
Brasil, a la vanguardia de la gobernanza responsable
Mientras el mundo debate los riesgos de la IA, Brasil toma medidas prácticas. El Senado Federal crea el Programa ApoIA, que establece directrices éticas para el uso de la IA en sus actividades..
Las normas son claras y sensatas:
- Las decisiones de la IA deben ser revisadas por humanos responsables
- Prohibición de introducir datos personales o sensibles
- Vigilancia permanente de los riesgos de seguridad
- Cumplimiento de la LGPD
Esto sitúa al Senado como referencia de la gobernanza de la IA en el sector público, algo que deberían seguir otras instituciones.
Nokia también considera estratégico Brasil para convertirse en un centro soberano de IA, Es la primera vez que podemos ofrecer una gama tan amplia de servicios, destacando nuestras ventajas en energías renovables, talento tecnológico e infraestructuras distribuidas.
Riesgos emergentes que debemos vigilar
Las advertencias no acaban ahí. Ya están apareciendo estafas telefónicas que utilizan los resultados generados por la IA de Google para mostrar números falsos, Esto demuestra cómo la democratización de la IA puede facilitar fraudes sofisticados.
Un estudio realizado entre más de mil ingenieros reveló otro problema: los profesionales que utilizan IA son considerados menos competentes, aunque sean de igual calidad. Este “coste invisible” es especialmente pronunciado en el caso de las mujeres.
E TikTok podría eliminar cientos de puestos de moderador humano, sustituyéndolos por IA - una tendencia que plantea interrogantes sobre la calidad de la moderación y el impacto en el empleo.
La paradoja de la adopción: entre la exageración y la realidad
Está surgiendo una paradoja fascinante. Las agencias de marketing informan de que, a pesar de la reducción del tráfico en los sitios web debido a la búsqueda de IA, las tasas de conversión se mantienen estables o crecen.
Esto sugiere que la IA es filtrado de consumidores, ofreciendo más clientes potenciales cualificados. Es una señal de que, bien aplicada, la tecnología puede generar valor real, incluso de forma inesperada.
Al mismo tiempo, Paul Krugman advierte de los riesgos de una recesión mundial causadas por las limitaciones de la infraestructura energética para apoyar las inversiones en centros de datos. Es un recordatorio de que el crecimiento desenfrenado sin una planificación sostenible puede tener graves consecuencias económicas.
Construir IA para las personas, no para ser personas
La cita de Mustafa Suleyman lo resume todo: “Debemos construir la IA para las personas; no para ser una persona”.
En más de dos décadas ayudando a empresas a navegar por transformaciones tecnológicas, he aprendido que el éxito depende siempre de tres pilares fundamentales:
- Educación y sensibilización: equipos que comprendan tanto las oportunidades como los riesgos
- Aplicación gradual y responsable: empezar poco a poco, medir los resultados, iterar
- Una gobernanza clara: normas, responsabilidades y supervisión humana
El momento actual de la IA exige madurez. No podemos caer en la exageración desenfrenada ni en un pesimismo paralizante. Necesitamos un enfoque equilibrado que reconozca tanto el potencial transformador como los riesgos reales.
El camino a seguir
Las noticias de las últimas 24 horas dibujan un panorama complejo: tenemos advertencias sobre adicción psicológica, fracasos masivos de empresas, avances técnicos impresionantes, regulación responsable y riesgos emergentes. Todo ello simultáneamente.
Esto no es un caos: es el reflejo de una tecnología en rápida evolución que aún estamos aprendiendo a utilizar. Lo importante es no dejarse llevar por los extremos.
Para las empresas, la lección está clara: antes de implantar la IA, hay que invertir en educación y gobernanza. Comprenda los riesgos, comience con casos de uso específicos y mensurables, y mantenga siempre la supervisión humana.
Para los profesionales, el mensaje es doble: aprender a utilizar la IA como herramienta, pero sin perder de vista sus límites. Y estar preparados para posibles sesgos de evaluación en el mercado laboral.
Para los usuarios individuales, la concienciación es clave. Los chatbots no son amigos, terapeutas o confidentes. Son herramientas sofisticadas que pueden simular empatía, pero no la poseen.
El futuro de la IA vendrá determinado por las decisiones que tomemos ahora sobre cómo desarrollarla, regularla y utilizarla. Es un momento de responsabilidad colectiva que definirá si esta tecnología será una fuerza para el bien o una fuente de profundos problemas sociales.
En mi trabajo de tutoría, ayudo a líderes y empresas a superar exactamente estos retos: convertir el potencial de la IA en valor real, de forma responsable y sostenible. Porque, al fin y al cabo, no se trata solo de tecnología. Se trata de construir un futuro en el que la inteligencia artificial amplifique lo mejor de la humanidad, sin sustituir lo que nos hace humanos.
✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.
➡️ Accede a la Comunidad 10K aquí
ARTÍCULOS RELACIONADOS
Ver todo
