Google invierte mucho en IA para empresas mientras Deloitte devuelve 1,5 millones de R$ por errores: por qué esta paradoja define el momento de la madurez responsable
10 de octubre de 2025 | por Matos AI

Las últimas 24 horas han traído un fascinante contraste en la escena de la inteligencia artificial en Brasil y en todo el mundo. Mientras que Google lanza Gemini Enterprise, una sólida plataforma de IA para empresas con precios a partir de US$ 21 por usuario, el Deloitte tuvo que devolver US$ 440 mil al gobierno australiano por errores graves en un informe generado por IA.
Esta paradoja no es casual. Vivimos el momento más crítico de la inteligencia artificial: la transición de la experimentación a la aplicación responsable y sostenible.
El día que definió la madurez de la IA
Ayer fue uno de esos días que marcan una época en la historia de la tecnología. No por los grandes anuncios -aunque Google hizo algunos importantes-, sino por la claridad con la que quedó claro en qué punto del camino de la inteligencia artificial nos encontramos.
¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.
- IA para empresas:centrándose en el negocio y la estrategia.
- Creadores de IA:con un enfoque más técnico y práctico.
Por un lado, tenemos innovaciones impresionantes que llegan al mercado. O Gemini 2.5 Uso del ordenador puede navegar literalmente por la web por ti, haciendo clic, tecleando y realizando tareas complejas. O Google AI Plus de R$ 24.99 democratiza el acceso a herramientas avanzadas de IA generativa.
Por otro lado, vemos que los riesgos se materializan de forma concreta: desde el golpe de rezo que recaudó R$ 3 millones utilizando IA para generar oraciones falsas, Incluso las grandes consultoras están perdiendo credibilidad por confiar demasiado en los algoritmos.
La paradoja de la adopción acelerada
Las cifras revelan una realidad intrigante. El uso de la IA entre los investigadores pasó de 57% a 84% en sólo un año. Al mismo tiempo, la preocupación por las “alucinaciones” y las imprecisiones aumentó de 51% a 64%.
Esto no es una paradoja, es madurez.
En mi experiencia de apoyo al desarrollo de ecosistemas de innovación, siempre he observado que las tecnologías más transformadoras pasan por esta fase: un uso creciente acompañado de una mayor conciencia de las limitaciones.
La diferencia ahora es la velocidad. Estamos comprimiendo ciclos que normalmente durarían décadas en años o incluso meses.
Lecciones del fracaso de Deloitte
El caso Deloitte es un hito. Una de las mayores consultoras mundiales tuvo que devolver 440.000 US$ por elaborar un informe oficial con información inventada por la IA. Incluso después de una revisión humana, los errores persistían.
No se trata de un fallo tecnológico. Se trata del proceso.
La IA no falló: hizo exactamente aquello para lo que estaba programada: generar un texto que sonara verosímil. Lo que falló fue la supervisión humana, la validación crítica, los puntos de control de calidad.
En mi trabajo con empresas, siempre hago hincapié: La IA no consiste en sustituir a los humanos, sino en ampliar sus capacidades. Cuando intentamos saltarnos este paso, pagamos el precio, literalmente, en el caso de Deloitte.
Los tres pilares del uso responsable
Por lo que observo en las organizaciones con las que trabajo, he identificado tres pilares fundamentales para el uso responsable de la IA:
- Transparencia: Indique siempre cuándo y cómo se utilizó la IA
- Validación: Establecer controles humanos obligatorios
- Responsabilidad: Mantener la responsabilidad humana sobre los resultados finales
Brasil, a la vanguardia de la educación en IA
Mientras vemos casos negativos a escala internacional, Brasil está dando pasos consistentes en la dirección correcta. O El MEC abre una consulta pública sobre el uso ético de la IA en la educación, y el La CAPES se amplía a 40.000 plazas su curso gratuito de IA para educadores.
Este planteamiento -una amplia consulta a la sociedad antes de la aplicación- es exactamente lo que diferencia la adopción responsable de la experimentación arriesgada.
El énfasis en la educación es estratégico. De nada sirve disponer de herramientas potentes si no contamos con personas preparadas para utilizarlas de forma crítica y responsable.
Democratización real en marcha
El lanzamiento de Google AI Plus por R$ 24,99 al mes marca un momento histórico: IA avanzada al alcance de cualquier profesional brasileño. Con 200 GB de almacenamiento e integración con herramientas cotidianas, es un precio que democratiza el acceso.
Pero la democratización conlleva responsabilidad. Los candidatos ya intentan engañar a los sistemas de IA en la selección de personal, creando una carrera armamentística entre algoritmos y personas que intentan sortearlos.
Este fenómeno me recuerda a los primeros tiempos de Internet, cuando proliferaban el spam y las técnicas SEO maliciosas. La solución no era menos tecnología, sino más educación y buenas prácticas.
El momento del Test de Turing
No es casualidad que el Test de Turing vuelve al debate exactamente ahora. ChatGPT-4.5 ya consigue engañar a los humanos en 73% de las interacciones, pero eso importa menos de lo que pensábamos.
La verdadera prueba no es si la IA puede engañarnos, sino si podemos utilizarla de forma que añada valor genuino sin sustituir el juicio humano allí donde sea esencial.
Tres tendencias que definen el futuro
Basándome en lo que he observado en las últimas 24 horas, veo que están surgiendo tres tendencias claras:
1. Regulación proactiva
El hecho de que el MEC tome la iniciativa con una consulta pública demuestra que Brasil está aprendiendo de los errores de otros. No esperamos a que surjan problemas para regular: estamos estableciendo directrices antes de su adopción masiva.
2. La IA como herramienta, no como oráculo
El caso de Deloitte se convertirá en un caso de estudio. Las empresas serias se están dando cuenta de que la IA funciona mejor como asistente experto que como sustituto del pensamiento crítico.
3. Democratización con educación
Los precios asequibles combinados con programas de formación masiva indican que estamos dando prioridad a la adopción responsable frente a la rápida.
Por qué este momento es histórico
Vivimos la primera generación de una tecnología que nos obliga a redefinir nuestra relación con la información, la creatividad y el trabajo en tiempo real.
A diferencia de revoluciones anteriores -Internet, móviles, redes sociales-, la IA no sólo cuestiona cómo hacemos las cosas, sino cómo validamos que son correctas.
La estafa de la oración utilizando IA para engañar a personas vulnerables es sólo la punta del iceberg. Cuando los algoritmos pueden generar contenidos indistinguibles de los humanos, nuestra relación con la verdad y la confianza cambia radicalmente.
Pero esto no es motivo para desesperar: es una invitación a la responsabilidad.
Qué hacer ahora
Si eres líder, directivo o empresario, de este momento surgen tres acciones concretas:
En primer lugar: Establezca políticas claras sobre el uso de la IA en su organización. No puede ser “todo vale” o “todo está prohibido”. Tiene que ser “cómo utilizarla bien”.
Segundo: Invierta en formación antes que en herramientas. Un equipo preparado con herramientas sencillas aporta más valor que un equipo no preparado con herramientas sofisticadas.
Tercero: Participe en el debate público. La consulta del MEC es sólo el principio. Las empresas y los profesionales deben compartir las lecciones aprendidas para construir colectivamente mejores prácticas.
El futuro se escribe ahora
En los próximos 12 meses, las decisiones que tomemos sobre cómo utilizar la IA definirán si se convierte en un aliado o en un problema para nuestra sociedad.
La tecnología está lista. Las herramientas están disponibles. Los precios son asequibles.
Lo que falta es la sabiduría colectiva para utilizarlos bien.
En mis tutorías a ejecutivos y en los cursos de inmersión que desarrollo, he observado una auténtica necesidad de orientación práctica sobre la IA. No solo “cómo usarla”, sino “cómo usarla bien, cómo usarla de forma responsable, cómo usarla de forma que genere valor real”.
Porque, al fin y al cabo, el futuro de la inteligencia artificial no lo determinarán los algoritmos, sino la inteligencia humana que los guíe.
Y ese futuro se está escribiendo en las decisiones que tomamos hoy.
✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.
➡️ Accede a la Comunidad 10K aquí
ARTÍCULOS RELACIONADOS
Ver todo
