Blog Felipe Matos

La IA de Bane de DC Comics ‘nunca’ mientras Fortress multa a la basura con reconocimiento facial - Por qué estas 24 horas revelan la tensión entre autenticidad y control

22 de diciembre de 2025 | por Matos AI

io3tdc5gEDe0nJ6Dk0K6r_2a094005de404517a78f726ac599ab7c

En las últimas 24 horas, he seguido noticias que parecían venir de universos paralelos: DC Comics declarando la guerra total a la IA en sus cómics, mientras el Ayuntamiento de Fortaleza anuncia multas automáticas mediante reconocimiento facial para quienes tiren basura en la calle. Entre estos extremos, hemos asistido a debates sobre deepfakes electorales, directivos sustituidos por algoritmos e incluso poesía que engaña a los filtros de seguridad.

¿Qué revelan estas historias aparentemente inconexas? Una tensión fundamental que define nuestro momento: la lucha entre la autenticidad humana y la eficacia automatizada, entre la libertad creativa y el control algorítmico. Y esta tensión no se está produciendo en un futuro lejano, sino que está aquí y ahora, influyendo en todo, desde los cómics que leemos hasta la forma en que nuestras ciudades nos vigilan.

Sumerjámonos en este complejo panorama y comprendamos lo que significa para las empresas, los gobiernos y los profesionales de Brasil.


¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.


El grito de guerra de DC Comics: la autenticidad como estrategia de supervivencia

“DC no apoyará la narración o el arte creado por IA. Ni ahora. Nunca”. Esta declaración de Jim Lee, presidente de DC Comics, en la pasada NY Comic Con, según informa Poder360, es una de las apuestas más audaces -o arriesgadas- que he visto hacer a una gran empresa en el campo de la IA.

Mientras Marvel ve la IA como “peligrosa pero divertida”, DC está trazando una línea en la arena. ¿Por qué? La respuesta está en la economía de la propiedad intelectual: las obras creadas por IA no pueden estar plenamente protegidas por los derechos de autor. Para una empresa cuyos personajes más emblemáticos están pasando a ser de dominio público, no se trata de filosofía, sino de supervivencia financiera.

El mercado estadounidense del cómic facturó 2.300 millones de dólares en 2024. DC apuesta por convertirse en el “vinilo premium” del sector, una marca de lujo en la que la autenticidad humana justifique un precio más elevado. Pero hay un problema con la investigación citada: mientras que 68% de los lectores tradicionales valoran la autenticidad, los lectores más jóvenes (menores de 25 años) no distinguen o no les importa el uso de la IA.

Lo que esto nos enseña sobre posicionamiento

La decisión de DC ilustra algo de lo que hablo a menudo en mi trabajo con las empresas: la autenticidad puede ser una poderosa estrategia competitiva, pero sólo si sabes a quién te diriges. DC está haciendo una apuesta generacional: sacrificar potencialmente el alcance futuro para proteger hoy el valor de la propiedad intelectual.

Para las empresas brasileñas, la lección no es copiar DC, sino entender la pregunta a la que está respondiendo: ¿cuál es su activo más valioso que la IA no puede replicar? ¿Son las relaciones con los clientes? ¿El conocimiento contextual profundo? ¿La creatividad genuinamente humana? Identifíquelo y tendrá su estrategia.

Mientras tanto, en 2026: la IA podría desencadenar un nuevo choque de poderes

Si DC lucha por la autenticidad creativa, Brasil lo hace por la integridad democrática. El Correio Braziliense informa que la falta de un marco regulador consolidado de la IA para finales de 2025 corre el riesgo de desencadenar conflictos entre el poder legislativo y el judicial en las elecciones de 2026.

El escenario es preocupante: sin una ley clara, el TSE podría verse obligado a regular por su cuenta, ocupando un espacio que debería pertenecer al Congreso. El principio de anualidad electoral (fecha límite: 4 de octubre de 2025) hace improbable que un marco global esté listo a tiempo.

El TSE ya ha prohibido los deepfakes en las elecciones de 2024, pero los expertos advierten de que la falta de una regulación detallada crea un peligroso vacío normativo. La IA generativa puede crear deepfakes y manipular narrativas a escala industrial, y lo estamos viendo en tiempo real.

El caso de la ‘monja coen de la IA’

Un ejemplo concreto salió a la luz cuando los tribunales de São Paulo ordenaron la retirada de un perfil de TikTok que utilizaba IA para simular la voz y la imagen de la monja Coen, promocionando la astrología (completamente ajena a su doctrina budista) y vendiendo libros. El perfil tenía más de 4 millones de seguidores.

Lo que me preocupa no es solo el deepfake en sí, sino el fallo sistémico: TikTok no retiró el contenido ni siquiera tras las denuncias, lo que requirió una orden judicial. Cuántos votantes podrían ser engañados por perfiles similares en 2026 antes de que intervengan los tribunales?

Este es el tipo de escenario que quita el sueño a los expertos en democracia digital. Y, francamente, también debería preocuparnos a nosotros.

Fortress utilizará IA para multar a los que tiran la basura: ¿eficiencia o distopía?

Pasemos ahora a un uso completamente distinto de la IA: Fortaleza pondrá en marcha el proyecto “Eco VigIA” a partir de marzo de 2026, utilizando el reconocimiento facial y de matrículas para aplicar multas automáticas a quienes tiren la basura en zonas prohibidas.

En 2024, la ciudad contaba con unos 1.200 vertederos crónicos. El alcalde Evandro Leitão fue directo: “depende del bolsillo de la gente” cambiar el comportamiento. Las multas oscilan entre 202,50 y 32.400 R$.

La cuestión no es si funciona, sino a qué precio

Entiendo la frustración de los gestores públicos ante problemas crónicos que la educación por sí sola no puede resolver. Fortaleza no es la primera ciudad que lo intenta: varias ciudades chinas llevan años haciéndolo. Y funciona, en un sentido técnico.

Pero aquí está mi preocupación: ¿estamos normalizando la vigilancia ubicua como solución por defecto a los problemas de comportamiento de los ciudadanos? El reconocimiento facial masivo tiene profundas implicaciones para la privacidad y las libertades civiles. Una vez creada la infraestructura “para siempre”, puede reutilizarse para fines menos nobles.

En mi trabajo con los gobiernos, siempre hago hincapié en la importancia de tener en cuenta no sólo la eficacia inmediata, sino los precedentes que sentamos. La pregunta no es “¿podemos utilizar la IA para resolver esto?”, sino “¿qué sociedad estamos construyendo cuando tomamos esta decisión?”.”

Es más, ¿funcionará a largo plazo? ¿O simplemente aprenderá la gente a tirar la basura lejos de las cámaras, trasladando el problema? La tecnología sin un cambio cultural profundo rara vez resuelve problemas sistémicos.

La IA sustituye a los directivos: ¿el fin de los mandos intermedios?

De vuelta al mundo empresarial, InfoMoney informa que empresas como Amazon, Moderna y McKinsey están utilizando la IA para automatizar tareas rutinarias de gestión, lo que podría aplanar estructuras organizativas enteras.

La narrativa oficial es optimista: los directivos podrán concentrarse en la estrategia, actuando como entrenadores y facilitadores. Pero Esto exige que las empresas redefinan por completo sus expectativas, estructuras de responsabilidad y sistemas de recompensa..

Stefano Corazza, de Canva, hizo una observación crucial: la “empatía sintética” no sustituye a la autenticidad de un directivo que se preocupa de verdad. Y hay una advertencia aún más grave: la dependencia excesiva de la IA podría deteriorar nuestra capacidad de colaboración humana.

Las 5 habilidades de liderazgo que la IA aún no ha sustituido

Revista PEGN identificó cinco habilidades de liderazgo esenciales que siguen siendo insustituibles:

  • Escucha profunda - captar el tono de voz, las emociones y lo no dicho
  • Hacer preguntas en lugar de dar respuestas - fomentar un auténtico autodescubrimiento
  • Equilibrio entre acogida y responsabilidad - saber cuándo apoyar y cuándo exigir
  • Mantener conversaciones difíciles - adaptar el tono al impacto emocional real
  • Invertir en el crecimiento de las personas - crear auténticos vínculos a largo plazo

He aquí un dato inquietante: casi la mitad de los profesionales de la Generación Z afirman que reciben mejor orientación de la IA que de sus jefes. Eso no es un elogio a la IA, es una crítica devastadora a la calidad de la gestión actual.

Si tu equipo prefiere hablar con ChatGPT que contigo, el problema no es que la IA sea demasiado buena. El problema es que no estás siendo lo suficientemente humano.

Cuando la poesía engaña a la IA: la vulnerabilidad oculta de los filtros de seguridad

He aquí uno de los descubrimientos más fascinantes de las últimas 24 horas: investigadores del Laboratorio Icaro (Italia) han descubierto que formatear las indicaciones peligrosas en forma de poesía aumenta significativamente el porcentaje de éxito del ‘jailbreaking’, es decir, de la evasión de las protecciones de la IA.

Probaron 1.200 mensajes potencialmente dañinos convertidos en poemas. Los 20 poemas creados manualmente por los investigadores fueron los más eficaces, superando a los generados por la IA. La inusual estructura textual de la poesía parece “sorprender” a los modelos de seguridad.

Lo que esto revela sobre nuestros sistemas

Este descubrimiento es a la vez poético (sin juego de palabras) y alarmante. La expresión humana más antigua y profunda, la poesía, consigue engañar a nuestros filtros de seguridad más modernos.. Hay aquí una ironía filosófica que no podemos ignorar.

Pero en la práctica, esto significa que nuestras defensas contra el uso malicioso de la IA son más débiles de lo que pensamos. Las empresas que confían en los filtros de contenidos deben darse cuenta de que estos sistemas tienen puntos ciegos fundamentales, y algunos de estos puntos ciegos son precisamente lo que nos hace más humanos: la creatividad, la metáfora, la ambigüedad.

En mis consultorías, siempre hago hincapié en que la seguridad en la IA no puede ser sólo técnica. Debe incluir la gobernanza humana, procesos de revisión y un profundo conocimiento de las limitaciones de los sistemas automatizados.

La falacia de ‘más datos = IA más justa’

Uno de los análisis más lúcidos que leí fue este artículo en JOTA criticando la visión tecno-determinista de que la IA sólo será justa con la expansión sin restricciones de la recopilación de datos.

El argumento central es poderoso: centrarse sólo en ampliar los conjuntos de datos ignora cuestiones cruciales de gobernanza, diseño metodológico y alineación, perpetuando los sesgos sociales existentes - como el racismo y la misoginia presentes en los billones de fichas utilizadas en la formación.

La relajación de la LGPD en nombre de una IA “más competitiva” o “representativa” se considera un riesgo político que concentra el poder y debilita los derechos. La justicia algorítmica es fundamentalmente un problema político y jurídico, no solo técnico.

Modelos más pequeños, mayor gobernanza

El artículo defiende algo que vengo sosteniendo desde hace mucho tiempo: necesitamos más apertura democrática, menos dependencia de los datos (modelos más pequeños y especializados) y límites normativos claros - no sólo más recogida indiscriminada.

Se trata de una visión que contrasta fuertemente con la corriente dominante en la industria de la IA, que a menudo presenta “más datos” como la solución universal. En mi trabajo con empresas y gobiernos, veo constantemente la tentación de recopilar todo lo posible “por si acaso”. Pero los datos sin una finalidad clara, una gobernanza sólida y el respeto de los derechos fundamentales no crean valor, sino riesgo.

US$ 400.000 millones en infraestructuras: el gran obstáculo de la durabilidad

Mientras debatimos sobre usos y regulación, CNN Brasil informa que se espera que las empresas tecnológicas inviertan 400.000 millones de dólares en infraestructura de IA este año, pero se enfrentan a un problema financiero fundamental: durabilidad de las virutas.

Mientras que las CPU tradicionales duran entre 5 y 7 años, las GPU utilizadas para entrenar a los LLM sólo pueden tener una vida económica de entre 18 y 24 meses debido al calor, el estrés y la rápida mejora de la nueva generación. Los expertos estiman que su viabilidad económica real es de 3-5 años.

Cada vez preocupa más una posible burbuja de la IA si los beneficios financieros no cubren estos costes de sustitución recurrentes. Y aquí está el punto crítico: si la economía de la IA fracasa, las consecuencias sociales serán enormes - empleos perdidos en la transición, inversiones malgastadas, expectativas frustradas.

La sostenibilidad no es sólo medioambiental

Esta cuestión de la durabilidad revela algo que muchas empresas aún no han interiorizado: la sostenibilidad de la IA no sólo tiene que ver con el consumo de energía (aunque es fundamental). Se trata del modelo de negocio, de si los costes recurrentes de mantenimiento y actualización pueden cubrirse con los ingresos generados.

En mi experiencia trabajando con empresas en proyectos de IA, veo muchas inversiones basadas en expectativas de rentabilidad que no consideran adecuadamente estos costes a largo plazo. La IA no es un software tradicional que se instala y se olvida: es una infraestructura viva que necesita alimentación constante.

Lo que nos enseña este panorama: de la autenticidad al control

Entonces, ¿qué conecta a DC Comics prohibiendo la IA, a Fortress multando con reconocimiento facial, a los directivos siendo sustituidos y a la poesía engañando a los filtros de seguridad?

Todas estas historias revelan una tensión fundamental entre autenticidad humana y eficacia automatizada, entre libertad creativa y control algorítmico. Y esta tensión se manifiesta de formas radicalmente distintas en cada contexto:

  • En creatividad - cómo proteger el valor y la identidad (DC Comics)
  • En democracia - cómo preservar la integridad de la información (elecciones 2026)
  • En gestión urbana - cómo equilibrar eficacia y libertades (Fortaleza)
  • En el trabajo - cómo mantener la humanidad en estructuras aplanadas
  • Seguridad - cómo afrontar vulnerabilidades inesperadas (poesía)
  • En gobernanza - cómo evitar la concentración de poder (LGPD y recaudación)
  • En la economía - cómo mantener las inversiones a largo plazo

No hay una respuesta única

Lo que me fascina -y a veces me frustra- es que no hay una respuesta única a “¿cómo debemos utilizar la IA?”. La respuesta correcta depende profundamente del contexto, de los valores implicados y de las consecuencias a largo plazo que estemos dispuestos a aceptar.

La apuesta radical de DC Comics por la autenticidad podría ser acertada, o podría estar desenterrándose de la irrelevancia. Las fortalezas que utilizan el reconocimiento facial podrían resolver el problema de la basura, o sentar un peligroso precedente. Las empresas que automatizan la gestión pueden liberar el potencial humano o destruir la capacidad de colaboración genuina.

La única certeza es que estas elecciones tienen consecuencias, y tenemos que tomarlas con los ojos abiertos.

Qué hacer al respecto: medidas prácticas para líderes

Si usted dirige una empresa, organización o iniciativa pública en Brasil, he aquí algunas reflexiones prácticas basadas en este panorama de 24 horas:

1 Identifique su ‘activo inimitable’

Al igual que DC, pregúntese: ¿cuál es mi activo más valioso que la IA no puede replicar? Podría tratarse de relaciones profundas con los clientes, conocimientos contextuales específicos o creatividad genuina. Una vez identificado, proteja y amplifique ese activo, no lo subcontrate a algoritmos.

2. Prepararse para el vacío normativo

Si trabaja en sectores sensibles (medios de comunicación, política, finanzas), no espere a la ley perfecta. Desarrolle ya directrices éticas internas. ¿Cómo abordará su organización el problema de los deepfakes? ¿Cómo garantizará la transparencia? ¿Cómo protegerá a las partes interesadas vulnerables?

3. Pregunta Soluciones ‘evidentemente eficientes’

Cuando alguien proponga utilizar la IA para resolver un problema (vigilancia, automatización de la gestión, etc.), pregúntese: “¿Qué precedente sienta esto? ¿Qué sociedad/cultura organizativa construye esto?”. La eficiencia sin valores es peligrosa.

4. Invertir en competencias complementarias

Si la IA va a automatizar las tareas rutinarias, invierte mucho en las cinco habilidades de liderazgo que no puede sustituir: escuchar con atención, hacer preguntas, equilibrar la bienvenida y la responsabilidad, conversaciones difíciles, inversión en crecimiento. Son ventajas competitivas duraderas.

5. Plan de gastos recurrentes

Si invierte en infraestructura de IA, prevea ciclos de sustitución de 3 a 5 años, no de 7 a 10. Los modelos financieros tradicionales de TI no son aplicables. Sea realista sobre el coste total de propiedad.

6. Gobernanza antes que escala

No caigas en la trampa de “recopila todo ahora, gobierna después”. Como señala el artículo de la JOTA, más datos sin gobernanza no crean una IA más justa, sino que perpetúan los sesgos existentes a escala industrial. Hay que empezar poco a poco, con una gobernanza sólida, y luego ampliar.

Conclusión: la tensión no desaparecerá, y eso es bueno

Estas últimas 24 horas de noticias revelan algo esencial: la tensión entre autenticidad y automatización, entre libertad y control, entre eficacia y humanidad no es un error que se resolverá, sino una característica permanente de la era de la IA.

Y quizá eso sea bueno. Tal vez esta tensión sea precisamente lo que nos mantiene honestos, lo que nos obliga a tomar decisiones conscientes en lugar de dejarnos llevar simplemente por la marea tecnológica.

Que DC Comics declare la guerra a la IA puede parecer reaccionario, pero al menos es una elección consciente basada en valores. La implantación de la vigilancia facial por parte de Fortress puede resultar controvertida, pero está generando un debate público sobre el tipo de sociedad que queremos. Las empresas que automatizan la gestión están descubriendo que la empatía sintética no funciona, y eso nos recuerda por qué los humanos siguen importando.

El reto para nosotros, los líderes brasileños, no es resolver esta tensión, sino navegar por ella con integridad, creatividad y profundo respeto por las consecuencias de nuestras decisiones.

Necesitamos valor para hacer apuestas arriesgadas como DC cuando están en juego nuestros valores fundamentales. Necesitamos sabiduría para cuestionar soluciones “obviamente eficientes” como la vigilancia facial cuando están en peligro libertades fundamentales. Necesitamos humildad para reconocer que nuestras defensas (como los filtros de seguridad) tienen vulnerabilidades inesperadas. Y necesitamos la visión sistémica para comprender que la sostenibilidad económica es tan importante como la capacidad técnica.

La IA no resolverá nuestros dilemas éticos, sino que los intensificará, los acelerará y los sacará a la superficie.. Y esto significa que la demanda de un liderazgo genuinamente humano -sabio, ético, creativo, valiente- nunca ha sido mayor.

En mi trabajo de tutoría y consultoría, ayudo a ejecutivos, empresarios y equipos gubernamentales a navegar exactamente por estas tensiones: desarrollar estrategias de IA que generen valor real sin comprometer los valores fundamentales, crear capacidad organizativa que aproveche la automatización sin perder humanidad y establecer una gobernanza sólida que proteja los derechos al tiempo que permite la innovación.

Si su organización se enfrenta a estos dilemas -y apuesto a que es así-, hablemos. Porque el futuro no solo dependerá de quién tenga la IA más potente, sino de quién tome las mejores decisiones sobre cómo utilizarla.

¿Y estas elecciones? Siguen siendo profunda e ineludiblemente humanas.


✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.

➡️ Accede a la Comunidad 10K aquí


ARTÍCULOS RELACIONADOS

Ver todo

ver todo