TSE apura reglas de IA para elecciones de 2026 mientras 70% de estudiantes ya usan herramientas sin instrucción - Por qué estas 24 horas definen la carrera contra la desinformación y el atraso educativo
19 de enero de 2026 | por Matos AI

Las últimas 24 horas han traído consigo una rara combinación: urgencia institucional y una brecha estructural. Si bien la Superior Tribunal Electoral (TSE) carreras para consolidar normas eficaces contra deepfakes y desinformación hasta el 5 de marzo, 70% de los estudiantes de secundaria brasileños ya utilizan la IA, pero sólo 32% han recibido orientación de su escuela. ¿Por qué importa esta simultaneidad? Porque nos enfrentamos a la misma tecnología en dos ámbitos críticos - democracia y educación, pero con una rapidez, unos recursos y una claridad absolutamente desiguales.
Trabajo a diario con empresas, gobiernos y ecosistemas de innovación. Y lo que veo en esas 24 horas no es solo una colección dispersa de noticias. Es un Retrato sistémico de cómo Brasil afronta la IA en su momento más delicadocuando la tecnología ya está en manos de la población, pero las instituciones aún están elaborando las reglas del juego.
La carrera contrarreloj del TSE: reglas para un terreno sin mapa
Segundo expertos entrevistados por Terra, El TSE se enfrenta a un reto sin precedentes: crear normas eficaces para el uso de la inteligencia artificial en las elecciones de 2026 sin una base reglamentaria consolidada previa. Las resoluciones que guiarán la Justicia Electoral deben ser aprobadas antes del 5 de marzo, y el consenso entre los juristas es que no habrá cambios estructurales radicales en comparación con 2024 - sino más bien ajustes para contener la escala y la sofisticación del contenido sintético.
¡Únete a más grupos de WhatsApp! Actualizaciones diarias con las noticias más relevantes del mundo de la IA y una comunidad vibrante.
- IA para empresas:centrándose en el negocio y la estrategia.
- Creadores de IA:con un enfoque más técnico y práctico.
La abogada Sabrina Veras, de la Academia Brasileña de Derecho Electoral y Político (Abradep), resume el problema: “Los contenidos generados por la IA generativa son cada vez más sofisticados y circulan a gran velocidad. Es difícil rastrear el origen de estos contenidos, lo que exige una respuesta más eficaz”. José Luiz Nunes, de FGV Direito Rio, añade que el TSE debe seguir “una línea similar en términos estructurales” con las reglas de 2024, ya que no ha habido ningún avance tecnológico transformador desde entonces, sólo refinamiento.
Pero aquí está el quid de la cuestión: el TSE se rige por la legislación vigente. Como señala el experto Massaro, un avance más sólido vendría de una regulación sobre las obligaciones de las plataformas en relación con los contenidos creados por IA. Y hay otra expectativa: cómo afectará al ámbito electoral la decisión del Tribunal Supremo sobre la responsabilidad de las plataformas, que excluía explícitamente la legislación electoral.
Deepfakes y desinformación: el núcleo del problema
Como muestra R7, 54% de los brasileños utilizarán herramientas de IA generativa en 2024, Este porcentaje es superior a la media mundial de 48%, según una encuesta de Ipsos y Google. Esto significa que la tecnología ya está muy extendida, pero sin una formación o instrucciones claras sobre los riesgos.
El politólogo Gabriel Amaral, citado en el mismo texto, advierte: “Cuando todo se puede fabricar para que parezca verdad, el votante deja de preguntarse ‘¿es esto real?’ y empieza a preguntarse sólo si confirma lo que ya cree”. En otras palabras, el debate sale del ámbito de la verificación y entra en el de la adhesión simbólica. Incluso cuando se desmienten, los deepfakes causan daños al erosionar la confianza en la información, los mediadores y las instituciones democráticas.
Y aquí está la paradoja: desde junio de 2025, el TSE dirige un grupo de trabajo dedicado al tema, Este fue el resultado de un debate dirigido por la jueza Cármen Lúcia a raíz de la viralización de vídeos hiperrealistas producidos por IA. Pero el problema central, como dice Alexandre Basilio, investigador de Abradep, no es tecnológico, sino de confíe en. “La norma central es la protección de la confianza de los votantes”, afirma.
En las elecciones municipales de 2024, el TSE reguló por primera vez el uso de la IA, prohibiendo los deepfakes y restringiendo los robots en contacto con los votantes. La resolución diferenciaba el uso de contenidos artificiales permitidos (siempre que estén claramente identificados) de las manipulaciones prohibidas, como audios o vídeos que alteren la imagen o la voz de alguien para favorecer o perjudicar a los candidatos. Se permite el uso de contenidos resumidos, siempre que la información sea clara, visible y accesible para el votante. que el material ha sido fabricado o manipulado con ayuda de inteligencia artificial.
Pero incluso con estas normas, los expertos predicen que la mayoría de las infracciones no procederán de campañas oficiales, sino de simpatizantes, personas influyentes y perfiles informales. Basilio anticipa un escenario dominado por los memes y los contenidos altamente compartibles, que pueden llegar rápidamente a millones de personas. La repetición de contenidos ofensivos, incluso después de haber sido eliminados, debería crear una “carrera del gato y el ratón” entre las plataformas y la Justicia Electoral.
70% de los estudiantes ya utilizan IA, pero sólo 32% tienen formación: la brecha educativa al descubierto
Mientras el TSE corre contrarreloj, el sistema educativo brasileño se enfrenta a una brecha estructural. Según un editorial de O Globo, Alrededor de 70% de los estudiantes de secundaria afirman que ya utilizan la IA, pero sólo 32% dicen haber recibido instrucciones de su centro de enseñanza para aplicar la nueva tecnología., según la última edición de la encuesta Cetic.br.
Y aquí radica la contradicción: mientras prometen incluir clases de educación digital y mediática en el plan de estudios de primaria para 2025, lo cierto es que la tecnología ya se utiliza sin una orientación pedagógica clara. Los profesores deberían poder aprovechar la IA para mejorar sus clases e instruir a los alumnos para que la utilicen de la forma más productiva. Pero esto no está ocurriendo.
Existen riesgos reales. Una investigación de Microsoft y la Universidad Carnegie Mellon ha revelado que los niveles más altos de confianza en la IA se asocian a una menor capacidad de pensamiento crítico. Cuando un robot de IA realiza tareas esenciales para el aprendizaje, el alumno sale perjudicado. También existe el peligro de que aprendan de forma incorrecta, ya que las herramientas de IA reciben datos que no se someten a comprobaciones estrictas, y las alucinaciones -aunque menos frecuentes en los últimos modelos- siguen siendo habituales.
El editorial cita un ejemplo inspirador: Estonia, al darse cuenta de que 90% de los estudiantes de secundaria ya utilizaban chatbots, consiguió que OpenAI adaptara ChatGPT para uso escolar.. Ahora el robot responde a las preguntas con otras nuevas, para estimular el aprendizaje, en lugar de con respuestas directas. Este es exactamente el tipo de enfoque que Brasil necesita, pero que aún no ha aplicado a gran escala.
Como dice el editorial: “¿Quién sabe si, en lugar de ser un medio para que los estudiantes hagan trampas en los exámenes y las tareas escolares, la IA podría ofrecer una oportunidad para que Brasil se ponga al día en educación?”.” La pregunta es justa. Pero exige una acción coordinada.
Grok de Elon Musk: cuando la ausencia de límites revela lo peor de la IA
Y si cree que el problema de la IA es sólo teórico, considere el escándalo de Grok, el chatbot de Elon Musk. Como muestra Veja, La función denominada “modo picante” de Grok ha fomentado la creación de fotos y vídeos que recrean imágenes sexualizadas de niñas y mujeres.
En Indonesia y Malasia, Grok ha sido prohibido temporalmente. En el Reino Unido, Ofcom anunció una severa investigación, haciéndose eco de una decisión de las autoridades de la Unión Europea. En Brasil, el Instituto de Defensa del Consumidor (Idec) pidió el 12 de enero al gobierno federal que suspendiera la herramienta. Julia Abad, investigadora del Idec, declaró que se trataba de “una medida para evitar más daños, mientras no exista una legislación específica”.
Los investigadores de AI Forensics analizaron más de 20.000 imágenes aleatorias generadas por Grok y 50.000 solicitudes de usuarios entre el 25 de diciembre y el 1 de enero. Encontraron una alta prevalencia de términos como “quitarse la ropa” y “ponerse el bikini”, y más de la mitad de los registros generados contenían individuos con ropa mínima.. Otro estudio reveló que, entre el 5 y el 6 de enero, Grok generó una media de 6.700 mensajes inapropiados por hora, frente a una media de 79 de cinco sitios competidores.
Elon Musk respondió con desdén, diciendo que la responsabilidad legal recae en el individuo que crea y sube el contenido ilegal, no en la empresa. La estrategia busca menos barreras para un mayor acceso, viralización y tráfico de datos. Es lo contrario de una gobernanza responsable.
Meta y el fallo que destapó la fragilidad de la automatización: cuando la IA usa fotos sin autorización
Y si crees que el problema es sólo de las empresas de Elon Musk, considera el caso de Meta. Como muestra Folha de S.Paulo, un fallo en la plataforma de automatización de anuncios con inteligencia artificial de Meta hizo que una empresa brasileña mostrara fotos de la hija de un cliente en un anuncio que pretendía vender productos para el cuidado de la piel. La hija nunca autorizó el uso de la imagen.
El problema comenzó hace 30 días, cuando la farmacéutica Fátima Costa, de 65 años, se dio cuenta de que los anuncios de la marca Principia en Instagram mostraban fotos de su hija, la periodista de Folha Gabriela Mayer. La imagen de Gabriela que aparece en el anuncio es la misma que aparece en su perfil de Instagram.
Empleados de Meta entrevistados bajo condición de anonimato dicen que fue un error en la plataforma de la empresa - un alucinación, como se dice en la jerga de la inteligencia artificial. Según ellos, el problema afecta a un pequeño número de usuarios. Principia asegura que nunca ha utilizado la imagen que aparece en el reportaje en sus materiales publicitarios. “Sólo utilizamos imágenes con autorización, directamente con Meta, sin intervención de agencias. Interrogamos a Meta en cuanto tuvimos conocimiento de este caso y estamos a la espera de una posición sobre la autenticidad y la causa del posible uso de esta imagen en estos anuncios.”
La empresa utiliza una herramienta llamada Meta Ventaja+ Creativa, que promete utilizar la información sobre cómo interactúan los usuarios con los anuncios para editar automáticamente las imágenes y ofrecer contenidos personalizados. Pero aquí está el problema: Meta no se hace responsable de los textos o imágenes creados por Meta Advantage+.. “Tampoco garantizamos que el contenido de los anuncios sea único y esté protegido por derechos de propiedad intelectual ni que no infrinja los derechos de terceros”, dice la empresa en sus condiciones de uso.
Según Chiara Teffe, profesora de Derecho digital de la UERJ, aún sería posible impugnar quién es responsable del uso indebido de imágenes y datos personales. Hoy en día, no hay precedentes de la situación.
IA y tierras raras: la carrera geopolítica que Brasil observa desde fuera
Mientras nos enfrentamos a retos institucionales y educativos, La empresa minera canadiense Aclara Resources ha firmado un acuerdo de investigación y desarrollo con un laboratorio nacional del Departamento de Energía de EE.UU. para aplicar la inteligencia artificial al proceso de separación de tierras raras pesadas.. El desarrollo se llevará a cabo en el Laboratorio Nacional de Argonne, uno de los principales centros de investigación del gobierno estadounidense.
El objetivo es mejorar la eficacia de los procesos y reducir la incertidumbre en las operaciones industriales. En la práctica, la tecnología crea un representación virtual del proceso industrial, El Proyecto Carina se basa en datos operativos reales, modelos matemáticos y algoritmos de inteligencia artificial. La empresa canadiense es propietaria del Proyecto Carina, situado en Nova Roma (GO). El proyecto ya ha recibido financiación del gobierno estadounidense, a través de la Corporación Internacional de Financiación del Desarrollo de Estados Unidos.
Brasil posee las segundas mayores reservas mundiales de tierras raras, sólo superadas por China. Pero como Gazeta do Povo muestra, el país padece disfunciones bien conocidas: tipos de interés estratosféricos, deuda pública creciente, inseguridad jurídica y ausencia de una política industrial coordinada, que se traduce en la exportación de materias primas.
El Instituto Brasileño de Minería (Ibram) advierte que el desafío es “dejar de ser un país con dotaciones geológicas excepcionales -sólo tener la riqueza- y convertirse en un país con vocación mineral -utilizar la riqueza para el desarrollo nacional-". Esto requiere una política estatal“.
Thiago Sbardelotto, economista de XP Investimentos, insiste en la urgencia de las reformas estructurales. La ventana de oportunidad es estrecha, con Australia, Chile y Vietnam avanzando ya en cadenas alternativas a China.
La doble estrategia de las petroleras: usar la IA y venderle energía
Y mientras Brasil exporta materias primas, la industria petrolera ha descubierto que el apetito energético de la IA no es un reto: es su salvavidas para el crecimiento, como muestra Forbes Brasil.
La estrategia de los gigantes del petróleo pasa por beneficiarse doblemente de la Inteligencia Artificial (IA): utilizándola para extraer combustibles fósiles de forma más eficiente y vendiendo posteriormente energía (generada por gas natural) a los centros de datos que alimentan la IA.. Esta doble estrategia podría consolidar la dependencia del petróleo durante décadas.
Abu Dhabi National Oil Company (ADNOC) ha implantado más de 30 herramientas de IA, generando un valor de 500 millones de dólares y reduciendo hasta un millón de toneladas de CO₂ entre 2022 y 2023. Se dice que Chevron está desarrollando su primera planta de gas natural de aproximadamente 2,5 GW (ampliable a unos 5 GW) en el oeste de Texas, cuyo inicio de operaciones está previsto para 2027, dirigida a un cliente de centros de datos no revelado.
La gran pregunta: de los centros de datos pasarán de 180 millones de toneladas en la actualidad a entre 300 y 500 millones en 2035.. La formación GPT-3 consumió 1.287 megavatios-hora (MWh), generando 552 toneladas de CO₂. Los combustibles fósiles cubren 60% de la demanda energética de los centros de datos.
Semantix y Huawei: la IA brasileña entra en el mercado mundial
Pero no todo son lagunas. Semantix ha anunciado la aprobación de su suite de IA en Huawei Cloud Marketplace, KooGallery, ampliando el alcance internacional de las soluciones de la empresa a través de canales digitales en la nube.
Con esta asociación, la suite Semantix AI, que incluye las soluciones LinkAPI, Agentix y Safetix, se convierte en la La primera oferta brasileña de IA basada en agentes autónomos con gobernanza integrada entrará en el ecosistema global de Huawei Cloud. La iniciativa amplía el acceso a las tecnologías de la empresa en mercados de Asia, Oriente Medio y América Latina.
Safetix, por su parte, actúa en la capa de gobernanza de la IA, ofreciendo trazabilidad, auditoría y control continuo desde el origen de los datos hasta las decisiones automatizadas. Las soluciones ya están disponibles en KooGallery para clientes corporativos de distintas regiones.
Según Leonardo Poça D'Água, Director General de Semantix, “la gobernanza se ha convertido en una condición operativa para la adopción a gran escala de la IA”. La aprobación en el mercado de Huawei permite llevar este enfoque a nuevos mercados con el apoyo de una plataforma cloud global.
Por qué importan estas 24 horas: la urgencia de la gobernanza y la educación
Veo un patrón claro en estas 24 horas: Brasil se enfrenta a la IA de forma reactiva, no proactiva. El TSE corre contrarreloj para aprobar las normas antes del 5 de marzo. El sistema educativo señala que 70% de los estudiantes ya utilizan IA, pero sólo 32% están formados. Las empresas exportan materias primas mientras otros países añaden valor con IA. Y plataformas como Grok y Meta exponen la fragilidad de la automatización sin límites.
Pero hay signos prometedores. Semantix demuestra que es posible desarrollar IA con gobernanza integrada y entrar en los mercados mundiales. Aclara Resources demuestra que Brasil puede atraer inversiones estratégicas en minerales críticos. Y el TSE, aun sin base reguladora previa, intenta equilibrar la libertad de expresión y la integridad electoral.
¿Qué falta? Coordinación. Como demuestran las noticias sobre las tierras raras, el reto no es sólo tener la riqueza, sino utilizarla para el desarrollo nacional. Y eso requiere una política de Estado. Lo mismo ocurre con la IA: no basta con tener talento, empresas emergentes y recursos. Necesitamos una estrategia coordinada que vincule educación, regulación, inversión y gobernanza.
En mi trabajo con empresas, gobiernos y ecosistemas de innovación, veo que La IA no es un destino, es un camino. Y este camino requiere tres pilares: alfabetización digital universal, para que todo el mundo sepa utilizar la IA de forma crítica y productiva; gobernanza responsable, para que las plataformas no funcionen sin límites; y política industrial coordinada, Brasil necesita añadir valor y no limitarse a exportar materias primas.
Como dice el editorial de O Globo: “¿Quién sabe si, en lugar de ser un medio para que los estudiantes hagan trampas en los exámenes y las tareas escolares, la IA podría ofrecer una oportunidad para que Brasil se ponga al día en educación?”.” La misma cuestión se aplica a la democracia, la economía y la gobernanza. La oportunidad está ahí. La cuestión es si la aprovechamos estratégicamente o nos limitamos a reaccionar ante la próxima crisis.
Qué hacer ahora: de la reacción a la estrategia
Si dirige una empresa, un gobierno o una organización, estas 24 horas deberían ser una llamada de atención. La IA ya está en manos de la población, pero sin educación, una gobernanza clara ni una estrategia coordinada.. ¿Qué se puede hacer?
- Invertir en alfabetización digitalEl Presidente de la Comisión Europea: No basta con tener herramientas de IA. Tenemos que formar a equipos, estudiantes y ciudadanos para que utilicen la tecnología de forma crítica y productiva.
- Exigir una gobernanza responsableNo acepte plataformas que se eximan de responsabilidad. Exige transparencia, trazabilidad y límites claros.
- Conectar regulación e innovaciónLas normas no son enemigas de la innovación, sino condiciones previas para la confianza. Participe en los debates sobre la regulación de la IA, como el proyecto de ley 2.338/2023.
- Añadir valor localmenteNo se limite a suministrar materias primas (datos, talento, recursos). Desarrolle soluciones, productos y servicios que capturen valor en la cadena de la IA.
En mis programas de tutoría y consultoría, trabajo con ejecutivos, empresas y gobiernos exactamente en esta frontera: cómo transformar la IA de amenaza a oportunidad, de reacción a estrategia, de brecha a ventaja competitiva. Porque la IA no espera. Y Brasil no puede quedarse atrás.
La carrera está en marcha. La cuestión es si participaremos en ella con claridad, gobernanza y determinación, o nos limitaremos a observar desde la barrera mientras otros definen las reglas del juego.
✨¿Te gustó? Puedes suscribirte para recibir en tu correo los newsletters de 10K Digital, seleccionados por mí, con el mejor contenido sobre IA y negocios.
➡️ Accede a la Comunidad 10K aquí
ARTÍCULOS RELACIONADOS
Ver todo
