La semana pasada el aparato mediático y desinformativo de la oposición se puso en marcha para promover una imagen creada con inteligencia artificial de una supuesta mujer asoleando sus piernas en uno de los balcones de Palacio Nacional; y aunque ya es usual que ese aparato comunicativo se valga de mentiras y falsedades para dañar a sus adversarios o ganar algo de simpatía de la población, lo interesante de este caso es que no sólo se construyó una mentira con IA, sino que se fabricaron "pruebas" para sustentar la mentira inicial.
Justo en la misma semana se dio a conocer que una influenciadora estadounidense llamada Jessica Foster, una supuesta suboficial caucásica y hermosa que hacía contenido pro-Trump, era en realidad un personaje creado con IA.
Ambos casos implican que la desinformación ha entrado en una fase autorreferencial y automatizada gracias a la inteligencia artificial, en donde una persona o un equipo pequeño no sólo pueden crear desinformación a gran escala, sino pruebas, público y hasta deformar la historia para sustentarlo.
Esto pone en evidencia la materialización de las preocupaciones que por años denunciaron los estudiosos de los peligros políticos que plantearía la IA: manipulación política, intromisión electoral, desgaste de la democracia, ascenso de radicalismos, entre otros riesgos.
La muestra más contundente de que este riesgo ya es una realidad mundial llegó en 2024, cuando cancelaron las elecciones presidenciales en Rumanía, porque un candidato ultraderechista —que nadie conocía— pasó de tener 5% de intención de voto en las encuestas a ganar la primera vuelta con 23%.
Alguien gastó casi un millón de euros para inundar TikTok con deepfakes y contenido generado por IA en favor del candidato, acumulando 150 millones de vistas en dos meses; como respuesta, el aparato judicial anuló las elecciones argumentando que manipular el entorno informativo con IA es tan grave como hacer trampa directamente en las urnas.
Tal como es común en la línea entre regulación y tecnología, el problema llegó y se masificó mucho antes que las regulaciones o cualquier intento de solución técnico-política; por lo que no sólo es trabajar a contrarreloj, sino con un problema encima.
Las soluciones promovidas hasta ahora han sido desiguales, ineficaces o autoritarias: en muchos casos dependen de la buena voluntad de las empresas tecnológicas para poner límites a sus propios productos, dan poder desmedido al Estado o tienen poca relevancia geopolítica.
Pero no nos adelantemos; primero necesitamos el panorama de lo que se ha hecho y de ahí partir para criticar sus alcances, límites y plantear posibilidades.
En general existen tres paradigmas regulativos de la IA a nivel mundial, representados por Europa, China y Estados Unidos; mientras que China y EUA representan los extremos entre autoritarismo y desregulación, Europa se plantea como una especie de punto medio. Por un lado, la administración Trump ha adoptado una postura abiertamente desreguladora, priorizando la innovación y la competencia tecnológica por encima de cualquier protección ciudadana. El caso más significativo fue la firma, el 11 de diciembre de 2025, de la Orden Ejecutiva titulada "Ensuring a National Policy Framework for Artificial Intelligence", cuyo objetivo es limitar la capacidad de los estados para regular la IA bajo sus marcos legales existentes y disuadirlos de aprobar nuevas leyes en la materia.
Por otro lado, está China, cuyo instrumento legal más importante es el "Reglamento Provisional sobre la Gestión de Servicios de IA Generativa", que entró en vigor el 15 de agosto de 2023 y fue el primero en el mundo dirigido específicamente a la IA generativa. Este marco exige que los modelos de lenguaje registrados en China sean sometidos a evaluaciones de seguridad previas a su despliegue, que el contenido generado sea "verídico y exacto" y que no subvierta el poder estatal ni difunda información que "perturbe el orden económico o social".
En septiembre de 2025 se sumaron las "Reglas de Etiquetado", que hacen obligatorio que el contenido generado por IA lleve marcas tanto implícitas como explícitas en texto, audio, imágenes, vídeos y escenas virtuales. Como punto intermedio está Europa con el "Reglamento de Inteligencia Artificial de la Unión Europea", conocido como la Ley de IA, propuesto en abril de 2021 y considerado el instrumento regulatorio de mayor alcance en el mundo.
El Reglamento clasifica los sistemas de IA en cuatro categorías según el riesgo que representan: los de riesgo inaceptable quedan prohibidos; los de alto riesgo —como los usados en infraestructuras críticas, educación, empleo y aplicación de la ley— están sujetos a estrictos requisitos de cumplimiento; los de riesgo limitado tienen obligaciones de transparencia; y los de riesgo mínimo operan sin restricciones específicas. Pese a que los modelos de Estados Unidos y China tienen más posibilidades de implementación por su peso en el mercado digital, el modelo europeo es el más aceptado en el mundo y ha servido como base para la creación de marcos legales en otros países, tal como ocurre en México.
Es importante considerar que en este momento en México no existe ninguna ley de inteligencia artificial aprobada, por lo que el gobierno opera con leyes preexistentes —como la Ley Federal de Protección de Datos o el Código Penal Federal— que no fueron diseñadas para enfrentar los retos que plantea la IA.
Sin embargo, desde 2023 se han presentado decenas de iniciativas, muchas de ellas basadas en la legislación europea; entre las más relevantes están la del senador Ricardo Monreal en abril de 2024, desechada meses después sin llegar a votarse, así como la iniciativa más reciente, presentada por Morena y el PVEM en abril de 2025, la cual plantea principios como soberanía tecnológica y protección de la niñez, pero que sigue atorada en el Congreso. El último intento fue la iniciativa de reforma electoral de la presidenta Claudia Sheinbaum, centrada específicamente en el uso electoral de la inteligencia artificial.
El panorama no es alentador, pero tampoco está cerrado, a diferencia de Rumanía, que tuvo que cancelar sus elecciones por culpa de la desinformación, México todavía está a tiempo de actuar antes del siguiente escándalo fabricado con IA. Las herramientas existen: el modelo europeo ofrece una arquitectura regulatoria probada, las iniciativas presentadas en el Congreso tienen elementos aprovechables, y la reforma electoral de Sheinbaum abre una puerta específica para atender el problema más urgente, que es el uso de la IA en procesos democráticos.
Pese a todo lo anterior, el reto no es técnico ni jurídico: es político. La pregunta no es si México necesita regulación, sino si tendrá el tiempo y la voluntad para construirla antes de que el costo de no tenerla se vuelva demasiado alto.