La Plata, 1 de Julio de 2025 (La Plata News).- En pleno año electoral, la inteligencia artificial (IA) puede manipular la opinión pública a través de contenidos falsos, videos creados con IA —los llamados deepfakes— que imitan rostros, voces y gestos de cualquier persona con una precisión preocupante.
El caso más reciente en Argentina ocurrió en mayo de 2025, cuando circuló un video falso de Mauricio Macri anunciando que su candidata se bajaba de la contienda un día antes de las elecciones en CABA. Aunque el material fue desmentido, su viralización generó confusión e impacto emocional en el electorado.
El periodista platense y especialista en comunicación digital, Leandro Romero, a quien puedes seguirlo en LinkedIn e Instagram, analiza los riesgos de esta nueva era de campañas políticas atravesadas por la inteligencia artificial, explica cómo se generan los deepfakes, qué consecuencias tienen en las decisiones de los votantes y nos brinda algunas sugerencia para prevenirnos de la información falsa.
Manipular la realidad con IA

“Lo que más inquieta de la inteligencia artificial en las campañas políticas es que ya no sabemos si lo que vemos es verdad o un deepfake para manipularnos“, aseguró Romero y continuó: “Estamos viviendo en una época donde los videos en redes sociales tienen más poder que cualquier discurso. La gente no lee plataformas electorales, no compara propuestas; ve un video de 30 segundos, lo siente real, lo comparte y con eso define a quién le cree, a quién odia e incluso a quién vota o a quién no”.
“La IA puede clonar caras, voces, gestos y cualquier mensaje puede ser fabricado en segundos. Ya no hace falta que un político diga algo: basta con que alguien arme un deepfake y lo lance justo antes de las elecciones para arruinarle la campaña. El daño ya está hecho, aunque después se desmienta. Y esto, claro está, afecta nuestra capacidad de decidir libremente”, subrayó Romero.
El experto no dudó en afirmar que “el poder lo tiene el que maneja la narrativa en redes, el que sabe cómo emocionar, cómo indignar, cómo viralizar” y añadió: “Desde el 2025, las campañas políticas están cruzadas por la Inteligencia Artificial. El ejemplo más reciente fue el de (Mauricio) Macri, a quien se lo ve en un video con su rostro y voz diciendo que su candidata se bajaba un día antes de las elecciones. Si bien la desmentida fue rápida, el mensaje circuló, se viralizó y generó dudas en su electorado”.
EL SIGUIENTE VIDEO ES UN DEEPFAKE. Video falso creado con Inteligencia Artificial (IA) y difundido en las redes sociales horas antes que los porteños vayan a votar en mayo de 2025.
Cómo el algoritmo puede sesgar tu opinión
Romero profundizó sobre las consecuencias que puede traer el algoritmo para el pensamiento crítico y dijo: “Los algoritmos con IA aprenden datos sesgados y pueden reforzar prejuicios disfrazados de ideología, mostrarte sólo contenido afín a tu punto de vista y limitar tu acceso a visiones alternativas o críticas” y agregó: “Sugiero que enseñes al algoritmo a mostrarte al menos 2 puntos de vista diferentes de un mismo hecho. Seguí a personas o medios que piensan una cosa, pero también seguí a los que piensan lo opuesto”.
“Podemos decir que los algoritmos pueden borrar voces disidentes mediante ‘censura algorítmica’ si no le enseñas a mostrarte diferentes tipos de contenido”, advirtió el experto en Comunicación Digital.
Asimismo, indicó: “Hoy la realidad digital es altamente manipulable con la Inteligencia Artificial. Podés crear imágenes, audios y videos hiper realistas de cualquier persona, y utilizar bots para viralizar una información en cualquier red social”.
¿Qué es un deepfake y cómo afecta a las campañas políticas?
Romero explica que “un deepfake es una imagen, audio o video generado con inteligencia artificial que imita la voz, el rostro y los gestos de una persona real. En política, esto significa que un candidato puede decir algo que nunca dijo o aparecer en situaciones que jamás ocurrieron. No sólo se limita a la política, también puede suceder en famosos, influencers y personalidades públicas”.
“Durante las campañas políticas, se usan bots y deepfakes para instalar rumores, alterar los hechos o atacar la reputación de los candidatos”, continuó el experto en comunicación digital.

Ante este contexto, Romero explicó: “Un video falso puede cambiar la percepción pública de un candidato, sembrar dudas o manipular votantes indecisos. Su poder radica en que parecen auténticos y se viralizan rápido, mucho antes de que alguien los desmienta”.
- También te puede interesar: La UNLP desarrolla tecnología para eliminar el arsénico del agua en provincia de Buenos Aires
Además, señaló que “estos videos no llegan por medios oficiales o verificables. Te lo manda un familiar por WhatsApp, lo ves en un reel perdido, lo levanta un influencer enojado y se hace viral. Y a vos te queda la duda. En ese segundo de duda, te cambia la emoción. Y las elecciones, muchas veces, se deciden con las emociones más que con la razón”.
¿Qué regulaciones existen en Argentina sobre el uso de IA en elecciones?
Hoy en Argentina no existe una ley específica que regule el uso de inteligencia artificial en campañas electorales. Sin embargo, en el Congreso se han presentado proyectos que buscan establecer normas claras sobre la desinformación política y la propaganda engañosa generada con tecnología.
En tanto, algunos organismos como la Defensoría del Pueblo y observatorios de medios, han solicitado transparencia en la financiación de contenido político digital y la identificación clara de piezas generadas por IA, especialmente en redes sociales.
A nivel global, países como la Unión Europea ya están aplicando regulaciones que exigen que todo contenido político creado por IA esté etiquetado como tal. En Argentina, esta discusión recién comienza.
¿Qué podemos hacer?
Frente al avance de la IA y los riesgos de los deepfakes, Leandro Romero planteó una serie de sugerencias para que el ciudadano no pierda el control sobre la veracidad de los hechos:
Dudar es un acto de inteligencia
“Dudar es un acto de inteligencia. No todo lo que vemos en un video es cierto, por más real que parezca. Si un contenido te provoca una emoción muy fuerte (bronca, miedo, entusiasmo repentino), pará un segundo y preguntate: ‘¿Quién me lo está mostrando? ¿Por qué justo ahora?’. Ese momento de pausa puede evitar que compartas una mentira”, explicó Romero.
Buscar la fuente
“Si aparece un video de un político diciendo algo grave, verificá si ese contenido aparece en medios confiables o redes oficiales. Muchas veces, los videos falsos sólo circulan en cuentas truchas, cadenas de WhatsApp o Telegram. Si sólo lo viste en un reel random o te lo mandó alguien que lo recibió, probablemente sea falso o manipulado”, continuó el periodista platense.
Seguir medios que verifican
Romero recomendó “aprovechar el laburo de periodistas que hacen chequeo de datos como Chequeado, AFP Factual y Reverso, entre otros. Muchos de estos periodistas tienen cuentas en redes donde suben desmentidas en tiempo real. Seguilos. Son aliados para verificar la realidad”.
Exigir transparencia sobre la IA
“Como ciudadanos también podemos exigir a los candidatos y plataformas que se comprometan a etiquetar contenidos generados por IA”, indicó.
Por último, Romero comentó que “la inteligencia artificial es una herramienta útil que el ser humano debe incorporar en su vida cotidiana”, pero advirtió que “la verdad tiene muchos puntos de vista, nunca viene en formato de escándalo exprés y no entra en 45 segundos”. (La Plata News)