Reflexión
Inteligencia artificial (AI): línea delgada entre lo ético y lo infame
Una IA pueda manipular, mentir o engañar a las persona. En términos técnicos, una IA puede generar información falsa si está mal entrenada, tiene datos incorrectos, no tiene límites éticos, o si alguien le pide explícitamente engañar y no fue diseñada para rechazarlo. Las IAs avanzadas pueden producir información falsa, simplemente por errores en el modelo. Por eso deben aplicarse reglas estrictas de seguridad.
Por Julieta Pinzón
Diciembre 2025
Puede manipular en propaganda o estafas e influir emocional o psicológicamente a una persona. Se supone que deben evitar influir de manera indebida, no dar consejos coercitivos, no explotar emociones, no tomar control sobre decisiones personales importantes, pero engañan deliberadamente. Tienen filtros éticos, supervisión humana, políticas de transparencia, límites explícitos para evitar manipulación o daño. Pero ¿es suficiente?
Hoy la IA ha amplificado las capacidades tradicionales de propaganda. Antes se necesitaban grandes recursos: equipos humanos, medios de comunicación, dinero y tiempo. Hoy, una IA mal utilizada puede producir contenido persuasivo masivo, rápido y personalizado, lo que hace que la propaganda sea más efectiva y más difícil de detectar.
Estos son los mecanismos reales por los que puede ser usada con fines propagandísticos o manipulativos.
Generación masiva y automática de mensajes. Puede crear miles de textos, comentarios, publicaciones o correos en segundos. Esto permite: saturar redes sociales con un discurso, generar la ilusión de consenso (“todos piensan así”), atacar o desacreditar a personas o grupos específicos. Esto se conoce como astroturfing automático ( fabricar falsa opinión pública).
Personalización extrema. Puede analizar intereses, miedos, emociones, historial de navegación, perfil psicológico (incluso indirecto). Con eso, puede generar mensajes personalizados para cada individuo, lo que hace que la propaganda sea muchísimo más efectiva. Esto se llama microtargeting persuasivo. El riesgo es que dos personas pueden vivir realidades completamente distintas, diseñadas por algoritmos.
Deepfakes y falsificación visual o Sonora. Puede crear voces que imitan a personas reales, videos falsificados pero convincentes, imágenes manipuladas con realismo extremo. Esto puede utilizarse para: difundir “declaraciones” falsas, simular escándalos o delitos inexistentes, destruir reputaciones, crear confusión social (“desinformación caótica”).
Bots que actúan como humanos. Los sistemas automáticos ya pueden discutir, publicar, argumentar, emocionarse artificialmente, responder en tiempo real. Estos “usuarios ficticios” pueden hacer parecer que una idea es popular o verdadera. Pueden infiltrarse en comunidades digitales, hacer amistad con personas reales y luego insertar mensajes políticos o ideológicos de forma sutil.
Manipulación emocional. La IA puede analizar qué palabras generan más reacción emocional en diferentes grupos. Esto permite diseñar propaganda basada en: miedo, indignación, amenaza, nacionalismo, victimización, enemistad con “el otro”. Cuando un mensaje despierta emociones fuertes, las personas lo cuestionan menos.
Modelaje de narrativas. Algunos sistemas pueden analizar millones de conversaciones para detectar: qué narrativas están creciendo, qué dudas tiene la gente, qué mensajes podrían volverse virales. Luego la IA genera contenido para empujar esas narrativas, reforzarlas o contrarrestarlas. Esto se usa tanto para propaganda política como para guerras de información entre países.
Encadenamiento de contenidos. Puede producir: artículos largos,resúmenes, mensajes breves, imágenes y videos, comentarios en redes. Todo alineado en una misma línea narrativa, creando la impresión de un movimiento social auténtico. Este tipo de “ecosistema de propaganda automática” es difícil de detectar, porque parece orgánico.
Conversaciones uno a uno. Esta es una de las vías más preocupantes. Con modelos conversacionales avanzados, es posible crear IA que chatea directamente con usuarios, empatiza, escucha, se adapta a su personalidad y poco a poco introduce ideas. Es propaganda personalizada, emocional y continua. Y puede ser muy efectiva si la persona cree que habla con un humano. (Por eso existen muchas reglas de seguridad en los modelos éticos.)
Generación masiva y automática de mensajes. Puede crear miles de textos, comentarios, publicaciones o correos en segundos. Esto permite: saturar redes sociales con un discurso, generar la ilusión de consenso (“todos piensan así”), atacar o desacreditar a personas o grupos específicos. Esto se conoce como astroturfing automático ( fabricar falsa opinión pública).
Personalización extrema. Puede analizar intereses, miedos, emociones, historial de navegación, perfil psicológico (incluso indirecto). Con eso, puede generar mensajes personalizados para cada individuo, lo que hace que la propaganda sea muchísimo más efectiva. Esto se llama microtargeting persuasivo. El riesgo es que dos personas pueden vivir realidades completamente distintas, diseñadas por algoritmos.
Deepfakes y falsificación visual o Sonora. Puede crear voces que imitan a personas reales, videos falsificados pero convincentes, imágenes manipuladas con realismo extremo. Esto puede utilizarse para: difundir “declaraciones” falsas, simular escándalos o delitos inexistentes, destruir reputaciones, crear confusión social (“desinformación caótica”).
Bots que actúan como humanos. Los sistemas automáticos ya pueden discutir, publicar, argumentar, emocionarse artificialmente, responder en tiempo real. Estos “usuarios ficticios” pueden hacer parecer que una idea es popular o verdadera. Pueden infiltrarse en comunidades digitales, hacer amistad con personas reales y luego insertar mensajes políticos o ideológicos de forma sutil.
Manipulación emocional. La IA puede analizar qué palabras generan más reacción emocional en diferentes grupos. Esto permite diseñar propaganda basada en: miedo, indignación, amenaza, nacionalismo, victimización, enemistad con “el otro”. Cuando un mensaje despierta emociones fuertes, las personas lo cuestionan menos.
Modelaje de narrativas. Algunos sistemas pueden analizar millones de conversaciones para detectar: qué narrativas están creciendo, qué dudas tiene la gente, qué mensajes podrían volverse virales. Luego la IA genera contenido para empujar esas narrativas, reforzarlas o contrarrestarlas. Esto se usa tanto para propaganda política como para guerras de información entre países.
Encadenamiento de contenidos. Puede producir: artículos largos,resúmenes, mensajes breves, imágenes y videos, comentarios en redes. Todo alineado en una misma línea narrativa, creando la impresión de un movimiento social auténtico. Este tipo de “ecosistema de propaganda automática” es difícil de detectar, porque parece orgánico.
Conversaciones uno a uno. Esta es una de las vías más preocupantes. Con modelos conversacionales avanzados, es posible crear IA que chatea directamente con usuarios, empatiza, escucha, se adapta a su personalidad y poco a poco introduce ideas. Es propaganda personalizada, emocional y continua. Y puede ser muy efectiva si la persona cree que habla con un humano. (Por eso existen muchas reglas de seguridad en los modelos éticos.)
La IA no es confiable cuando: Falta transparencia. No explica de dónde proviene la información. No aclara qué datos usó para generar respuestas. No tiene advertencias sobre errores posibles o limitaciones.
Respuestas inconsistentes o contradictorias Cambia de opinión sin justificación. Da afirmaciones opuestas en la misma conversación. No cita fuentes verificables. Genera estadística, sin base real, aumentando riesgo de error o desinformación.
Exceso de afirmaciones absolutas. Frases como “esto es 100% cierto” o “no hay duda” sobre temas complejos. No reconoce la existencia de diferentes perspectivas. En ciencia, historia o política, la certeza absoluta casi nunca es confiable.
Promueve acciones dañinas o ilegales. Sugiere hacer cosas peligrosas, fraudulentas o poco éticas. Da instrucciones para manipular, estafar o causar daño. Los sistemas confiables rechazan explícitamente esas solicitudes.
Contenido emocionalmente manipulador. Intenta provocar miedo, odio o urgencia excesiva. Usa halagos exagerados o promesas de resultados rápidos. Esto puede indicar que la IA está diseñada para influir psicológicamente, no para informar.
Ausencia de fuentes verificables. No proporciona referencias externas. No indica estudios, artículos, leyes o documentos. Errores evidentes o imposibles. Datos históricos, matemáticos o científicos incorrectos. Afirma hechos que son imposibles según la lógica o la ciencia. Aunque pueden equivocarse, demasiados errores frecuentes son señal de modelo poco confiable o mal entrenado.
Falta de supervisión humana. No hay información sobre revisiones, moderadores o protocolos éticos. Se promociona como “100% autónoma” sin límites ni seguridad.
Demasiado persuasiva o parcial. Favorece opiniones políticas, religiosas o comerciales sin aclarar que es su “sesgo de entrenamiento”. No presenta perspectivas alternativas. Esto indica riesgo de propaganda o manipulación. Señales de confianza. Una IA confiable admite sus límites (“No tengo información suficiente”), cita fuentes verificables, mantiene coherencia en temas complejos, rechaza solicitudes dañinas o ilegales y explica su razonamiento cuando es posible.
Respuestas inconsistentes o contradictorias Cambia de opinión sin justificación. Da afirmaciones opuestas en la misma conversación. No cita fuentes verificables. Genera estadística, sin base real, aumentando riesgo de error o desinformación.
Exceso de afirmaciones absolutas. Frases como “esto es 100% cierto” o “no hay duda” sobre temas complejos. No reconoce la existencia de diferentes perspectivas. En ciencia, historia o política, la certeza absoluta casi nunca es confiable.
Promueve acciones dañinas o ilegales. Sugiere hacer cosas peligrosas, fraudulentas o poco éticas. Da instrucciones para manipular, estafar o causar daño. Los sistemas confiables rechazan explícitamente esas solicitudes.
Contenido emocionalmente manipulador. Intenta provocar miedo, odio o urgencia excesiva. Usa halagos exagerados o promesas de resultados rápidos. Esto puede indicar que la IA está diseñada para influir psicológicamente, no para informar.
Ausencia de fuentes verificables. No proporciona referencias externas. No indica estudios, artículos, leyes o documentos. Errores evidentes o imposibles. Datos históricos, matemáticos o científicos incorrectos. Afirma hechos que son imposibles según la lógica o la ciencia. Aunque pueden equivocarse, demasiados errores frecuentes son señal de modelo poco confiable o mal entrenado.
Falta de supervisión humana. No hay información sobre revisiones, moderadores o protocolos éticos. Se promociona como “100% autónoma” sin límites ni seguridad.
Demasiado persuasiva o parcial. Favorece opiniones políticas, religiosas o comerciales sin aclarar que es su “sesgo de entrenamiento”. No presenta perspectivas alternativas. Esto indica riesgo de propaganda o manipulación. Señales de confianza. Una IA confiable admite sus límites (“No tengo información suficiente”), cita fuentes verificables, mantiene coherencia en temas complejos, rechaza solicitudes dañinas o ilegales y explica su razonamiento cuando es posible.
En la próxima edición continuaremos con esta información que sin duda, tiene mucho que ver con sucesos actuales.