Inicio / Opinion / Cuando la mentira se vuelve tendencia: rumores de muerte, guerra y el “efecto IA” |por Luis Orlando Díaz

Cuando la mentira se vuelve tendencia: rumores de muerte, guerra y el “efecto IA” |por Luis Orlando Díaz

Hay momentos en los que un rumor deja de ser una simple distorsión del día a día y se convierte en un hecho político por sí mismo. No porque sea verdadero, sino porque logra condicionar percepciones, alterar decisiones y empujar a instituciones y sociedades a reaccionar en tiempo real. En escenarios de tensión internacional, la información ya no opera como un insumo neutral: se transforma en un campo de disputa estratégica donde la manipulación puede erosionar la confianza pública con la misma eficacia con la que un ataque puede dañar infraestructura crítica. En ese contexto, la desinformación no es un “tema de redes”; es un problema de gobernanza, de seguridad y de resiliencia nacional.
El episodio reciente de los rumores sobre la supuesta muerte o lesión del primer ministro israelí Benjamín Netanyahu ilustra, con nitidez, cómo funciona la nueva economía de la plausibilidad fabricada. El 15 de marzo de 2026, Reuters reportó que Netanyahu publicó un video en un café, bromeando sobre la versión de que estaba “muerto”, luego de que medios estatales iraníes y redes sociales amplificaran la narrativa. La agencia verificó la ubicación y la fecha contrastando el interior del local con imágenes de archivo y corroborando el momento a través de publicaciones del propio establecimiento. Ese detalle —la verificación contextual de lugar y tiempo— es la lección más relevante: en la era digital, la verdad no basta con declararla; hay que demostrarla con trazabilidad.

Lo que convierte este caso en un “caso-síntoma” no es el chisme en sí, sino su mutación. Primero circula la afirmación explosiva (“está muerto”). Después, cuando aparece una evidencia audiovisual para refutarla, la conversación migra hacia una acusación aún más corrosiva: “el video es falso”, “es IA”, “es un deepfake”. The Times of Israel describió cómo el propio Netanyahu aprovechó el video para ridiculizar la teoría de que una comparecencia previa había sido generada con inteligencia artificial, alimentada por lecturas virales de fotogramas y por la obsesión contemporánea con “detalles técnicos” que el ciudadano promedio no puede verificar por sí solo. Y allí ocurre el daño mayor: el paso de una mentira concreta a una duda generalizada sobre la posibilidad de acordar hechos compartidos.

Ese desplazamiento es el corazón del “efecto IA”: la instalación social de la sospecha permanente sobre la autenticidad de la evidencia, especialmente audiovisual. No se trata únicamente de que existan herramientas capaces de generar contenido sintético convincente; se trata de que la percepción de esa capacidad —real o exagerada— sirve para deslegitimar cualquier prueba. En otras palabras, la IA no solo puede fabricar imágenes o voces; también puede fabricar incertidumbre. Y cuando la incertidumbre se vuelve norma, la confianza se convierte en el recurso más escaso, justo cuando más se necesita para gestionar crisis.
El Foro Económico Mundial ha advertido que la desinformación y la misinformation se mantienen entre los principales riesgos de corto plazo y que su efecto erosiona la cohesión social y la gobernanza al degradar la confianza, amplificar divisiones y dificultar la cooperación. En un mundo “fracturado”, donde los conflictos y la polarización elevan la temperatura, el espacio informativo se vuelve una extensión del conflicto. La desinformación no solo “confunde”; puede movilizar emociones, inducir pánico, presionar decisiones públicas y abrir oportunidades para actores que se benefician del caos. Por eso, tratarla como un problema menor equivale a aceptar una vulnerabilidad estratégica.
Ahora bien, el Estado democrático enfrenta un dilema delicado: defender la integridad informativa sin caer en control informativo. Combatir campañas de manipulación no puede convertirse en excusa para restringir libertades, ni para reemplazar el debate plural por una verdad oficial impuesta. Sin embargo, reconocer ese riesgo no debe paralizarnos. Al contrario, obliga a diseñar políticas públicas basadas en evidencia, transparencia y derechos. La clave no es “censurar más”, sino construir una infraestructura de verificación que haga más difícil y costosa la mentira, y más accesible y confiable la verdad.

Etiquetado:

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *