Bajo asedio
Ayer fue un día negro para México. El operativo para capturar al poderoso narcotraficante Nemesio Oseguera, alias "El Mencho", que acabó siendo abatido por elementos del Ejército Mexicano, será escrito en los anales de la historia con manos llenas de humo, sangre y miedo.
Al momento de enterarnos de lo que pasaba en Jalisco, la ráfaga de balas fue también acompañada de la ráfaga de los bits. El mundo nos veía con una mezcla de fascinación morbosa y condescendencia, mientras nosotros aquí, no sabíamos bien a bien hacia dónde mirar. De pronto, nos vimos invadidos por una marejada de información donde era difícil distinguir entre la mentira y la verdad de los hechos.
Circularon imágenes que helaban la sangre: convoyes supuestamente atrincherados en zonas residenciales, videos nítidamente grabados conteniendo amenazas dirigidas a la población civil. Como si no fuera ya de por sí escalofriante, algunos decidieron que era buen momento para elevar su rating como "creadores de contenido". No hablamos únicamente de fotomontajes burdos, sino de herramientas deepfake elaboradas con prompts precisos que generaron notas e imágenes hiperreales, donde las texturas de los uniformes o el brillo de las armas, las sombras generadas por el fuego, hacían casi indistinguible la imagen generada, de una fotografía real. El miedo, ese sí verdadero y omnipresente, fue alimentado por personas sin escrúpulos haciendo uso de la Inteligencia Artificial.
¿Cómo evitar ser peones del tablero de la desinformación? Lo primero, diría yo, es usar la pausa como resistencia. Tomarse tiempo para analizar el texto o la imagen impactante recibida. Asegurarse de dónde viene: si llega un mensaje anónimo, un tuit de cuenta extraña, el audio del primo de un amigo, dudar. El hecho de encontrar un texto o una imagen donde se señala "reenviado muchas veces" puedes ser indicativo de precaución. Si la información no proviene de una fuente seria, de una cuenta institucional, carece de firma y es abundante en ambigüedades, el lugar de ese texto debe de ser la basura, no el chat familiar o el reenvío automático "por si las dudas". Volverlo a enviar alimenta como oxígeno el fuego de la desinformación.
¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí
Si hay una imagen absolutamente precisa tomada aparentemente en un momento de gran tensión, hay que hacer una pausa y analizar. La IA suele tener errores en las periferias de la imagen, genera sombras que no coincide, manos con dedos extraños, difuminados antinaturales. A veces estas imágenes son tan dramáticas que bien parecen extraídas de películas de Hollywood; así que dude, dude y no lo reenvíe. Pregúntese también de dónde viene y, con calma, analice la procedencia. Recordemos que los algoritmos no tienen ética, priorizan lo viral sobre lo veraz.
El filósofo Byung Chul Han afirma que en la época actual, la democracia ya no tiene el poder coercitivo, sino que este poder se ejerce a través de algoritmos, datos, y el dominio de la información sobre la verdad. A esto, lo bautiza como "Infocracia" y en su territorio, la infodemia prevalece, haciendo que la verdad sea irrelevante, así el mensaje político se convierte en guerra de datos y gana la narrativa más emocional, no la mejor argumentada. En la infocracia se perfila al individuo con Big Data, se le alimenta de la información que quiere, no de la que necesita, hace que la persona se sienta sujeto de sus elecciones, sin darse cuenta de que está siendo coaccionado por una serie de algoritmos. El like se convierte en el pacto supremo, el reenvío, en el abandono del ejercicio del criterio.
Demasiado dolor hay ya con la realidad como para ensancharla con la falta de escrúpulos de quienes lucran con el sufrimiento de una nación. Ignorarlos hoy es nuestro deber.









