Rolando Daza
Apunte:
El tema debería ser que las mujeres van a gobernarnos, una desde la presidencia de la república y otra desde el gobierno del estado de Guanajuato. Ahora sí, veremos de quién saldrán más correas. Sin embargo, no serán el tema de esta colaboración. Comentaremos sobre cómo los procesos electorales, pandemias o tragedias naturales generan efectos perjudiciales y son terreno fértil para la desinformación.
Definidos los candidatos para la CDMX y los estados que tendrán elecciones el próximo año, se puede observar el uso y abuso de los medios de comunicación, divulgando noticias como el audio de Martí Batres, en el que supuestamente conspiraba para socavar al candidato Omar García Harfuch. “Está producido con inteligencia artificial. No es real”, fue la defensa.
Otros aspirantes de diferentes partidos también han sido víctimas de estas clonaciones. Con la efervescencia electoral que se vivirá en México, la gran paradoja del empleo de las tecnologías vuelve a saltar al debate público. Si bien la IA permite la eficiencia, el ahorro de tiempos y costos en distintas actividades (incluyendo el periodismo), también tiene el potencial de producir contenidos de desinformación en grandes volúmenes.
Y así ha sido empleado en diversos países. En Eslovaquia, un audio falso en el que un candidato admitía una supuesta compra de votos circuló antes de 48 horas para que empezara la votación. También en Colombia se divulgaron audios presuntamente generados con IA en Instagram y X (antes Twitter). En Nigeria, se distribuyó propaganda “incendiaria” a través de TikTok y, en Argentina, tuvo relevancia una declaración apócrifa de Lionel Messi asegurando que votaría por Javier Milei.
A este tipo de material se le conoce como deepfakes, se generan a partir de una grabación real de audio o vídeo por medio de aplicaciones. Antes se requerían 20 minutos de muestra para crear una cápsula de 30 segundos y ahora basta con un minuto para generar estos contenidos ficticios.
En el paso del huracán Otis, que devastó Acapulco, se generó una ola de desinformación, aunque por vías tradicionales (vídeos o imágenes sacados de contexto). Si, aun así, esas noticias falsas se esparcieron rápidamente, ¿se imagina lo que habría pasado si se hubiera usado inteligencia artificial? Viene una “guerra informativa”, en la que la IA jugará un papel de arma de desinformación masiva, ilustra bastante bien lo que sucedió con los morenistas y su proceso.
Así tendremos desinformación, (información falsa, creada no con la intención de causar daño) y con malinformación (información falsa diseñada para infligir daño a una persona o grupo social). Los dos son dañinos, sin importar la intencionalidad, la mayoría de los contenidos que se generan con IA corresponden a la segunda categoría.
Estos contenidos de proporcionar información intencionadamente manipulada al servicio de ciertos fines se propagan de manera apresurada, lo que complica desmentirlos en tiempo real. Y a esto se suma el sesgo de confirmación. Las personas están más dispuestas a creer lo que fortalece sus convicciones previas. En cambio, raramente consumen los medios donde se verifica y se objetan las mentiras ya divulgadas.
Un dato a considerar, los algoritmos son clave para el funcionamiento de la IA. Los algoritmos son difíciles de auditar y se han convertido en auténticas “cajas negras”. Los algoritmos finalmente también son arbitrarios. Imponen a las personas un patrón de consumo de noticias no exento de sesgos ideológicos o tendencias políticas. Y también existe un factor económico, pues los “bulos” monetizan por su simple poder viral. Todo esto se ha reforzado porque los medios tradicionales sufren un proceso de desprestigio que ha diluido su poder e influencia.
El combate contra la desinformación no es asunto solo de periodistas. Cada persona puede aplicar una frase de Mario Tascón: “Cuanto más impactante parezca una historia, apliquemos el mayor de los escepticismos”.
Aún no hay comentarios, ¡añada su voz abajo!