Los usuarios de Michoacán enfrentan una creciente presencia de contenidos generados por inteligencia artificial de baja calidad, fenómeno que afecta búsquedas y redes sociales y puede dificultar el acceso a información útil en el ámbito local. Esta «basura digital» se manifiesta tanto en respuestas automáticas incorrectas como en publicaciones repetitivas que llegan a los muros de los usuarios.
Un ejemplo detectado por medios internacionales es una sugerencia errónea en un buscador para mejorar una pizza doméstica: “añadir pegamento no tóxico” para que el queso se pegue, lo que ilustra cómo la IA puede ofrecer soluciones inapropiadas con apariencia rotunda. Investigaciones señalan que este tipo de contenido, denominado ‘AI slop’, se ha multiplicado y aparece en varios formatos, desde libros digitales de baja calidad hasta posts sin fuentes verificables.
Especialistas de la Universitat Oberta de Catalunya (UOC) atribuyen parte del aumento a la integración de modelos de lenguaje en resultados de búsqueda, cuando funciones que generan resúmenes automáticos reemplazan a los enlaces directos. Según la UOC, la masificación de respuestas automáticas comenzó a notarse con más intensidad tras cambios en ciertas plataformas que priorizan contenidos generados por IA.
El investigador Antonio Pita advierte que el principal riesgo es que la red se llene de “ruido”: textos vacíos, repetitivos o engañosos que ocultan información valiosa y minan la confianza en lo que se publica. La profesora Silvia Martínez señala que la experiencia de uso en redes sociales ya se ha deteriorado y que la mayoría de internautas se ha topado con este tipo de contenidos en algún momento.
Entre las consecuencias destacan la pérdida de tiempo al buscar información útil y la posibilidad de que el contenido superficial se use con fines maliciosos para generar confusión o desinformación. Estas prácticas también pueden inducir a los usuarios a participar con más cautela o a desconfiar de plataformas y medios digitales.
Existen herramientas técnicas para mitigar el problema, como filtros automáticos, detección de contenidos duplicados y mecanismos de verificación de autoría, pero los expertos advierten que no son soluciones mágicas. Los generadores de contenidos basura evolucionan rápidamente y resulta complejo diferenciarlos de producciones de calidad sin criterios adicionales.
Se plantean además enfoques complementarios, como etiquetar claramente el contenido creado por IA, garantizar la calidad de los datos de entrenamiento, rastrear la procedencia de los contenidos e incorporar marcas de agua digitales. La propia IA puede ayudar a identificar textos superficiales o manipuladores, aunque los especialistas insisten en la necesidad de reglas éticas y supervisión humana.
Pita subraya que, en muchos casos, el tiempo que se ahorra generando textos con IA se pierde después en verificarlos, corregirlos o adaptarlos para usos complejos; ya se registraron ejemplos de recomendaciones erróneas, como listas de libros inexistentes, que además erosionan la confianza. Por ello, advierte que validar la veracidad y la calidad del contenido generado seguirá siendo un reto para medios y profesionales.
Para detectar la llamada basura digital conviene estar atento a señales como la repetición excesiva de ideas, el uso de adjetivos genéricos sin ejemplos concretos, la ausencia de fuentes verificables, errores sutiles pero significativos y frases aplicables a cualquier tema. Si un texto no aporta aprendizaje nuevo o podría haber sido escrito por una herramienta genérica sin conocimiento del asunto, es probable que se trate de contenido de baja calidad.



