
TECNOLOGÍA.
El vertiginoso avance de la inteligencia artificial (IA) generativa ha traído consigo un fenómeno inesperado: el aumento masivo de contenidos de baja calidad, textos insustanciales, repetitivos o engañosos, que amenazan con saturar la red, ocultar información útil y erosionar la confianza de los usuarios en este sistema.
DESTACADOS:
- Un ejemplo de ‘AI slop’ (agua sucia de IA) o basura digital detectado por el periódico estadounidense The New York Times, son las respuestas automáticas de Google que sugieren "añadir pegamento no tóxico" para hacer que el queso se pegue mejor a la pizza, según la Universitat Oberta Catalunya (UOC).
- “Plataformas como TikTok, YouTube o Instagram muestran señales de saturación de contenido de baja calidad. Lo más preocupante es que muchas veces no sabemos cómo validar si aquello generado por la IA es correcto o no”, explica Antonio Pita Lozano, profesor de Informática, Multimedia y Telecomunicación, en la UOC.
- “Cuando se trata de generar contenidos complejos, como un artículo de fondo o una guía con referencias, el tiempo que se ahorra utilizando la IA puede perderse después, verificando la calidad y verosimilitud de los contenidos que ha generado la IA”, según explica a EFE el profesor Antonio Pita Lozano.
Imagine que busca información en Google acerca de cómo mejorar la pizza que se dispone a preparar en su casa, y el sistema de respuestas automáticas de este motor de búsqueda le sugiere en unas fracciones de segundo y con rotundidad "añadir pegamento no tóxico" para hacer que el queso se pegue mejor a la masa de la preparación.
Es un ejemplo de contenido de baja calidad generado por la inteligencia artificial o IA y llamado ‘AI slop’ (‘agua sucia’ de IA) o basura digital, que se está incrementando masivamente, detectado por el periódico estadounidense ‘The New York Times’ (NYT).
El NYT también ha encontrado otras manifestaciones de ‘AI slop’ como libros digitales baratos que imitan títulos populares pero cuya calidad es muy inferior o publicaciones en Facebook que aparecen aleatoriamente en los muros de noticias de los usuarios sin una fuente fiable, según un informe de la Universitat Oberta Catalunya (UOC), en Barcelona, España.
Inesperada avalancha de basura digital.

Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC e investigador del grupo ICSO de esa universidad, advierte sobre los riesgo de la basura digital. Foto: UOC.
La revolución de la inteligencia artificial (IA) generativa ha traído consigo un inesperado y masivo aumento de basura digital, un fenómeno debido al cual plataformas como TikTok, YouTube o Instagram ya están mostrando señales de saturación, según esta universidad privada en línea (www.uoc.edu/es).
Según los expertos de la UOC “este fenómeno creció especialmente en mayo de 2024, cuando el modelo Gemini de Google se integró en los resultados de búsqueda en EE. UU. y la función AI Overview empezó a generar respuestas automáticas en lugar de mostrar directamente enlaces”.
"El principal riesgo es que internet se llene de 'ruido': textos vacíos, repetitivos o engañosos que ocultan la información útil"
Explica Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador del grupo ICSO en la UOC.
“Esta masificación dificulta que se encuentren contenido de valor y también puede debilitar la confianza en dicho contenido, porque se desconoce si detrás hay una persona informada o simplemente una máquina soltando `frases bonitas pero vacías´", añade Pita.
Silvia Martínez Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación e investigadora del grupo GAME, en la UOC, advierte que “la presencia de AI slop ya está afectando negativamente a la experiencia de uso de las redes sociales” y que “la mayoría de los internautas se han topado en algún momento con este tipo de contenido”.
Erosión de la confianza en la IA.
“La primera consecuencia de esta saturación sería la sensación de estar perdiendo el tiempo, al no encontrar contenido de valor, y los efectos podrían ser aún más graves si se tienen en cuenta los usos maliciosos del ‘AI slop’, como generar incertidumbre, confusión o desinformación”, según Martínez.
"El usuario podría tener en las plataformas una experiencia no tan satisfactoria como desearía, experimentar un mayor escepticismo respecto al contenido consumido y percibir que está siendo utilizado para generar interacción o aumentar el número de visualizaciones y seguidores, lo que podría inducirle a que participe de forma más comedida”, alerta Martínez.
"Si no se adoptan medidas, la incidencia de este tipo de materiales aumentará, tanto por el incremento de mensajes como por el contacto prolongado con el usuario", advierte esta experta.
No hay soluciones mágicas.
El profesor Pita explica que “existen soluciones técnicas para frenar la avalancha de basura digital, pero no son mágicas”.
“Las plataformas pueden usar filtros automáticos, herramientas de detección de contenido duplicado o mecanismos para verificar la autoría y la calidad”, pero “estas soluciones llegan con retraso, ya que los generadores de contenido basura evolucionan muy rápidamente, y distinguirlos de los que generan contenido de calidad no es tan fácil como parece”, puntualiza Pita.
Explica que algunos países ya están trabajando en normativas y regulaciones que podrían contribuir a reducir esta nueva forma de ‘contaminación digital’.
Además, existen enfoques emergentes que podrían ayudar a solucionar este problema, como etiquetar claramente el contenido creado por IA; asegurar que los datos utilizados para entrenar a los modelos de IA sean precisos y no infrinjan derechos de autor; identificar la procedencia de los contenidos; o incluso incorporarles marcas de agua digitales.
Añade que la propia IA también podría formar parte de la solución, ya que la misma tecnología que genera textos puede ser entrenada para identificar cuándo un contenido es superficial o manipulador, y “la IA puede ayudarnos a clasificar y resumir contenidos, comparar fuentes y detectar patrones sospechosos”.
"Pero se necesitan reglas claras, éticas y un buen criterio humano detrás, ya que, si dejamos que la IA lo decida todo por sí sola, el remedio puede ser peor que la enfermedad", asegura el profesor de la UOC.
Perder más tiempo del que se ahorra.

Cada vez que un usuario descubre que el contenido generado por la IA es de baja calidad o carece de sentido se erosiona un poco más la confianza general en esta tecnología. Foto: Cookie Studio-Freepik.
Consultado por EFE acerca de si podría llegar a suceder que el tiempo que se gana o ahorra, buscando o generando contenidos mediante la IA, se pierda por otro lado, verificando la calidad y verosimilitud de los contenidos entregados por la IA, el profesor Pita responde que esto “ya está ocurriendo, especialmente cuando hablamos de generar contenidos complejos”.
Explica que la “IA es muy útil, permite ahorrar tiempo y ayuda a desbloquear ideas, en las tareas sencillas, como escribir un ‘tuit’, redactar una introducción básica o crear un pie de foto para redes sociales”.
En cambio, “cuando necesitas desarrollar un artículo de fondo, una guía con referencias o un contenido que se integre dentro de una estrategia más amplia, la cosa cambia”, según Pita.
“En este caso no basta con que la información generada mediante IA ‘suene bien’. Hay que revisarla, comprobar que no se repiten ideas vacías, y asegurarse de que el tono, el enfoque y el estilo encajen con nuestros objetivos”, apunta.
“El tiempo que ganamos al generar el contenido muchas veces se pierde después en adaptarlo, corregirlo y hacerlo usable de verdad. Esto ya está pasando en muchos equipos de desarrollo de soluciones digitales, donde se parte de una base generada por IA, pero se invierten recursos extra en revisarla, ampliarla o reescribirla”, explica Pita.
Para el profesor Pita “lo más preocupante es que muchas veces ni siquiera sabemos cómo validar si lo que se ha generado es correcto o no”.
“Ya se han dado casos de artículos (generados mediante IA) recomendando para leer durante el verano, libros que directamente no existían. Ese tipo de errores no solo cuestan tiempo. También erosionan la confianza en los contenidos, en los medios y en quienes los firman”, destaca.
Cómo detectar la basura digital en un texto.
El profesor Pita señala que hay señales bastante claras que deberían hacernos sospechar de estamos ante un contenido de baja calidad, AI slop o basura digital, como las siguientes:.
- - Repetición excesiva de ideas sin decir nada nuevo. “Se pueden observar párrafos que parecen girar en círculos, como si el texto estuviera ‘rellenando espacio’”, explica Pita.
- - Tonos artificialmente entusiastas o neutros, que suenan bien pero no dicen nada. “La presencia en un texto de muchos `beneficioso´, `eficaz´, `innovador´, sin ejemplos concretos ni datos que respalden lo que se afirma, es un indicio de AI slop”, según el profesor de la UOC.
- - Falta de autoría o referencias. Este indicio consiste en “la ausencia de enlaces, nombres, contexto o fuentes verificables, que hacen que el contenido parezca ‘flotar en el aire’”.
- - Errores sutiles pero significativos. “En un texto generado mediante IA pueden confundirse conceptos técnicos o históricos, o darse por ciertos datos incorrectos” con una apariencia de total seguridad, advierte este experto.
- - Frases generalistas y vacías de contenido, que podrían aplicarse a cualquier tema. Pita cita como ejemplo la frase “en un mundo en constante cambio, es importante adaptarse a las nuevas tecnologías”, la cual suena correcta, pero no dice nada específico ni útil.
- - Un buen consejo final. “Si después de leer un artículo no has aprendido nada nuevo o no sabrías explicárselo a otra persona, probablemente ha estado frente a un ‘contenido basura’. Y si todo lo que dice ese texto podría haberlo escrito una herramienta genérica de IA sin un conocimiento real del tema, lo más probable es que efectivamente sea basura digital”, concluye.
- Una iniciativa en México promueve la detección de cáncer de próstata en etapas curables- 07 diciembre, 2025
- Cuando la IA nos inunda de ‘contenido basura’- 07 diciembre, 2025
- "Como si me comiera desde dentro": la enfermedad que ataca los huesos en el norte de Kenia- 07 diciembre, 2025
UDGTV
Radio UdeG























