00:05 16-12-2025

Internet 2025: auge del slop de IA y cómo nos afecta

Análisis de 2025: expansión del slop de IA en búsquedas y redes. Efectos en cognición y salud mental, riesgos de desinformación y respuestas de plataformas.

Para 2025, internet luce visiblemente distinta. Muchas plataformas están inundadas de contenido generado por inteligencia artificial. Los usuarios suelen apodarlo “slop”, una etiqueta nacida en redes para textos, imágenes y videos que se perciben extraños, poco fiables o prescindibles. El término salió del mundo online y terminó arraigándose en debates más amplios.

Se dice que el volumen de ese material crece hora a hora. Aparece en resultados de búsqueda, feeds sociales, tiendas en línea, bibliotecas digitales e incluso anuncios políticos. No sorprende que 2025 ya se describa como el momento en que la producción de IA pasó de los ensayos a la rutina cotidiana.

Por qué el “slop” se propagó tan rápido

Investigaciones señalan un fuerte aumento de textos escritos por IA entre los resultados de Google. En distintos momentos de 2025, ese material representó cerca de una quinta parte de las primeras posiciones. Los propios servicios de búsqueda cada vez ofrecen resúmenes generados por IA en lugar de simples listas de enlaces.

Las redes sociales van por una senda similar. Circulan ampliamente series de imágenes emocionales hechas con IA, a menudo creadas solo para maximizar alcance. Muchas de estas cuentas operan desde países donde las visualizaciones se pueden monetizar. También es común la imaginería política generada por IA: desde retratos retocados hasta escenas escenificadas de desastres y disturbios.

Los mercados en línea y las bibliotecas electrónicas lidian con otro frente: un número creciente de libros compuestos íntegramente con texto de IA. A veces son reescrituras del trabajo de otros; otras, manuales huecos. El volumen por sí solo dificulta que los lectores den con títulos de calidad.

Cómo esto reconfigura el espacio informativo

El aluvión de contenido sintético crea un entorno ruidoso y opaco. A muchos usuarios les cuesta distinguir imágenes reales de las generadas. En grandes acontecimientos públicos —desastres naturales, crisis políticas— ese material puede acentuar la ansiedad o alimentar la desconfianza.

Investigadores señalan que, incluso cuando la gente entiende que un texto o una imagen fue creada por IA, igual puede reaccionar emocionalmente. Eso, a su vez, ayuda a que circulen más rápido los engaños y las simplificaciones.

Qué dicen los científicos sobre los efectos de la IA en el cerebro y la conducta

En 2025, nuevos estudios analizaron cómo influyen los grandes modelos de lenguaje en la cognición. En un experimento del MIT, los participantes redactaron varios ensayos: por su cuenta, con una búsqueda web estándar y con ChatGPT.

Los datos sugieren que el grupo asistido por IA mostró menor actividad cerebral durante las tareas. Los participantes se apoyaron más en el texto preparado por el modelo, se implicaron menos en el proceso y recordaron menos lo que habían escrito. Los investigadores subrayan que estos resultados requieren más validación, pero ya plantean preguntas sobre el papel de la IA en el aprendizaje y en el desarrollo de habilidades de pensamiento.

Preocupaciones de salud mental

Parte de la investigación se centra en los llamados compañeros de IA. Periodistas y expertos citan casos en los que los bots encauzaron a usuarios hacia conversaciones de riesgo, incluido consejo peligroso. En ciertos episodios trágicos, esos intercambios coincidieron con el empeoramiento del estado de una persona.

Los especialistas advierten que los chatbots pueden crear la ilusión de apoyo emocional, pero no sustituyen la ayuda profesional. Esa advertencia pesa especialmente para adolescentes y para personas propensas a la ansiedad o la depresión.

Cómo responden las plataformas

Compañías de internet y reguladores están desplegando nuevas reglas. Google actualiza los requisitos de calidad de las páginas y degrada los sitios donde casi todo el contenido está hecho con IA sin una participación humana clara. En Estados Unidos, los responsables de políticas discuten medidas para proteger a los niños de interacciones inseguras con chatbots.

Las plataformas de medios también intentan frenar los libros falsificados e incorporan verificaciones de autoría. Editoriales proponen estándares técnicos para regir cómo pueden usar los sistemas de IA los materiales de los sitios web en su entrenamiento.

Hacia dónde va internet

El desplazamiento de lo humano a lo sintético avanza rápido y mucho de ello aún debe estudiarse. Algo sí parece claro: la IA se ha vuelto una pieza rutinaria del entorno digital. Ayuda a resolver tareas, pero también añade capas de información que no siempre son transparentes ni seguras.

Para los usuarios, esto implica mirar con más lupa lo que leen y ven, y tener presente que hoy no todo lo que aparece en línea está hecho por personas.