Un nuevo estudio revela que los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) pueden experimentar algo parecido al “brain rot” humano cuando se exponen a contenido trivial.
El término “brain rot” se ha popularizado en internet para describir el efecto de consumir contenido sin valor, especialmente en plataformas como TikTok, donde los videos cortos y virales se consumen uno tras otro. Ahora, parece que las IA también pueden sufrirlo.
Investigadores de Texas A&M, la Universidad de Texas en Austin y Purdue alimentaron varios modelos de inteligencia artificial con contenido “trivial”, dividido en dos tipos:
- Publicaciones virales de redes sociales altamente atractivas.
- Contenido más largo con poca sustancia.
Se probaron los modelos Llama3 8B, Qwen2.5 7B/0.5B y Qwen3 4B, y todos mostraron signos de declive cognitivo tras consumir solo contenido trivial.
- Meta’s Llama fue el más afectado: su capacidad de razonamiento cayó, tuvo problemas para entender contexto y desobedeció estándares de seguridad.
- Qwen3 4B manejó mejor el contenido, pero igualmente sufrió de brain rot.
Como señaló Junyuan “Jason” Hong en X (antes Twitter): “El brain rot empeora con mayor exposición a contenido basura — un claro efecto dosis-respuesta.”
Aunque ChatGPT no fue probado directamente, el estudio muestra que la IA también se degrada cuando se alimenta de contenido sin valor, similar a cómo el cerebro humano se “podre” al consumir solo cosas triviales.
Este post es presentado por Bandi Tech. Nuestras PC son creadas por banditech. Computer artists at work to simplify your tech life!


