Un camino silencioso que lo ha cambiado todo
En 2020, menos del 5 % de los artículos publicados en internet estaban generados por inteligencia artificial. Hoy, esa cifra se ha disparado hasta casi el 50 %, según una investigación liderada por la Universidad de Oxford sobre más de 65.000 publicaciones en inglés. En apenas cinco años, hemos pasado de ver la IA como una curiosidad técnica a convertirla en la principal fuente de contenido digital.
El punto de inflexión fue noviembre de 2022, con el lanzamiento de ChatGPT. Desde entonces, la producción automatizada de textos se ha acelerado a un ritmo exponencial. Blogs, medios, newsletters, redes sociales… todos han adoptado alguna forma de generación automática de contenido.
Y lo más sorprendente es que, muchas veces, ni siquiera nos damos cuenta.
¿Estamos leyendo a personas o a máquinas?
En la actualidad, solo el 48 % de los textos online los escriben humanos. Si la tendencia continúa, para 2026 esta proporción podría caer hasta el 10 %, dejando el resto del espacio informativo en manos de algoritmos.
Esto plantea una pregunta incómoda: ¿qué pasa con la autenticidad y la diversidad del conocimiento?
Si las inteligencias artificiales aprenden de textos creados por otras IA, el resultado puede parecerse a una fotocopia de una fotocopia: cada vez menos clara, menos rica y más uniforme.
¿Qué es el “colapso de modelos” y por qué debería preocuparnos?
Los investigadores de Oxford advierten de un fenómeno preocupante: el colapso de modelos (model collapse). Ocurre cuando los modelos de IA se entrenan sobre contenido generado por otras IA, lo que produce un empobrecimiento progresivo del conocimiento.
En la práctica, significa que la inteligencia artificial deja de aprender del mundo real y comienza a retroalimentarse de sus propios errores. El resultado: información más imprecisa, menos fiable y cada vez más alejada de la realidad.
Lo que empezó como una herramienta para agilizar tareas puede acabar convirtiéndose en una máquina que replica sesgos, errores y simplificaciones. Y cuanto más la usemos sin supervisión humana, más rápido avanzará ese deterioro.
¿Estamos ante una revolución o un riesgo para la información?
La automatización del contenido tiene ventajas evidentes: más rapidez, más volumen y menos costes. Pero también está transformando la forma en que entendemos la información y confiamos en ella.
Si cada texto, noticia o análisis se genera sin intervención humana, ¿cómo sabremos qué es verdad, qué está manipulado o simplemente mal interpretado?
El problema no es que la IA escriba, sino que escriba sola, sin supervisión ni contraste.
Cuando eso ocurre, corremos el riesgo de perder la perspectiva humana que da sentido, contexto y criterio a los datos.
Entonces, ¿qué podemos hacer?
El reto no está en frenar la inteligencia artificial, sino en integrarla de forma responsable.
Eso implica tres cosas básicas:
- Transparencia: que sepamos cuándo un contenido ha sido creado o editado por IA.
- Supervisión humana: mantener el criterio y la revisión como parte esencial del proceso.
- Diversidad de fuentes: asegurarse de que los modelos sigan aprendiendo de textos humanos, variados y de calidad.
Solo así evitaremos ese escenario en el que la IA acabe aprendiendo de sí misma hasta deformar la realidad.
La inteligencia artificial ha democratizado la creación de contenido, pero también ha abierto una puerta a nuevos riesgos. El avance es inevitable, pero cómo lo gestionemos marcará la diferencia entre una herramienta poderosa o un ecosistema digital cada vez más vacío.
Yo lo veo claro: no se trata de dejar de usar la IA, sino de aprender a convivir con ella sin perder lo más valioso que tenemos: el criterio humano.