Publicado en

Wikipedia en la encifra: ¿víctima de su propio éxito en la era de la IA?

Wikipedia, ese faro de conocimiento colectivo que iluminó la internet durante dos décadas, está viendo cómo sus visitas humanas se desvanecen. Según datos oficiales de la Fundación Wikimedia, el tráfico global de usuarios reales ha experimentado una contracción del 8% interanual, un descenso que marca un punto de inflexión en la historia digital. Este fenómeno no es aislado; es el síntoma más evidente de un cambio sísmico en la forma en que la humanidad accede y consume información. La era de la consulta activa en buscadores que derivaba en la lectura de artículos enciclopédicos está cediendo paso a la inmediatez de las respuestas generativas y el consumo pasivo de contenido audiovisual.

En el corazón de este declive se encuentra la irrupción masiva de la inteligencia artificial generativa. Herramientas como ChatGPT, Google Gemini y las funciones de búsqueda con respuestas directa están reconfigurando los hábitos de consulta. ¿Para qué hacer clic en un enlace y leer un artículo cuando un algoritmo puede sintetizar la información y entregarla en segundos, sin publicidad y en un formato conversacional? Estos sistemas ofrecen comodidad, pero lo hacen a costa de aislar a los usuarios de la fuente original, creando un ecosistema informativo donde el contenido se consume sin contexto, sin verificación y, lo que es más crucial para Wikipedia, sin generar la interacción que sustenta su modelo.

La situación se ve agravada por la preferencia de las nuevas generaciones por formatos visuales y rápidos. Plataformas como TikTok y YouTube Shorts han acostumbrado a los usuarios a obtener respuestas en formato de video breve, relegando la lectura de textos a un plano secundario. Este desplazamiento paulatino del texto al video como principal vehículo de conocimiento representa un desafío existencial para un proyecto construido sobre la palabra escrita y la citación de fuentes.

Sin embargo, la narrativa no estaría completa sin mencionar un intrigante desafío técnico: la sofisticación de los bots. Marshall Miller, director de producto de la Fundación Wikimedia, relató cómo, alrededor de mayo de 2025, detectaron un tráfico inusualmente alto proveniente de Brasil que parecía humano. Una investigación más profunda reveló que se trataba de bots diseñados con tal nivel de complejidad que podían eludir los sistemas de detección. La posterior actualización de estos filtros permitió obtener una imagen más nítida y real del tráfico, confirmando la tendencia a la baja y dejando al descubierto que todas las versiones lingüísticas de Wikipedia han caído por debajo de los 15.000 millones de visitas mensuales, un umbral que mantenían con estabilidad desde septiembre de 2021.

Las consecuencias de este retroceso trascienden las meras estadísticas y amenazan el núcleo del proyecto. “Con menos visitas a Wikipedia, menos voluntarios podrán ampliar y enriquecer el contenido, y menos donantes individuales podrán apoyar esta labor”, advirtió Miller. La enciclopedia funciona como un ciclo virtuoso: el tráfico humano genera engagement, que a su vez incentiva la contribución de editores voluntarios y motiva las donaciones que financian su operación. La ruptura de este ciclo podría debilitar la salud financiera y comunitaria del sitio.

Existe una paradoja profunda en esta crisis: las mismas herramientas de IA que están drenando el tráfico de Wikipedia se alimentan vorazmente de su contenido. Los modelos de lenguaje son entrenados con el corpus de texto meticulosamente curado y verificado por miles de voluntarios, quienes aplican estrictos principios de verificabilidad y neutralidad. En esencia, Wikipedia ha sido, sin pretenderlo, la cantera de datos que ahora permite a otras plataformas prescindir de ella. Como bien señala Miller, Wikipedia sigue siendo esencial para las necesidades diarias de información de maneras «invisibles», sirviendo como columna vertebral de la veracidad en internet, incluso si los usuarios finales ya no pisan su umbral.

Esta tendencia no es una mera especulación. Matthew Prince, CEO de Cloudflare, ya había alertado que los resúmenes de IA estaban «matando» el tráfico a los sitios de contenido original. Los datos del Pew Research Center lo corroboran: en Estados Unidos, apenas el 1% de los usuarios hace clic en los enlaces incluidos dentro de los resúmenes generados por IA. La convergencia de estos factores pinta un panorama complejo para el proyecto de conocimiento colaborativo más ambicioso de internet. Su desafío ya no es solo mantenerse relevante, sino sobrevivir a la disrupción de las mismas tecnologías que él mismo ayudó a hacer posibles.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *