
Una advertencia poco habitual comenzó a aparecer en la parte superior de cientos de artículos de Wikipedia: “Este artículo puede incorporar texto de un modelo de lenguaje de gran tamaño”.
Esta señal, destinada a alertar sobre la posible presencia de contenido generado por inteligencia artificial, refleja la creciente inquietud de la comunidad de voluntarios ante la proliferación de errores y manipulaciones introducidas por sistemas automatizados.
De acuerdo con The Washington Post, los editores intensificaron la vigilancia para detectar y retirar este tipo de textos, mientras la fiabilidad de la plataforma se convierte en un asunto central para millones de usuarios.
El fenómeno se volvió evidente desde 2022, cuando herramientas como ChatGPT facilitaron la creación de textos persuasivos que pueden aparecer en artículos de Wikipedia. La edición abierta, uno de los pilares históricos del sitio, enfrenta un desafío: diferenciar entre aportes legítimos y materiales generados por inteligencia artificial, habitualmente afectados por errores, citas inventadas o sesgos interesados.

Los registros internos y foros muestran el esfuerzo de los voluntarios, quienes dedican jornadas completas para revisar cambios dudosos y eliminar contenido problemático. El combate contra la automatización se transformó en una tarea persistente y compleja.
Entre los casos detectados, los editores hallaron artículos donde se describía un hotel argentino en vez de una localidad de nombre similar, o la publicación de una supuesta fortaleza otomana ficticia que permaneció sin ser descubierta durante casi un año.
Un estudio de la Universidad de Princeton, realizado en octubre de 2024, reveló que cerca del 5% de las aproximadamente 3.000 nuevas páginas en inglés creadas en agosto de ese año presentaban texto generado por inteligencia artificial. Los investigadores destacaron que, en algunos casos, la IA sirvió como apoyo para redactar artículos aparentemente inocuos, mientras que en otros fue utilizada para promover intereses comerciales o políticos. Muchos de estos artículos resultaron eliminados tras la intervención de los moderadores, según detalla The Washington Post.
La respuesta comunitaria y los nuevos controles
La reacción de la comunidad fue inmediata. En 2023, los editores crearon el equipo WikiProject AI Cleanup, centrado en combatir errores originados por sistemas automatizados. Este grupo desarrolló guías específicas para que los voluntarios puedan identificar señales de escritura artificial y mantiene una lista de más de 500 artículos sospechosos pendientes de revisión.

Recientemente, Wikipedia modificó su política de borrado rápido: los editores ahora pueden eliminar de manera ágil los artículos que evidencien indicios de generación por IA, como la inclusión de instrucciones residuales propias de estos sistemas. Adicionalmente, la plataforma prohíbe el uso de imágenes generadas por inteligencia artificial.
Las discusiones internas se caracterizaron por su intensidad y extensión. Los mensajes entre editores evidencian que las políticas sobre el uso de IA se ajustó caso a caso, acompañadas de advertencias a quienes infringen las reglas y la recopilación de nuevas señales para actualizar las guías.
Un editor anónimo resumió la situación en junio: “He estado encontrando MUCHÍSIMO contenido basura generado por IA en la cola de envíos”, según recogió The Washington Post.
A su vez, Marshall Miller, director de producto para experiencias principales en la Fundación Wikimedia, comparó la labor de los voluntarios con la función de un sistema inmunológico: “Me gusta pensar en ello como un sistema inmune”.
Miller reconoció la capacidad de la comunidad para movilizarse y crear respuestas ante el contenido automatizado, aunque también señaló que estas herramientas pueden ser útiles si se emplean para automatizar tareas rutinarias, facilitar el ingreso de nuevos editores o traducir artículos.

Sin embargo, subrayó que la revisión humana sigue siendo esencial: “La manera en que Wikipedia se mantiene neutral y fiable, y lo que la hace única, es que todo su contenido pasa por las manos de personas”.
El debate sobre el futuro de la IA en Wikipedia
La Fundación Wikimedia experimentó con inteligencia artificial para mejorar la plataforma, pero no todas las iniciativas fueron bien recibidas. En junio, la fundación optó por abandonar un experimento para sumar resúmenes generados por IA a los artículos, tras las protestas de la comunidad, según informó el medio especializado 404 Media. Miller aclaró que cualquier avance futuro en esta área solo complementará el trabajo de los voluntarios y no reemplazará la revisión humana.
Por su parte, Lucie-Aimée Kaffee, investigadora en políticas y tecnología de inteligencia artificial, enfatizó: “La gente confía mucho en Wikipedia. Y eso es algo que no deberíamos erosionar”, declaró en conversación con The Washington Post.
Kaffee considera que la experiencia de Wikipedia frente a este desafío puede servir de ejemplo para otras organizaciones que pronto enfrentarán la integración de inteligencia artificial en sus propios sistemas de información.
El debate sobre el papel de estas tecnologías en la creación y gestión del conocimiento público continúa abierto. La experiencia de Wikipedia destaca la importancia de definir límites y reglas claras para el uso de inteligencia artificial en el acceso y validación de la información.
Últimas Noticias
El peligro que suele ser ignorado en WhatsApp: qué tan seguras están las copias de seguridad en la nube
Esta vulnerabilidad permite que ciberdelincuentes accedan a mensajes archivados sin cifrado

Así puedes activar en tu iPhone la herramienta que previene mareos en el auto
Una vez implementada, la pantalla mostrará unos pequeños puntos, blancos o negros, que se mueven en sentido contrario al desplazamiento del vehículo

Top 10 de canciones que más se escucharán en las fiestas de Año Nuevo, según la IA
ChatGPT y Gemini analizaron las tendencias musicales recientes y ofrecieron las razones por las que estos temas se posicionan entre los más elegidos

Dónde termina la información de personas y empresas extraída por ciberdelincuentes
La compraventa de información sustraída permite ataques de ingeniería social y segmentación comercial, mientras millones de ciudadanos quedan expuestos sin advertirlo

La prótesis del futuro: usan IA para construir una mano biónica tan precisa como la humana
El avance tecnológico permite a quienes dependen de dispositivos protésicos recuperar destrezas esenciales para la vida diaria



