Wikipedia le pone límites a la inteligencia artificial: lo que lees puede que no sea real

La enciclopedia en línea estableció nuevas reglas para limitar el uso de inteligencia artificial en la edición y redacción de artículos

Guardar
La plataforma solo permite IA para correcciones menores y traducciones, siempre bajo revisión humana. (Imagen Ilustrativa Infobae)
La plataforma solo permite IA para correcciones menores y traducciones, siempre bajo revisión humana. (Imagen Ilustrativa Infobae)

Wikipedia, la enciclopedia colaborativa más consultada del mundo, estableció nuevas restricciones al uso de inteligencia artificial en la creación y edición de artículos. En un contexto marcado por la expansión de herramientas capaces de generar texto de manera autónoma, la plataforma decidió trazar una línea clara: el contenido producido por modelos de lenguaje como ChatGPT o Google Gemini no podrá ser utilizado para redactar o reescribir entradas, salvo en situaciones muy específicas.

La decisión de Wikipedia responde a preocupaciones sobre la precisión, fiabilidad y veracidad de la información. Según su nueva política editorial, el texto generado por modelos de lenguaje de gran tamaño suele contravenir los principios fundamentales del proyecto, especialmente en lo que respecta a la verificabilidad y el respaldo en fuentes confiables. Por este motivo, los colaboradores tienen prohibido emplear IA para crear o reescribir artículos, con solo dos excepciones reconocidas.

Excepciones limitadas: correcciones y traducción

Wikipedia permite el uso de IA en tareas menores, como la corrección de errores ortográficos o de formato en artículos escritos por el propio editor, siempre que estas modificaciones sean revisadas cuidadosamente antes de publicarse. La plataforma advierte que incluso estas herramientas pueden alterar el sentido original del texto o introducir cambios no respaldados por las fuentes.

Detectar contenido generado por modelos como ChatGPT sigue siendo un desafío para los moderadores. (Imagen Ilustrativa Infobae)
Detectar contenido generado por modelos como ChatGPT sigue siendo un desafío para los moderadores. (Imagen Ilustrativa Infobae)

Otra excepción es la traducción de artículos entre diferentes idiomas. En estos casos, se admite la asistencia de IA para generar borradores, pero el editor debe ser plenamente competente en ambos idiomas y responsabilizarse de verificar la precisión del contenido antes de publicarlo. Este requisito busca evitar distorsiones y preservar la fidelidad al material original.

Desafíos de implementación y control

Aunque la política marca un cambio importante, su cumplimiento enfrenta retos significativos. Detectar texto generado por IA sigue siendo complicado, ya que las herramientas de detección no siempre distinguen con claridad entre escritura humana y automática.

Wikipedia reconoce esta dificultad y ha emitido recomendaciones para que los moderadores puedan identificar posibles infracciones, aunque admite que algunos editores humanos pueden escribir de forma similar a un modelo de IA.

Wikipedia - Microsoft - IA - tecnología - 20 de enero
La Wikipedia en español adoptó una política aún más estricta, prohibiendo la IA en todas sus formas. (Imagen ilustrativa Infobae)

La plataforma también señala el riesgo de falsos positivos y omisiones, especialmente en páginas menos activas que escapan al monitoreo frecuente. La aplicación de la política dependerá, en gran medida, de la vigilancia de la comunidad y la actuación de los administradores voluntarios.

Limitaciones más estrictas en español

La restricción al uso de IA en Wikipedia no es global. Cada versión lingüística de la enciclopedia puede definir sus propias reglas. Mientras la Wikipedia en inglés permite un uso muy limitado de estas herramientas, la versión en español adoptó una posición más estricta, prohibiendo completamente los modelos de lenguaje tanto para redacción como para traducción o edición.

Esta autonomía refleja la diversidad de enfoques que existen en la gestión de comunidades digitales y la respuesta a los desafíos planteados por la inteligencia artificial.

Un joven de perfil derecho, sonriente, sentado en un escritorio de madera, tecleando en una laptop con una ventana de chatbot visible. Un gato duerme en la ventana.
La medida busca proteger la calidad y verificabilidad de la información frente a errores y distorsiones de la IA. (Imagen Ilustrativa Infobae)

Un debate más amplio sobre IA en internet

La decisión de Wikipedia se produce en un contexto de creciente integración de la IA en servicios, aplicaciones y plataformas digitales. Empresas tecnológicas han incorporado funciones inteligentes en teléfonos, navegadores y asistentes virtuales. Sin embargo, hay preocupación por la fiabilidad y los posibles errores —o “alucinaciones”— de los modelos automatizados, que pueden propagar información incorrecta o sin respaldo.

Administradores y editores ven en la política un intento de proteger la integridad y reputación de Wikipedia, equilibrando la rapidez y comodidad que ofrece la IA con la necesidad de mantener un conocimiento riguroso, verificable y humano.

Wikipedia busca con esta medida preservar la calidad del conocimiento compartido y fomentar la responsabilidad individual y colectiva. Como señaló uno de sus administradores, la decisión podría inspirar a otras comunidades a debatir el papel de la IA y definir sus propios límites.

A medida que la línea entre la escritura humana y la generada por máquinas se difumina, Wikipedia apuesta por la precaución y el control comunitario para garantizar la fiabilidad de la información en la era de la inteligencia artificial.