
Entre las excepciones destacadas por la comunidad de Wikipedia figura la posibilidad de utilizar inteligencia artificial para corregir errores menores o traducir contenidos, siempre que este proceso esté estrictamente supervisado y se limite a tareas donde la intervención de la IA no aporte contenido nuevo ni modifique el significado original de los textos. Según publicó Europa Press, la versión en inglés de la enciclopedia en línea ha establecido una prohibición sobre el uso de herramientas de inteligencia artificial generativa para la redacción o edición de sus entradas, justificando la medida en que estas tecnologías pueden contravenir las normas básicas de la plataforma.
Wikipedia, que funciona bajo un modelo colaborativo con editores en todo el mundo, detalló que asistentes basados en grandes modelos de lenguaje, como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic o DeepSeek, suelen introducir alteraciones en la información al modificar conceptos clave. El medio Europa Press indicó que, según la organización, tales alteraciones ocurren porque estas tecnologías avanzadas, empleadas para la escritura automatizada, pueden reinterpretar el contenido de formas no avaladas por las fuentes citadas en la enciclopedia.
De acuerdo con Europa Press, la decisión responde a la preocupación de que la intervención de la inteligencia artificial, al generar o editar artículos, termina infringiendo varias de las políticas centrales en la creación de contenido de Wikipedia. Entre los principales riesgos señalados se encuentra la posibilidad de que frases o hechos sean modificados de manera tal que su significado original se vea comprometido, afectando así la fiabilidad de la información publicada en la web.
No obstante, Wikipedia hizo una distinción entre la generación de contenido original y el uso de IA para tareas que no alteran el fondo de los artículos, como la corrección gramatical o la traducción supervisada de textos. Según consignó Europa Press, la IA podrá intervenir únicamente en estos dos contextos: revisión ortográfica y gramatical, y conversión de artículos a otros idiomas. En ambos casos, la plataforma subrayó la necesidad de que los editores mantengan el control total del proceso para que el sentido de lo transmitido permanezca fiel a la versión original y se respete el material de referencia.
La organización advirtió, según reportó Europa Press, que aunque se permita el uso de grandes modelos de lenguaje para corregir errores, incluso en estas tareas es posible que los sistemas automáticos excedan los límites de lo solicitado. Por ello, la plataforma enfatizó que los usuarios deben extremar precauciones y revisar los cambios sugeridos por la IA para evitar distorsiones en los textos.
En el caso específico de las traducciones, los editores podrán utilizar inteligencia artificial para trasladar contenido de una lengua diferente al inglés, siempre bajo las estrictas reglas de la normativa interna para traducción asistida por LLM, las cuales exigen una revisión completa del resultado. Europa Press precisó que, para estas traducciones, la intervención humana resulta indispensable tanto en la supervisión como en la validación final del artículo, de modo que cualquier posible alteración conceptual introducida por la inteligencia artificial sea corregida antes de la publicación.
La medida fue propuesta por la administradora de Wikipedia Chaotic Enby, quien manifestó según destacó Europa Press que espera que esta decisión inspire cambios similares en otras plataformas. "Deseo que esto pueda dar lugar a un cambio más amplio, que empodere a las comunidades de otras plataformas y que se convierta en un movimiento en el que los propios usuarios sean los que decidan si la IA debe ser aceptada y en qué medida", declaró Enby según difundió el medio.
Europa Press señaló que la plataforma aclaró que el propósito principal de esta política es resguardar las garantías de calidad y precisión en la información que consulta un alto volumen de usuarios diariamente. La directiva adoptada busca reforzar la confianza en el modelo colaborativo y manual de la enciclopedia, ante una coyuntura internacional de creciente debate sobre el impacto de la inteligencia artificial en la producción de contenidos digitales.
Las condiciones para el uso permitido de IA en Wikipedia quedan circunscritas a que la herramienta no introduzca contenido propio y no interprete o altere lo escrito en los artículos, sino que se limite a detectar errores ortográficos o gramaticales ya presentes o a trasladar fielmente un texto a otro idioma, todo bajo estricta supervisión humana. Además, Europa Press puntualizó que los editores que empleen IA en estas tareas deberán seguir las pautas establecidas por la comunidad y someter su trabajo a un proceso de revisión adicional, para garantizar que no se produzcan modificaciones sustanciales en la información.
Según el medio, esta nueva normativa representa un cambio relevante en la gestión editorial de una de las páginas web más visitadas del mundo, y sitúa a Wikipedia en el centro del debate global sobre el uso responsable de tecnologías automatizadas para la generación y revisión de contenidos accesibles al público.
Últimas Noticias
El Ejército israelí informa de la muerte de un soldado en el sur de Líbano
Un miembro de las fuerzas armadas israelíes perdió la vida durante un enfrentamiento cerca del límite con Líbano, según las autoridades castrenses, mientras se reportan también tres heridos en un contexto de intensificación del conflicto regional

El Pentágono se prepara para "semanas" de operaciones terrestres en Irán
Fuentes oficiales de Estados Unidos han revelado que la Casa Blanca debate alternativas militares en la región, como intervenciones rápidas de fuerzas especiales y ofensivas selectivas, el despliegue de soldados y el control de enclaves energéticos clave en el Golfo Pérsico

Las inundaciones en Kenia dejan 108 muertos y más de 2.700 familias desplazadas tras semanas de intensas lluvias
