
La irrupción de herramientas de inteligencia artificial como ChatGPT ha transformado silenciosamente las aulas universitarias en Estados Unidos, especialmente en cursos de redacción. Mark Massaro, profesor de Composición en Inglés en Florida Southwestern State College, lo vive en carne propia: una parte creciente de sus estudiantes presenta trabajos que, según su experiencia, no han sido escritos por ellos.
Los métodos tradicionales de detección, como los escáneres de inteligencia artificial, han perdido fiabilidad. Ante esta situación, Massaro ha recurrido a su experiencia docente para identificar señales que puedan indicar si un trabajo fue producido por una IA. Ha compartido estos conocimientos con Gizmodo.
Señales de que un trabajo fue escrito por IA, según un profesor en EE. UU.
Entre las primeras señales que detectó el profesor se encuentran ciertos aspectos formales del texto, como el uso excesivo de guiones medios, una característica común en redacciones generadas por inteligencia artificial, y la ausencia de sangría al inicio de los párrafos.

En contextos donde se espera una estructura formal tradicional, la presencia de bloques de texto sin indentación levanta sospechas. Cuando un estudiante no sabe siquiera cómo escribir un guion medio en el teclado, las dudas se convierten en certezas, señala el docente.
Otros rasgos llamativos son la gramática impecable acompañada de ideas superficiales. Los ensayos generados por IA tienden a mantener un ritmo uniforme, con oraciones bien construidas pero carentes de profundidad. Massaro también percibe un tono excesivamente académico, pulido hasta lo antinatural, impropio de estudiantes reales, incluso de aquellos con buen desempeño.
La participación del alumno en el proceso también sirve de indicador. En sus clases, se espera que los estudiantes elaboren borradores y participen en revisiones grupales. Sin embargo, quienes recurren a la IA suelen entregar trabajos finales sin ningún rastro del proceso previo, con un vocabulario artificialmente sofisticado que no se corresponde con sus intervenciones orales o trabajos anteriores.

Cuando se solicitan escritos personales, la diferencia se vuelve aún más evidente. Los estudiantes que escriben desde su experiencia real, como un empleo en una tienda local, ofrecen detalles únicos e irrepetibles. En contraste, la IA recurre a generalidades vacías como “la importancia de la amistad para la humanidad”, tal como ironiza el propio Massaro.
A veces, la evidencia del engaño es tan burda que resulta casi absurda: interacciones con el chatbot que no fueron eliminadas antes de entregar el trabajo o citas falsas que obligan al profesor a verificar referencias en libros y artículos inexistentes. El problema no solo es el engaño, sino el tiempo adicional que los profesores deben invertir para confirmar si el contenido es real.
Aunque confrontar a los estudiantes puede ser incómodo, el profesor señala que, en muchos casos, los culpables terminan admitiendo el uso de IA o simplemente dejan de responder a sus mensajes. Por el contrario, quienes son acusados injustamente suelen defenderse de inmediato, y el docente afirma que suele creerles.

Lo más preocupante para Massaro no es solo el esfuerzo adicional que implica detectar estos casos, sino el daño que produce la IA: le arrebata a los estudiantes la oportunidad de descubrir su propia voz. En lugar de construir una identidad intelectual, permiten que un algoritmo piense y escriba por ellos.
Cómo se debe utilizar la inteligencia artificial de manera adecuada
Para usar adecuadamente la inteligencia artificial, es importante definir el propósito y el alcance de la herramienta antes de integrarla en una tarea. Se debe identificar cuándo resulta útil como apoyo, por ejemplo, en la redacción, el análisis de datos o la búsqueda de información, y entender que no reemplaza el criterio ni la supervisión humana. Es recomendable revisar y corroborar los resultados obtenidos, ya que la IA puede ofrecer respuestas imprecisas o incompletas.
El uso adecuado de la IA también implica considerar los aspectos éticos y legales vinculados a su aplicación. Es esencial proteger la privacidad de los datos y evitar reproducir información confidencial sin autorización. Además, citar la colaboración de la inteligencia artificial en trabajos académicos o publicaciones contribuye a la transparencia y fortalece la confianza en el uso responsable de esta tecnología.
Últimas Noticias
Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales

IA y redes eléctricas en Estados Unidos: desafíos y soluciones frente al crecimiento sostenido del consumo digital
El sector enfrenta la necesidad de modernizar la infraestructura y coordinar inversiones para responder al impacto de la inteligencia artificial sin comprometer la continuidad del servicio, según advierte Fortune


