
La irrupción de herramientas de inteligencia artificial como ChatGPT ha transformado silenciosamente las aulas universitarias en Estados Unidos, especialmente en cursos de redacción. Mark Massaro, profesor de Composición en Inglés en Florida Southwestern State College, lo vive en carne propia: una parte creciente de sus estudiantes presenta trabajos que, según su experiencia, no han sido escritos por ellos.
Los métodos tradicionales de detección, como los escáneres de inteligencia artificial, han perdido fiabilidad. Ante esta situación, Massaro ha recurrido a su experiencia docente para identificar señales que puedan indicar si un trabajo fue producido por una IA. Ha compartido estos conocimientos con Gizmodo.
PUBLICIDAD
Señales de que un trabajo fue escrito por IA, según un profesor en EE. UU.
Entre las primeras señales que detectó el profesor se encuentran ciertos aspectos formales del texto, como el uso excesivo de guiones medios, una característica común en redacciones generadas por inteligencia artificial, y la ausencia de sangría al inicio de los párrafos.

En contextos donde se espera una estructura formal tradicional, la presencia de bloques de texto sin indentación levanta sospechas. Cuando un estudiante no sabe siquiera cómo escribir un guion medio en el teclado, las dudas se convierten en certezas, señala el docente.
PUBLICIDAD
Otros rasgos llamativos son la gramática impecable acompañada de ideas superficiales. Los ensayos generados por IA tienden a mantener un ritmo uniforme, con oraciones bien construidas pero carentes de profundidad. Massaro también percibe un tono excesivamente académico, pulido hasta lo antinatural, impropio de estudiantes reales, incluso de aquellos con buen desempeño.
La participación del alumno en el proceso también sirve de indicador. En sus clases, se espera que los estudiantes elaboren borradores y participen en revisiones grupales. Sin embargo, quienes recurren a la IA suelen entregar trabajos finales sin ningún rastro del proceso previo, con un vocabulario artificialmente sofisticado que no se corresponde con sus intervenciones orales o trabajos anteriores.
PUBLICIDAD

Cuando se solicitan escritos personales, la diferencia se vuelve aún más evidente. Los estudiantes que escriben desde su experiencia real, como un empleo en una tienda local, ofrecen detalles únicos e irrepetibles. En contraste, la IA recurre a generalidades vacías como “la importancia de la amistad para la humanidad”, tal como ironiza el propio Massaro.
A veces, la evidencia del engaño es tan burda que resulta casi absurda: interacciones con el chatbot que no fueron eliminadas antes de entregar el trabajo o citas falsas que obligan al profesor a verificar referencias en libros y artículos inexistentes. El problema no solo es el engaño, sino el tiempo adicional que los profesores deben invertir para confirmar si el contenido es real.
PUBLICIDAD
Aunque confrontar a los estudiantes puede ser incómodo, el profesor señala que, en muchos casos, los culpables terminan admitiendo el uso de IA o simplemente dejan de responder a sus mensajes. Por el contrario, quienes son acusados injustamente suelen defenderse de inmediato, y el docente afirma que suele creerles.

Lo más preocupante para Massaro no es solo el esfuerzo adicional que implica detectar estos casos, sino el daño que produce la IA: le arrebata a los estudiantes la oportunidad de descubrir su propia voz. En lugar de construir una identidad intelectual, permiten que un algoritmo piense y escriba por ellos.
PUBLICIDAD
Cómo se debe utilizar la inteligencia artificial de manera adecuada
Para usar adecuadamente la inteligencia artificial, es importante definir el propósito y el alcance de la herramienta antes de integrarla en una tarea. Se debe identificar cuándo resulta útil como apoyo, por ejemplo, en la redacción, el análisis de datos o la búsqueda de información, y entender que no reemplaza el criterio ni la supervisión humana. Es recomendable revisar y corroborar los resultados obtenidos, ya que la IA puede ofrecer respuestas imprecisas o incompletas.
El uso adecuado de la IA también implica considerar los aspectos éticos y legales vinculados a su aplicación. Es esencial proteger la privacidad de los datos y evitar reproducir información confidencial sin autorización. Además, citar la colaboración de la inteligencia artificial en trabajos académicos o publicaciones contribuye a la transparencia y fortalece la confianza en el uso responsable de esta tecnología.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Lo dieron por muerto en 2022: hoy Google controla toda la cadena de la IA
Sundar Pichai capitalizó USD 4 billones, declaró “AI-first” en 2016 y aguantó dos años de burlas tras la salida de ChatGPT. Hoy Gemini tiene el 25% del tráfico mundial de IA y Google factura USD 400.000 millones al año

Cómo se verían Los Padrinos Mágicos en el universo de GTA, según la IA
Nano Banana 2 en Gemini de Google puede crear imágenes de Cosmo y Wanda con el estilo callejero característico de este videojuego

Steven Soderbergh defendió el uso creativo de la inteligencia artificial en su documental sobre John Lennon
El director detalló cómo la alianza con Meta permitió convertir una entrevista inédita en una experiencia visual innovadora, poniendo en debate la transparencia y los nuevos recursos del cine documental

Cómo se verían Las Guerreras K-pop en la vida real hoy 2026
Zoey, Rumi y Mira son reinterpretadas con estética real gracias a la IA, manteniendo su esencia dentro del universo de Las Guerreras K-pop

Los riesgos invisibles de usar IA en el trabajo, según Harvard: dolor de cabeza, fatiga y más
Estos síntomas son consecuencia de la sobrecarga mental causada por el uso prolongado de diferentes sistemas de inteligencia artificial


