
La irrupción de herramientas de inteligencia artificial como ChatGPT ha transformado silenciosamente las aulas universitarias en Estados Unidos, especialmente en cursos de redacción. Mark Massaro, profesor de Composición en Inglés en Florida Southwestern State College, lo vive en carne propia: una parte creciente de sus estudiantes presenta trabajos que, según su experiencia, no han sido escritos por ellos.
Los métodos tradicionales de detección, como los escáneres de inteligencia artificial, han perdido fiabilidad. Ante esta situación, Massaro ha recurrido a su experiencia docente para identificar señales que puedan indicar si un trabajo fue producido por una IA. Ha compartido estos conocimientos con Gizmodo.
Señales de que un trabajo fue escrito por IA, según un profesor en EE. UU.
Entre las primeras señales que detectó el profesor se encuentran ciertos aspectos formales del texto, como el uso excesivo de guiones medios, una característica común en redacciones generadas por inteligencia artificial, y la ausencia de sangría al inicio de los párrafos.

En contextos donde se espera una estructura formal tradicional, la presencia de bloques de texto sin indentación levanta sospechas. Cuando un estudiante no sabe siquiera cómo escribir un guion medio en el teclado, las dudas se convierten en certezas, señala el docente.
Otros rasgos llamativos son la gramática impecable acompañada de ideas superficiales. Los ensayos generados por IA tienden a mantener un ritmo uniforme, con oraciones bien construidas pero carentes de profundidad. Massaro también percibe un tono excesivamente académico, pulido hasta lo antinatural, impropio de estudiantes reales, incluso de aquellos con buen desempeño.
La participación del alumno en el proceso también sirve de indicador. En sus clases, se espera que los estudiantes elaboren borradores y participen en revisiones grupales. Sin embargo, quienes recurren a la IA suelen entregar trabajos finales sin ningún rastro del proceso previo, con un vocabulario artificialmente sofisticado que no se corresponde con sus intervenciones orales o trabajos anteriores.

Cuando se solicitan escritos personales, la diferencia se vuelve aún más evidente. Los estudiantes que escriben desde su experiencia real, como un empleo en una tienda local, ofrecen detalles únicos e irrepetibles. En contraste, la IA recurre a generalidades vacías como “la importancia de la amistad para la humanidad”, tal como ironiza el propio Massaro.
A veces, la evidencia del engaño es tan burda que resulta casi absurda: interacciones con el chatbot que no fueron eliminadas antes de entregar el trabajo o citas falsas que obligan al profesor a verificar referencias en libros y artículos inexistentes. El problema no solo es el engaño, sino el tiempo adicional que los profesores deben invertir para confirmar si el contenido es real.
Aunque confrontar a los estudiantes puede ser incómodo, el profesor señala que, en muchos casos, los culpables terminan admitiendo el uso de IA o simplemente dejan de responder a sus mensajes. Por el contrario, quienes son acusados injustamente suelen defenderse de inmediato, y el docente afirma que suele creerles.

Lo más preocupante para Massaro no es solo el esfuerzo adicional que implica detectar estos casos, sino el daño que produce la IA: le arrebata a los estudiantes la oportunidad de descubrir su propia voz. En lugar de construir una identidad intelectual, permiten que un algoritmo piense y escriba por ellos.
Cómo se debe utilizar la inteligencia artificial de manera adecuada
Para usar adecuadamente la inteligencia artificial, es importante definir el propósito y el alcance de la herramienta antes de integrarla en una tarea. Se debe identificar cuándo resulta útil como apoyo, por ejemplo, en la redacción, el análisis de datos o la búsqueda de información, y entender que no reemplaza el criterio ni la supervisión humana. Es recomendable revisar y corroborar los resultados obtenidos, ya que la IA puede ofrecer respuestas imprecisas o incompletas.
El uso adecuado de la IA también implica considerar los aspectos éticos y legales vinculados a su aplicación. Es esencial proteger la privacidad de los datos y evitar reproducir información confidencial sin autorización. Además, citar la colaboración de la inteligencia artificial en trabajos académicos o publicaciones contribuye a la transparencia y fortalece la confianza en el uso responsable de esta tecnología.
Últimas Noticias
El código de ChatGPT revela integración en desarrollo con Apple Health
Informes señalan que OpenAI estaría trabajando para que su popular chatbot pueda acceder a los datos recolectados por la app Salud de Apple

AWS lanza nuevas herramientas para crear y personalizar LLMs sin gestionar infraestructura
El avance principal presentado por Amazon Web Services es la posibilidad de adaptar modelos de lenguaje grandes a medida utilizando dos de sus plataformas más relevantes en IA en la nube

Jensen Huang, CEO de Nvidia, admite que trabaja 7 días a la semana: “Es agotador”
La presión constante y la ansiedad marcan la vida del CEO de Nvidia, quien considera que la adversidad es clave para alcanzar grandes logros

Cuáles fueron las canciones más buscadas en Google este 2025: Bad Bunny y Taylor Swift lideran
DtMF y Eldest Daughter son dos de las canciones más buscadas en el mundo en Google

Optimus, el robot de Elon Musk, aprende a correr como los humanos
El prototipo sorprende con su capacidad de locomoción y anticipa una nueva era para los robots humanoides



