
El uso de la Inteligencia Artificial se ha intensificado en los últimos dos años, pues ya no solo se utiliza para crear imágenes complejas o programas digitales complejos, sino que se ha convertido en una herramienta para resolver dudas rápidas.
Por ello, académicos del Instituto de Fisiología Celular (IFC) de la Universidad Nacional Autónoma de México (UNAM) analizaron las oportunidades y limitaciones de herramientas como ChatGPT en entornos académicos y científicos.
En un foro, el doctor Carlos Peralta Álvarez expuso con detalle los impactos y desafíos de los llamados modelos de lenguaje generativo, señalando que la relevancia del tema radica no solo en la popularización de tales herramientas, sino también en la manera en que se están normalizando su uso.
El Dr. Augusto Poot Hernández, coordinador del evento, platicó que en el último semestre notó un aumento significativo en la cantidad de estudiantes que comenzaban sus argumentos con la frase “me lo dijo ChatGPT” o “hice lo que me dijo Chat’”, y normalmente estas frases iban seguidas de un “No funcionó”.

Opinó que este escenario, que se repite desde niveles básicos hasta posgrados, plantea preguntas clave sobre la capacidad de las instituciones para educar en el uso ético y crítico de estas tecnologías.
Durante la charla, el Dr. Peralta explicó los principios detrás del funcionamiento de modelos grandes de lenguaje, como ChatGPT, detallando que estas herramientas no comprenden el lenguaje humano en términos reales.
“Operan mediante predicciones estadísticas de palabras a partir del contexto, lo que permite generar texto que parece coherente, real y consciente, pero nada de eso es cierto”, precisó.
Calificó como engañoso el uso de términos como “inteligencia artificial”, aclarando que estas plataformas no cumplen el criterio para ser consideradas como tales.
Según su análisis, estos modelos están entrenados con una enorme cantidad de datos cuyas fuentes van desde artículos académicos hasta fragmentos de conversaciones en redes sociales, ya que aún carecen de la capacidad de entender el conocimiento que procesan.
Frente a la percepción de que estos sistemas podrían reemplazar profesiones amplió el debate hacia el ámbito de la práctica médica, Peralta comentó que “parte del quehacer médico incluye aspectos humanos y sociales que no se pueden reemplazar”, por lo que descartó que la herramienta vaya a sustituir a los médicos.
Sin embargo, reconoció que en tareas específicas, como asistir en el diagnóstico o compilar información vinculada a la medicina basada en evidencias, los chatbots podrían tener un rol complementario en un futuro cercano.
Asimismo, enfatizó que uno de los puntos críticos es el fenómeno de las denominadas “alucinaciones” generadas por estas plataformas, que ocurren cuando producen respuestas aparentemente correctas pero que realmente son falsas, incluso las que muestran los modelos más avanzados.

“ChatGPT propaga algunos prejuicios porque nosotros como humanidad fuimos tan racistas que propusimos eso por escrito”, reafirmó destacando la responsabilidad humana en el contenido generativo.
Durante el seminario, se ofrecieron recomendaciones específicas para mitigar los problemas inherentes al uso de estas tecnologías. Entre ellas, los especialistas sugirieron emplear prompts detallados al interactuar con los chatbots, formular preguntas complejas preferentemente en inglés cuando se busca información académica y verificar toda salida generada.
De igual forma, resaltaron funciones de búsqueda integradas ofrecidas por herramientas como Perplexity y ChatGPT Plus, que aumentan la precisión de respuestas aunque implican costos de suscripción.
Otra solución discutida fue la implementación de sistemas conocidos como RAG, que combinan modelos generativos con bases de datos locales y personalizadas, ya que este enfoque permitiría trabajar con “respuestas casi tan buenas como las de los modelos comerciales, pero con mi información segura y en mi máquina local”.
Estos sistemas, indicó, abrirían el camino para crear asistentes que respondan exclusivamente con información contenida en documentos específicos seleccionados por los investigadores.
La conclusión, según el Dr. Peralta, es que aunque las herramientas de lenguaje generativo ofrecen un potencial significativo, su uso requiere supervisión estricta y un enfoque crítico.
Más Noticias
Efemérides de hoy: qué se celebra este 6 de diciembre
Hechos que cambiaron el camino de la historia y que se conmemoran este martes

Santoral del día: conoce los santos que se celebran este 6 de diciembre
La lista los santos y mártires para que sepas a quiénes debes felicitar en un día como hoy

Esta es la última actualización del avance del Metrobús este 6 de diciembre
Es el segundo medio de movilidad más usado en la Ciudad de México sólo detrás del Sistema de Transporte Colectivo (STC) Metro

La calidad del aire en la CDMX este 6 de diciembre
Diferentes tipos de contaminantes se encuentran en el ambiente, muchos de ellos los respiramos, es por eso que las autoridades de la ciudad advierten sobre el estado del oxígeno en la capital del país y la zona conurbada

Cuáles son los estudios o pruebas necesarias para diagnosticar la EPOC a tiempo
Muchas veces los síntomas de esta enfermedad suelen confundirse, por lo que tener un diagnóstico oportuno ayudará a tomar mejores decisiones sobre la salud



