Redacción Ciencia, 23 may (EFE).- Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señala un estudio que publica Jama Open Network.
La investigación realizada por un equipo coreano indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”.
El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural.
Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo.
El estudio se basó en datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas.
Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales.
Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI.
La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la presión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”.
En un comentario sobre el estudio, en el que no participó, Alberto Ortiz, del Hospital Universitario La Paz (Madrid), señaló que el estudio se realizó en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”.
Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la IA en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación.
Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”. EFE
Últimas Noticias
Heridas 50 personas, entre ellas 35 de gravedad, en un incendio en una fábrica en Corea del Sur

Los líderes de la UE confirman al croata Boris Vujcic como relevo de De Guindos en la vicepresidencia del BCE

Nextil consolida su presencia en Portugal con la compra del 70% de Sindutex

Pedro Almodóvar, su inesperada confesión en su divertido encuentro con David Broncano: "Vivo aislado"

El precio del petróleo se modera hasta los 108 dólares, con las Bolsas europeas apuntando a ganancias
Las cotizaciones energéticas siguen oscilando tras los recientes ataques en Oriente Próximo y los daños a infraestructuras clave, mientras referentes occidentales discuten medidas para estabilizar el mercado global y operadores anticipan signos de recuperación en plazas financieras europeas
