
Microsoft realizó una interesante solicitud de patente en los Estados Unidos, la cual evidencia que la compañía fundada por Bill Gates se encuentra desarrollando una aplicación orientada a ofrecer tratamiento terapéutico y estará potenciada por inteligencia artificial.
En el documento que fue presentado el pasado 7 de noviembre, este gigante tecnológico con sede en Redmond plantea un modelo de chatbot similar a ChatGPT, el cual sería capaz de construir un perfil de usuario basado en señales emocionales extraídas de las imágenes y luego genera un registro de memoria basado tanto en estas imágenes como en el perfil de quien la usa.
PUBLICIDAD
Para la empresa de software, la “inteligencia artificial (IA) se está volviendo cada vez más popular y se aplica en un número cada vez mayor de escenarios”.

Es por ello que la aplicación contará con una ventana de chat, un módulo de procesamiento y una base de datos de respuestas, y además será capaz de realizar pruebas psicológicas explícitas, así como realizar preguntas, monitorear respuestas y utilizarlas para aprender del paciente.
PUBLICIDAD
Microsoft busca que su terapeuta artificial proporcione “atención emocional” por medio de una conversación simulada, en la que los usuarios puedan usar texto, la voz e imágenes.
Un chatbot con capacidades terapéuticas

El terapeuta artificial evaluará a los usuarios usando un “algoritmo de puntuación predefinido por psicólogos y expertos” y en algunos casos, el chatbot podrá hacer sugerencias sobre cómo abordar algunos problemas.
PUBLICIDAD
La empresa incluso expone el ejemplo de una conversación en la que una persona dice que se «siente mal» y la IA le pregunta por qué. Este explica que tiene problemas con la familia y por eso se siente cansado, el chatbot como respuesta, le recomienda salir a correr 30 minutos para tomar un respiro.
Y aunque es prometedor, este tipo de avances generan algunas preocupaciones en la Organización Mundial de la Salud (OMS), que pidió tener cuidado en el uso de chatbots de inteligencia artificial en la atención médica. Esto, advirtiendo que los datos usados para entrenar estos modelos pueden estar “sesgados” y generar información engañosa que puede causar daño a los pacientes.
PUBLICIDAD
Microsoft no es la primera tecnológica que decide apostar por este tipo de desarrollos y de hecho, Apple, también ha mostrado interés en la creación de un servicio de salud y bienestar basado en una inteligencia artificial capaz de detectar tus emociones.
El proyecto es llamado internamente Quartz que tendrá como objetivo incentivar a los usuarios a mejorar sus hábitos alimenticios, ejercitarse y brindar recomendaciones para dormir mejor.
PUBLICIDAD
Los peligros de la antropomorfización de la inteligencia artificial

La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.
Y la antropomorfización de la IA es un proceso mediante el cual las personas atribuyen características y cualidades humanas a estos modelos, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la inteligencia artificial, a pesar de que estas no poseen estas características de manera genuina.
PUBLICIDAD
Además, puede ocurrir de manera consciente o inconsciente debido a que las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.
De hecho, algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Así puedes limpiar los altavoces de tu móvil y recuperar el sonido original
Antes de aplicar cualquier método, conviene tener claros dos errores que pueden agravar el problema: usar líquidos o introducir palillos y bastoncillos en los orificios

Disney apuesta por robots más humanos con ReActor, el sistema que fusiona física e IA para perfeccionar movimientos complejos
El método de ReActor requiere menos conexiones entre partes del cuerpo que los enfoques anteriores

Hackean JDownloader y propagan malware en instaladores para Windows y Linux desde el sitio oficial
Los atacantes modificaron los enlaces de descarga de la web oficial aprovechando un fallo en su sistema de gestión de contenidos

La revolución del SexTech: cómo la tecnología y el autoconocimiento están cerrando la brecha del placer femenino
Ese cambio cultural tiene un motor tecnológico: la industria SexTech, que reúne apps, plataformas y dispositivos inteligentes orientados a mejorar la experiencia íntima

La filosofía del creador de Unix que desafía cómo medimos la productividad en el desarrollo de software
Uno de los días más significativos de la carrera de Ken Thompson no fue cuando escribió código, sino cuando eliminó 1.000 líneas




