Elon Musk desata nueva polémica: pide a usuarios de X que compartan su historial médico a Grok

Especialistas advierten que compartir información médica en redes sociales implica riesgos legales y de privacidad, ya que estos datos no siempre quedan protegidos

Guardar
Elon Musk pide a usuarios
Elon Musk pide a usuarios que compartan sus datos médicos con Grok. (Composición)

Elon Musk vuelve a generar controversia, esta vez en el terreno de la salud y la privacidad de datos. El empresario impulsó públicamente la idea de que los usuarios de X (antes Twitter) suban imágenes médicas —como radiografías, resonancias magnéticas (MRI) o tomografías computarizadas (CT)— para que Grok, la inteligencia artificial desarrollada por xAI, aprenda a interpretarlas y mejore su capacidad de diagnóstico.

La propuesta, presentada como un avance tecnológico, encendió alertas entre especialistas por los riesgos asociados al uso de información médica sensible en una red social.

La iniciativa fue promovida directamente por Musk, quien afirmó que Grok puede analizar imágenes clínicas y ofrecer diagnósticos rápidos, e incluso aseguró haber visto casos en los que el sistema superó a médicos humanos. Según explicó, el objetivo es que la IA no solo “lea” estos estudios, sino que además se entrene con el material que los propios usuarios decidan compartir, incorporando correcciones y comentarios para perfeccionar su desempeño.

Elon Musk aseguró que Grok
Elon Musk aseguró que Grok puede leer imágenes médicas y ofrecer diagnósticos rápidos. REUTERS/Evelyn Hockstein/File Photo/File Photo/File Photo

En ese contexto, Musk reconoció que él mismo subió recientemente una resonancia magnética personal a Grok, aunque no detalló los motivos ni aclaró qué uso posterior se le dio a esa información. El mensaje fue interpretado como un llamado abierto a la recolección de datos médicos a gran escala, algo poco habitual fuera de entornos clínicos regulados.

Desde la mirada tecnológica, la promesa resulta atractiva. Millones de personas reciben estudios médicos acompañados de informes técnicos difíciles de comprender. Una IA capaz de traducir esos resultados a un lenguaje claro podría ayudar a mejorar la comprensión de la salud y servir como apoyo informativo. Sin embargo, especialistas advierten que ese beneficio potencial no elimina los riesgos.

El desempeño de Grok en el ámbito médico ha mostrado resultados dispares. Algunos usuarios aseguran que la herramienta identificó anomalías relevantes en análisis clínicos, mientras que otros reportaron errores graves.

Elon Musk busca seguir entrenando
Elon Musk busca seguir entrenando su modelo de inteligencia artificial realizado por xAI. REUTERS/Dado Ruvic/Illustration/File Photo

Entre los casos citados se encuentran interpretaciones equivocadas de imágenes, como confundir signos de tuberculosis con problemas de columna, o identificar erróneamente una mamografía como una imagen de otra parte del cuerpo. Este tipo de fallos, señalan expertos, puede tener consecuencias serias si los usuarios toman decisiones basadas en diagnósticos incorrectos.

Un estudio publicado en mayo de 2025 analizó el rendimiento de distintos modelos de IA en la detección de patologías en más de 35.000 cortes de resonancias cerebrales. En ese trabajo, Grok mostró mejores resultados que Gemini de Google y ChatGPT-4o en ciertas tareas específicas. No obstante, la radióloga Laura Heacock, de NYU Langone, aclaró que, si bien existe capacidad técnica en estas herramientas, los métodos tradicionales y no generativos siguen siendo más confiables en imagen médica.

El mayor foco de preocupación está en la privacidad y el manejo de los datos. Ryan Tarzy, CEO de Avandra Imaging, explicó que pedir a los usuarios que suban directamente su información médica acelera el entrenamiento de los modelos, pero también introduce sesgos, ya que los datos provendrán solo de personas dispuestas a compartirlos. Esto puede dejar fuera a grandes sectores de la población y afectar la calidad de los resultados.

Expertos recomiendan no compartir datos
Expertos recomiendan no compartir datos médicos, esto debido a que puede terminar en robo de datos. (Reuters)

Además, cuando la información médica se comparte en redes sociales, no siempre queda protegida por leyes como HIPAA, que regula el tratamiento de datos de salud en Estados Unidos. En términos simples, el control sobre quién accede a esos datos y cómo se reutilizan es mucho menor que en un sistema clínico tradicional. Tarzy también advirtió que muchos archivos médicos contienen información personal incrustada en las imágenes, lo que aumenta el riesgo de identificación accidental.