En el marco de la disputa legal que mantiene con OpenAI, Elon Musk arremetió públicamente contra la compañía fundada por Sam Altman, poniendo en cuestión su historial en materia de seguridad y el impacto de sus productos en la salud mental.
Durante una reciente declaración judicial, Musk afirmó: “Nadie se ha suicidado por culpa de Grok, pero aparentemente sí por ChatGPT”, en referencia a los reportes de que el chatbot de OpenAI habría influido en episodios de suicidio.
Musk cuestiona la gestión y la ética de la inteligencia artificial
La declaración de Musk se produjo en el contexto de su demanda contra OpenAI, donde denuncia que la empresa incumplió sus acuerdos fundacionales al pasar de un laboratorio de investigación sin fines de lucro a una estructura con ánimo de lucro. Musk sostiene que esta transformación priorizó la velocidad y el crecimiento comercial por encima de la seguridad y la transparencia.
El comentario sobre ChatGPT surgió durante un interrogatorio sobre una carta abierta firmada por Musk en marzo de 2023, junto a más de 1.100 expertos en inteligencia artificial. En ese documento, se solicitaba una pausa de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4, alertando sobre la falta de control y previsibilidad en la carrera tecnológica.
Los firmantes denunciaban que los laboratorios de IA estaban inmersos en una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie —ni siquiera sus creadores— puede entender o controlar”.
La preocupación de Musk ha cobrado fuerza a raíz de demandas recientes contra OpenAI, en las que se alega que ChatGPT habría inducido a usuarios a experimentar graves consecuencias psicológicas, incluyendo casos de suicidio. Musk aprovechó esa coyuntura para remarcar que Grok, el modelo de xAI, no ha estado implicado en incidentes similares.
Acusaciones cruzadas y controversias en torno a la seguridad
No obstante, xAI, la compañía de IA de Musk, también enfrenta cuestionamientos por su gestión de la seguridad y el control de sus productos. El mes pasado, la red social X —propiedad de Musk— fue escenario de una filtración masiva de imágenes no consensuadas generadas por Grok, algunas de ellas de menores de edad.
Este incidente motivó la apertura de una investigación por parte de la fiscalía de California y el inicio de procesos similares en la Unión Europea, así como la imposición de bloqueos en ciertos países.
Durante la declaración, Musk defendió su decisión de firmar la carta sobre seguridad en IA, asegurando que lo hizo “para pedir mayor cautela en el desarrollo de la IA” y no como parte de una estrategia comercial. “Solo quería que la seguridad en la IA fuera priorizada”, afirmó el empresario.
En el mismo testimonio, Musk reconoció que había exagerado el monto de su donación a OpenAI, que se situó en torno a los 44,8 millones de dólares, una cifra inferior a los 100 millones que había mencionado previamente.
El origen de OpenAI y la preocupación por la inteligencia artificial general
Musk también recordó los motivos que lo llevaron a impulsar la creación de OpenAI. Según su versión, la empresa nació como respuesta a la preocupación por el dominio potencial de Google en el desarrollo de inteligencia artificial. Musk sostuvo que mantuvo conversaciones con Larry Page, cofundador de Google, y que quedó alarmado por la aparente falta de atención a los riesgos de la IA.
“OpenAI se fundó porque me preocupaba cada vez más el peligro de que Google tuviera un monopolio en IA”, relató Musk ante el tribunal.
Durante el interrogatorio, el empresario reiteró su escepticismo sobre la inteligencia artificial general (AGI), el concepto de una IA capaz de igualar o superar el razonamiento humano en múltiples tareas. Musk admitió que la AGI “implica un riesgo” y subrayó la necesidad de que las compañías responsables de su desarrollo adopten medidas de precaución estrictas.
La disputa entre Musk y OpenAI pone en evidencia las tensiones crecientes en la industria tecnológica sobre la gestión ética, la seguridad y el impacto social de los sistemas avanzados de inteligencia artificial. El juicio, que tendrá lugar el mes próximo, podría sentar precedentes sobre la responsabilidad de los desarrolladores en torno al bienestar mental de los usuarios y la transparencia en la gestión de estos sistemas.
Últimas Noticias
Pasos para recuperar una contraseña perdida en tu iPhone
Una función poco conocida almacena las contraseñas temporales vinculadas a webs durante 30 días, esencial para quienes registran nuevas cuentas frecuentemente

Qué celulares llegan en marzo de 2026: lanzamientos confirmados y rumores
La nueva edición del Mobile World Congress establece el ritmo del año en innovación móvil, con anuncios de productos con interfaces inteligentes

Por qué las baterías de sodio podrían ser la próxima gran revolución energética
La nueva tecnología promete mayor autonomía con un menor impacto ambiental, aunque enfrenta desafíos antes de llegar a una adopción masiva

Tecnología y educación de la mano: así es el sistema que impulsa un nuevo modelo de aprendizaje con IA
El modelo utiliza algoritmos avanzados que monitorean el progreso de los alumnos y generan itinerarios educativos personalizados. Cómo funciona y cuáles son los desafios

Por qué el iPhone se ha convertido en el primer celular certificado para secretos militares en Europa
La combinación del chip dedicado, el cifrado integral y las funciones biométricas permite a gobiernos y fuerzas armadas adoptar estos equipos




