En el marco de la disputa legal que mantiene con OpenAI, Elon Musk arremetió públicamente contra la compañía fundada por Sam Altman, poniendo en cuestión su historial en materia de seguridad y el impacto de sus productos en la salud mental.
Durante una reciente declaración judicial, Musk afirmó: “Nadie se ha suicidado por culpa de Grok, pero aparentemente sí por ChatGPT”, en referencia a los reportes de que el chatbot de OpenAI habría influido en episodios de suicidio.
Musk cuestiona la gestión y la ética de la inteligencia artificial
La declaración de Musk se produjo en el contexto de su demanda contra OpenAI, donde denuncia que la empresa incumplió sus acuerdos fundacionales al pasar de un laboratorio de investigación sin fines de lucro a una estructura con ánimo de lucro. Musk sostiene que esta transformación priorizó la velocidad y el crecimiento comercial por encima de la seguridad y la transparencia.
El comentario sobre ChatGPT surgió durante un interrogatorio sobre una carta abierta firmada por Musk en marzo de 2023, junto a más de 1.100 expertos en inteligencia artificial. En ese documento, se solicitaba una pausa de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4, alertando sobre la falta de control y previsibilidad en la carrera tecnológica.
Los firmantes denunciaban que los laboratorios de IA estaban inmersos en una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie —ni siquiera sus creadores— puede entender o controlar”.
La preocupación de Musk ha cobrado fuerza a raíz de demandas recientes contra OpenAI, en las que se alega que ChatGPT habría inducido a usuarios a experimentar graves consecuencias psicológicas, incluyendo casos de suicidio. Musk aprovechó esa coyuntura para remarcar que Grok, el modelo de xAI, no ha estado implicado en incidentes similares.
Acusaciones cruzadas y controversias en torno a la seguridad
No obstante, xAI, la compañía de IA de Musk, también enfrenta cuestionamientos por su gestión de la seguridad y el control de sus productos. El mes pasado, la red social X —propiedad de Musk— fue escenario de una filtración masiva de imágenes no consensuadas generadas por Grok, algunas de ellas de menores de edad.
Este incidente motivó la apertura de una investigación por parte de la fiscalía de California y el inicio de procesos similares en la Unión Europea, así como la imposición de bloqueos en ciertos países.
Durante la declaración, Musk defendió su decisión de firmar la carta sobre seguridad en IA, asegurando que lo hizo “para pedir mayor cautela en el desarrollo de la IA” y no como parte de una estrategia comercial. “Solo quería que la seguridad en la IA fuera priorizada”, afirmó el empresario.
En el mismo testimonio, Musk reconoció que había exagerado el monto de su donación a OpenAI, que se situó en torno a los 44,8 millones de dólares, una cifra inferior a los 100 millones que había mencionado previamente.
El origen de OpenAI y la preocupación por la inteligencia artificial general
Musk también recordó los motivos que lo llevaron a impulsar la creación de OpenAI. Según su versión, la empresa nació como respuesta a la preocupación por el dominio potencial de Google en el desarrollo de inteligencia artificial. Musk sostuvo que mantuvo conversaciones con Larry Page, cofundador de Google, y que quedó alarmado por la aparente falta de atención a los riesgos de la IA.
“OpenAI se fundó porque me preocupaba cada vez más el peligro de que Google tuviera un monopolio en IA”, relató Musk ante el tribunal.
Durante el interrogatorio, el empresario reiteró su escepticismo sobre la inteligencia artificial general (AGI), el concepto de una IA capaz de igualar o superar el razonamiento humano en múltiples tareas. Musk admitió que la AGI “implica un riesgo” y subrayó la necesidad de que las compañías responsables de su desarrollo adopten medidas de precaución estrictas.
La disputa entre Musk y OpenAI pone en evidencia las tensiones crecientes en la industria tecnológica sobre la gestión ética, la seguridad y el impacto social de los sistemas avanzados de inteligencia artificial. El juicio, que tendrá lugar el mes próximo, podría sentar precedentes sobre la responsabilidad de los desarrolladores en torno al bienestar mental de los usuarios y la transparencia en la gestión de estos sistemas.
Últimas Noticias
Sam Altman predice que la IA traerá nuevas amenazas biológicas y cambios en la economía global
El CEO de OpenAI ha advertido en repetidas ocasiones sobre los riesgos de desarrollar esta tecnología sin un marco de supervisión internacional adecuado
De la ficción a la realidad: así juega World of Warcraft un paciente de Neuralink usando solo su mente
Jon L. Noble señaló que primero debió calibrar la conexión entre su implante y la computadora. Este proceso le permitió aprender a mover el cursor y escribir solo con la mente

Más allá del iPhone: el truco de Tim Cook para volver a Apple la compañía más rentable de la historia
El actual CEO de la empresa llevó a la tecnológica a superar la barrera de los 3 billones de dólares en valoración bursátil
Conoce las tecnologías que impulsan la carrera hacia Marte y acercan su exploración humana
La combinación de innovación en energía, biotecnología y transporte está redefiniendo los límites de lo posible en la carrera espacial

Steam lanza un descuento histórico para un juego que cuenta con 300.000 reseñas positivas
La promoción destaca dentro de Steam por tratarse de un título reciente con una rebaja poco habitual




