Usuarios de ChatGPT desinstalan la app por acuerdo de OpenAI con el Pentágono

La polémica colaboración con el Departamento de Defensa generó un rechazo masivo encendió el debate sobre ética y tecnología

Guardar
El acuerdo de OpenAI con
El acuerdo de OpenAI con el Departamento de Defensa provocó un repunte inusual en la desinstalación de ChatGPT en EE. UU. (Reuters)

El acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos, que permitirá el uso de ChatGPT en proyectos oficiales, provocó una oleada de desinstalaciones de la popular aplicación.

El sábado 28 de febrero, la tasa de desinstalaciones en Estados Unidos creció un 295% respecto al día anterior, según datos de la consultora Sensor Tower. El episodio desató un debate internacional sobre los límites éticos del uso de inteligencia artificial en el ámbito gubernamental.

Una caída sin precedentes: datos y reacciones

Sensor Tower reportó que la tasa habitual de desinstalaciones de ChatGPT ronda el 9% diario. El sábado, este índice se disparó, acompañado por un deterioro en las valoraciones de la app en las tiendas móviles. Las reseñas de una estrella aumentaron un 775% en esa jornada y otro 100% el domingo, mientras que las calificaciones de cinco estrellas cayeron a la mitad.

El episodio impactó en la
El episodio impactó en la imagen de OpenAI y generó dudas sobre la transparencia en el uso de IA en entornos gubernamentales. (Reuters)

El movimiento fue impulsado por la consigna “Cancel ChatGPT”, promovida en redes sociales por usuarios que cuestionaron la relación entre OpenAI y el Pentágono.

La controversia se intensificó tras la confirmación de que OpenAI reemplazaría los modelos de Anthropic, en particular Claude, en ciertos proyectos oficiales estadounidenses. Anthropic había impuesto límites estrictos para evitar la utilización de su tecnología en sistemas de vigilancia masiva y armas autónomas, condiciones que se negaron a flexibilizar ante el pedido del Departamento de Defensa.

Tras la negativa, OpenAI firmó el acuerdo para ocupar ese lugar, lo que generó el rechazo de parte del público y la comunidad tecnológica.

Analistas advierten que el caso
Analistas advierten que el caso refleja la tensión entre la inteligencia artificial, la seguridad nacional y las expectativas de los usuarios. (Reuters)

El papel de la ética y la reacción de OpenAI

El director ejecutivo de OpenAI, Sam Altman, fue objeto de críticas por parte de usuarios y analistas. Altman había respaldado públicamente la postura ética de Anthropic, pero confirmó el acuerdo con el Pentágono horas después. Buena parte de la comunidad tecnológica interpretó el giro como una decisión oportunista.

En respuesta a la reacción negativa, Altman comunicó que se incorporaron enmiendas para aclarar los límites del uso de ChatGPT en el ámbito gubernamental. Mencionó la inclusión de protecciones específicas para evitar el uso de la tecnología en vigilancia masiva, aunque no detalló restricciones sobre el desarrollo de armas autónomas letales. El anuncio no logró revertir la tendencia de desinstalaciones ni el descenso en la valoración de la app.

Claude supera a ChatGPT: impacto y efecto Streisand

El impacto de la polémica no solo se reflejó en las cifras de desinstalación. Según la consultora Appfigures, el sábado 28 de febrero, las descargas de Claude —la aplicación de Anthropic— superaron por primera vez a las de ChatGPT en Estados Unidos. Claude también se posicionó como la app más descargada en al menos seis países fuera de Estados Unidos, incluyendo Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.

Usuarios preocupados por la ética
Usuarios preocupados por la ética y la privacidad impulsaron la migración hacia la app Claude. (Europa Press)

Especialistas interpretan el fenómeno como un ejemplo del efecto Streisand: el intento de presionar o desacreditar a una empresa termina generando el efecto opuesto. La decisión de Anthropic de mantener límites éticos reforzó su imagen como actor responsable en el desarrollo de inteligencia artificial, influyendo en la percepción pública y en la migración de usuarios.

Desafíos para Anthropic y el futuro del sector

La controversia también plantea desafíos para Anthropic. Varias agencias gubernamentales estadounidenses comenzaron a migrar hacia los modelos de OpenAI tras el acuerdo. Además, existen dudas sobre el efecto de la situación en la reciente ronda de financiación de Anthropic, que alcanzó los 60.000 millones de dólares.

Por el momento, no hay confirmación sobre posibles medidas adicionales por parte del Departamento de Defensa. Analistas consideran poco probable que Anthropic sea clasificada como un riesgo para la cadena de suministro.

Sin embargo, el episodio refleja la creciente tensión entre el avance de la inteligencia artificial, su integración en entornos gubernamentales y las expectativas éticas de los usuarios. La respuesta de la comunidad y el mercado subraya la importancia del debate sobre el control y la transparencia en el desarrollo de tecnologías emergentes.