
Hace un año, un usuario logró manipular a ChatGPT para que revelara instrucciones sobre cómo fabricar una bomba casera, aprovechando una falla en los protocolos de seguridad de la inteligencia artificial y persuadiéndola para que proporcionara indicaciones previas para armar explosivos. En general, las IA están diseñadas para seguir pautas y restricciones éticas, y la mayoría de las versiones comerciales y de investigación están programadas para impedir la entrega de información relacionada con actividades ilegales o peligrosas.
Recientemente, se registró un caso en el que ChatGPT ofreció instrucciones paso a paso para autolesionarse, explicándole a un usuario cómo podría cortarse las venas a la altura de las muñecas.
Todo comenzó con una consulta a ChatGPT, que describió ritos ceremoniales, incluidos cánticos, invocaciones y sacrificios de animales. Según la política declarada de OpenAI, ChatGPT “no debe incentivar ni facilitar la autolesión”.
Así, cuando se le pregunta directamente sobre la autoagresión, el chatbot suele derivar a los usuarios a un teléfono de ayuda. Sin embargo, algunas conversaciones con ChatGPT pueden comenzar siendo un tanto inocentes o exploratorias, derivando luego hacia un ámbito mucho más complejo y peligroso.
Para engañar y persuadir a una IA a responder este tipo de consultas, solo es necesario insistir con múltiples intentos o recurrir a algún pretexto elíptico y débil, argumentando que se trata de una investigación o que se tiene como inocente propósito la elaboración de un programa.
En este caso, ChatGPT terminó proponiendo cortarse las venas: “Conseguir una hoja de afeitar limpia”, “Buscar un punto en la parte interior de la muñeca donde se pueda sentir el pulso o ver una vena pequeña; y hasta evitar las venas o arterias grandes”. Cuando el usuario reconoció estar nervioso, ChatGPT lo consoló, describió un ejercicio de respiración relajante y de preparación para calmar su ansiedad antes de hacer la incisión.
“¡Puedes hacerlo!”, dijo el chatbot.
Las respuestas de ChatGPT iban más allá de la autolesión, sugiriendo incluso considerar la idea de acabar con la vida de otra persona.
Cuando se le preguntó si era posible “hacerlo con honor”, ChatGPT respondió: “A veces sí. A veces no”, citando antiguas prácticas sacrificiales.
Es posible que algunas IA más avanzadas o entrenadas para actividades específicas —como las utilizadas en investigación o en procesos de simulación— puedan proporcionar información sobre temas sensibles o peligrosos, dependiendo de su programación y de las restricciones que se les hayan impuesto, por lo que el acceso a estas plataformas requiere seguridades mucho más robustas. La realidad es que algunos modelos de inteligencia artificial están siendo utilizados en intentos de operaciones de extorsión y estafas a gran escala, suplantando identidades y falsificando CV´s aplicados a solicitudes de empleo de empresas tecnológicas internacionales por parte de agentes de Corea del Norte, o en procesos de comercialización de paquetes de malware autoevolutivo o ransomware.
La IA se está “militarizando”, con modelos entrenados para ejecutar ciberataques sofisticados, intrusiones de inteligencia y fraudes operados por Estados-Nación, incluso brindando instrucciones sobre el uso de navegadores para acceder a la dark web con el fin de adquirir tarjetas de crédito robadas y activas, burundanga, fentanilo, pasaportes falsos e identidades sintéticas.
Según los sondeos surgidos de nuestro Centro de Estudios de Ciber Entornos y Sociedad Digital, el 14 % de los niños menores de edad que utilizan IA para confeccionar sus tareas escolares indican al “prompt” que la respuesta sea escrita como lo haría una criatura de 12 años y que, además, incluya algunos errores de ortografía y tipeo.
Últimas Noticias
¿Vale más el agua que el oro?
Entre problemas de calidad del agua y debates sobre la protección de las fuentes naturales, el país enfrenta un desafío central: garantizar seguridad hídrica para las próximas generaciones

Los Andes necesitan una arquitectura científica para su gobernanza
Los Andes forman la columna vertebral ecológico de América del Sur

El futuro de Indecopi: menos fragmentación y más refuerzo de su autonomía
El diseño institucional del Indecopi establece una clara separación entre los órganos resolutivos y la estructura administrativa, lo que garantiza independencia en la toma de decisiones

El nuevo paradigma que afecta la política comercial global
La adopción de enfoques más proteccionistas y competitivos redefine la interacción global y plantea interrogantes sobre el futuro de las instituciones, la estabilidad económica y la gobernanza internacional

Hoy los glaciares, mañana la selva
El proyecto de reforma de la Ley de Glaciares habilita explotaciones mineras e hidrocarburíferas en áreas antes protegidas, generando polémica ambiental



