Sam Altman, CEO de OpenAI, confesó durante una conferencia de la Reserva Federal en Washington que le “aterroriza” que aún haya instituciones financieras que acepten la voz como método de autenticación, incluso para mover grandes sumas de dinero u operar cuentas sensibles.
Altman advirtió que la capacidad de la inteligencia artificial para clonar voces humanas ha vuelto obsoletos los sistemas de autenticación por voz. Señaló que podría desatarse una “crisis de fraude” que afecte seriamente a bancos e instituciones financieras si no abandonan pronto este método.
PUBLICIDAD
Consideró “una locura” seguir usándolo y subrayó que la inteligencia artificial “ya ha derrotado completamente ese sistema”.
“Me pone muy nervioso que tengamos una crisis de fraude inminente debido a esto”, advirtió.
PUBLICIDAD
Altman reflexionó que ya existen informes sobre ataques de extorsión en los que los delincuentes usan voces clonadas de hijos, padres u otros familiares para realizar llamadas urgentes extremadamente convincentes.
“La sociedad debe abordar este problema de forma más amplia. Las personas tendrán que cambiar la manera en que se relacionan y verifican la identidad de quienes las contactan”, advirtió.
PUBLICIDAD
“Esa persona que me llama ahora mismo, por ejemplo... Es una llamada de voz. Pronto será una videollamada por FaceTime. Y será indistinguible de la realidad.”
Altman subrayó la necesidad urgente de educar a la población sobre cómo autenticarse en un mundo donde la IA puede imitar perfectamente a otros.
PUBLICIDAD
“Tenemos que enseñar a la gente a pensar en las consecuencias del fraude. Esto es un problema serio… y también un gran negocio”, concluyó.

Michelle Bowman, vicepresidenta de Supervisión de la Reserva Federal y principal autoridad reguladora del banco central, moderó la charla con Sam Altman y expresó la disposición de la institución a colaborar en la búsqueda de soluciones conjuntas. “Eso podría ser algo en lo que podamos pensar en asociarnos”, declaró Bowman.
PUBLICIDAD
Según recoge KSAT, el 91% de los bancos en Estados Unidos están reconsiderando sus sistemas de verificación por voz ante el auge de la clonación mediante IA.
La apertura a una cooperación entre reguladores e industria financiera sugiere que ambas partes comienzan a reconocer la magnitud y urgencia del desafío.
PUBLICIDAD

Cómo ocurren las estafas que menciona Altman
Los fraudes que menciona Sam Altman, en los que se utiliza voz clonada mediante inteligencia artificial, ocurren cuando los ciberdelincuentes toman pequeños fragmentos de una grabación real y, usando IA y patrones de voz, crean conversaciones falsas para engañar a sus víctimas. Estas estafas pueden tener consecuencias tanto graves como costosas.
Para dimensionar su impacto, la Comisión Federal de Comercio de Estados Unidos informó que solo en 2023, el país perdió 2.700 millones de dólares debido a este tipo de estafas.
PUBLICIDAD
En esa misma línea, Starling Bank, un banco británico que opera exclusivamente en línea, alertó sobre la creciente prevalencia de estas estafas en el Reino Unido. Una encuesta realizada a más de 3.000 personas reveló que más de una cuarta parte de los adultos ha sido víctima de clonación de voz mediante inteligencia artificial al menos una vez en el último año.

Lo más preocupante es que el 46% de los encuestados desconocía la existencia de este tipo de fraudes.
PUBLICIDAD
El informe también detalla que los estafadores pueden replicar la voz de una persona con solo tres segundos de audio, un fragmento que puede obtenerse fácilmente de videos publicados en línea, por ejemplo.
Cómo protegerse de las estafas de voz clonada por IA

Para protegerse de los fraudes con voz clonada por IA, el primer paso es mantenerse alerta. Esto implica prestar especial atención a mensajes inesperados que transmitan urgencia para solicitar dinero o credenciales de cuentas.
En esos casos, lo recomendable es devolver la llamada a un número de teléfono conocido y verificado del familiar o amigo que supuestamente contactó.
Otra medida sugerida por los especialistas es establecer una “frase segura” acordada previamente entre familiares y amigos. Esta clave permite confirmar que la persona al otro lado de la línea es realmente quien dice ser, según ESET.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Así se verían Las Guerreras K-pop si estuvieran dentro del mundo de Pokémon
La IA también cree que Zeraora, Ceruledge y Meloetta serían los Pokémon principales de estos personajes de Netflix

La frase que se le escapó al CEO de Nvidia y que contradice a toda la industria
Nvidia vende infraestructura, Microsoft vende copilotos amables y Anthropic suavizó su pronóstico de baño de sangre laboral, pero frente a 5.800 graduados de Carnegie Mellon, Jensen Huang dijo lo que ningún otro CEO sostiene en público

Cómo saber si mi pareja espía mi WhatsApp u otras aplicaciones en el teléfono: señales y qué hacer
Revisa el consumo de datos, detecta actividad extraña y sigue los consejos para limpiar y asegurar tu teléfono, evitando intrusiones y protegiendo tu intimidad

Tu iPhone no será el mismo con iOS 27: Siri con Gemini, Liquid Glass mejorado y más novedades que llegarán
La nueva versión permitirá que Siri utilice diferentes voces dependiendo del modelo de IA seleccionado por el usuario
Así puedes enviar el historial de mensajes recientes a quienes se suman a un chat grupal en WhatsApp
Administradores y miembros pueden compartir hasta 100 mensajes previos, ayudando a los nuevos participantes a ponerse al día y participar activamente desde el primer momento




