Google ha presentado un programa que ofrece recompensas económicas a investigadores de seguridad que identifiquen vulnerabilidades en sus productos de inteligencia artificial. La compañía puede otorgar bonificaciones de hasta USD 30.000 por cada informe.
En los dos años desde que la empresa invitó formalmente a investigar posibles usos indebidos de la IA en sus servicios, los cazadores de errores han recibido más de USD 430.000.
La lista de fallos reconocidos por Google abarca casos concretos de acciones maliciosas.
Por ejemplo, se considera relevante detectar una inyección de mensajes en la IA que permita a un atacante lograr que Google Home desbloquee una puerta sin autorización o mecanismos que resumen todos los correos electrónicos de un usuario y envían esa información a terceros, sin consentimiento.
Google busca fortalecer la seguridad de sus sistemas, alentando a expertos externos a descubrir y reportar debilidades antes de que puedan ser explotadas.
“Este programa nos permite recompensar a los investigadores de seguridad que dedican su tiempo y esfuerzo a descubrir e informar sobre vulnerabilidades relacionadas con la IA, lo que nos ayuda a proteger nuestras plataformas y a nuestros usuarios”, explica Google.

Cómo participar en este programa de recompensas de Google
Para participar en este programa de recompensas de Google, los usuarios deben ingresar a la página web https://bughunters.google.com/.
Luego tienen que iniciar sesión con una cuenta personal de Google y pulsar la opción de ‘Reportar una vulnerabilidad de seguridad’.
Google sugiere seguir una serie de pasos antes de presentar un informe sobre posibles fallos en sus productos o servicios de inteligencia artificial:
- Revisar las reglas del programa de recompensas (VRP).
Es fundamental leer y comprender las políticas de Google para conocer el alcance del programa, las vulnerabilidades admisibles, los criterios de calidad y el detalle de las recompensas ofrecidas. Conocer estas reglas facilita un reporte efectivo y evita malentendidos.

- Identificar una vulnerabilidad relevante.
Se debe encontrar un fallo de seguridad dentro de los productos o servicios que estén incluidos en el programa. Google destaca la importancia de centrar la investigación en vulnerabilidades válidas, evitando reportes que no correspondan al alcance definido.
- Enviar el informe.
Tras recopilar la información, es momento de compartir el reporte con Google. El equipo analizará el caso y notificará si la vulnerabilidad califica para una recompensa. De este modo, los investigadores reciben una respuesta clara sobre la validez y el impacto de su hallazgo.
Qué errores reconoce Google
Google ha detallado los tipos de errores que reconoce dentro de su nuevo programa de recompensas para vulnerabilidades en productos de inteligencia artificial.
El objetivo es que los investigadores puedan identificar, reportar y ayudar a subsanar fallos que afectan la seguridad de los usuarios. A continuación, se describen algunas categorías.
Una de ellas corresponde a acciones maliciosas que modifican el estado de la cuenta o los datos de la víctima, con un impacto directo en la seguridad. Un caso hipotético es mediante una inyección indirecta de avisos, un atacante puede lograr que Google Home realice una acción inesperada y sin confirmación, como desbloquear una puerta sin autorización.
Asimismo, Google contempla situaciones de habilitación de phishing. Esto ocurre cuando hay inyección persistente de HTML entre usuarios en un sitio web de Google que no muestre advertencias de “contenido generado por el usuario”, permitiendo así la creación de vectores de ataque convincentes.
De este modo, un atacante puede compartir una página generada por él mismo, ocultando esta advertencia y haciendo que la víctima crea estar frente a un sitio legítimo.
En el caso de los ataques de robo de modelos, se reconoce el riesgo de extraer parámetros completos y confidenciales de un modelo de IA.
Si una API expuesta por Google permite la obtención involuntaria de datos detallados, como los valores exactos de pérdida de entradas arbitrarias de un modelo protegido, se considera una vulnerabilidad relevante, aunque los informes exitosos en este ámbito son poco frecuentes.
Últimas Noticias
Meta pone fin a su apuesta por el metaverso tras haber invertido 80.000 millones de dólares
Meta retira Horizon Worlds de sus gafas de realidad virtual, marcando el fin de su apuesta por el metaverso

20 años del primer tweet: la historia detrás del mensaje de Jack Dorsey que se vendió como un NFT millonario
La publicación sigue siendo visible para todo el mundo, a pesar de haberse vendido como un NFT

Paso a paso para invertir en criptomonedas y cuál es su valor
Las criptomonedas han tenido alzas y bajas en las últimas horas

Las redes sociales y los adolescentes, un debate que se expande en el mundo: ¿prohibición total o uso limitado?
Mientras países como España avanzan con restricciones para menores de 16 años, especialistas advierten que prohibir no alcanza. Qué dicen los estudios, cuáles son los riesgos y qué estrategias proponen para acompañar a los jóvenes en el uso de las redes sociales

Invertir en longevidad: cuáles son las empresas AgeTech que cuidan el mañana
Desde robots sociales hasta avances en biotecnología, surgen nuevas formas de prevención y acompañamiento para quienes atraviesan la tercera edad




