TECNO-VIRAL

Google ofrece hasta 30.000 dólares por detectar fallos en su inteligencia artificial

Google lanzó un nuevo programa de recompensas destinado a investigadores de seguridad que identifiquen vulnerabilidades en sus productos de inteligencia artificial. La compañía anunció que podrá otorgar hasta USD 30.000 por cada informe válido, en el marco de su estrategia para fortalecer la protección de sus sistemas.

Naranja X
Canal de WhatsApp

¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.

📲 Click AQUÍ

En los dos años desde que la empresa invitó formalmente a reportar posibles usos indebidos de la IA en sus servicios, los llamados “cazadores de errores” ya recibieron más de USD 430.000 en compensaciones.

La iniciativa busca prevenir ataques o usos maliciosos antes de que puedan ser explotados. Entre los casos que Google considera relevantes figuran, por ejemplo, una inyección de mensajes que permita a un atacante lograr que un dispositivo Google Home desbloquee una puerta sin autorización, o mecanismos que logren resumir y enviar los correos electrónicos de un usuario a terceros sin su consentimiento.

“Este programa nos permite recompensar a los investigadores de seguridad que dedican su tiempo y esfuerzo a descubrir vulnerabilidades relacionadas con la IA, lo que nos ayuda a proteger nuestras plataformas y a nuestros usuarios”, explicó la empresa.

Para participar, los interesados deben ingresar al sitio bughunters.google.com, iniciar sesión con su cuenta de Google y completar el formulario “Reportar una vulnerabilidad de seguridad”. La compañía recomienda leer previamente las reglas del programa para conocer el alcance, los criterios de calidad y los tipos de fallos que califican para una recompensa.

Entre las vulnerabilidades reconocidas se incluyen ataques que modifican el estado de una cuenta o los datos de la víctima, casos de phishing mediante inyección de HTML en sitios de Google sin advertencias visibles y el llamado “robo de modelos”, que implica la extracción de parámetros confidenciales de sistemas de inteligencia artificial.

Con esta iniciativa, Google busca involucrar a expertos externos en la detección temprana de riesgos y reforzar la seguridad de sus plataformas impulsadas por IA.

LEER: Ofertas de trabajo en San Nicolás: miércoles 8.10

Artículos relacionados

Volver al botón superior