YouTube incorpora IA para alertar si tu imagen o voz aparecen sin autorización

YouTube comenzó a probar una herramienta que permitirá a los creadores de contenido saber si su imagen o voz aparecen en videos generados con inteligencia artificial sin su consentimiento. La medida busca frenar el aumento de los deepfakes, videos manipulados que suplantan la identidad de las personas y pueden afectar su reputación o ingresos.
El sistema combina reconocimiento facial y aprendizaje automático para rastrear videos sospechosos. Los creadores podrán revisar coincidencias detectadas en el panel “Detección de contenido” de YouTube Studio y, si confirman el uso no autorizado, presentar una denuncia directamente desde la plataforma. La función se encuentra en fase beta para un grupo selecto de creadores del Programa de Socios, y su despliegue global se espera para principios de 2026.
Para acceder a esta herramienta, los usuarios deben verificar su identidad mediante reconocimiento facial. YouTube aseguró que estos datos no se usarán para publicidad ni para entrenar modelos de IA y que la función está destinada únicamente a protección.
Además, la plataforma anunció un temporizador para limitar el tiempo de consumo de Shorts, su formato de videos cortos, buscando promover un uso más saludable y consciente de la aplicación. Cuando se alcance el límite, la reproducción automática se detendrá, ofreciendo a los usuarios un punto de pausa y conciencia sobre el tiempo frente a la pantalla.
Estas medidas reflejan la creciente preocupación de las plataformas digitales por la protección de la identidad y el bienestar de sus usuarios frente a contenidos generados con inteligencia artificial.
LEER: Cuánto podrían bajar los autos si se elimina el impuesto al lujo desde enero


