En mayo de 2025, Google lanzó Veo 3, la primera vez que logra la generación sincronizada de audio y vídeo de IA, de modo que los personajes de vídeo de IA pueden "hablar". Los avances del modelo incluyen imagen 4K, coherencia física y sincronización de sonido, etc., utilizando la tecnología V2A para codificar visuales de vídeo como señales semánticas, generando pistas de audio coincidentes, y aplicándose a programas de entrevistas, juegos en directo, conciertos y otras escenas. Aunque existen deficiencias en la generación de acciones complejas, las perspectivas de comercialización son significativas, con precios escalonados, lo que repercute en las industrias tradicionales de la publicidad y la producción cinematográfica.