Google podría incorporar generación de música por IA directamente en su aplicación Gemini, según referencias halladas en el código de una versión reciente de la app para Android. El descubrimiento proviene del análisis de la APK 17.2.51.sa.arm64, publicada el 22 de enero de 2026, donde aparecen identificadores internos como «MUSIC_GENERATION_AS_TOOL» y una nueva categoría en «My Stuff» dedicada a música generada por IA.
Las referencias en el binario sugieren una función en desarrollo, pero no constituyen una confirmación oficial ni garantizan lanzamiento. Es habitual que funcionalidades aparezcan primero en código interno y luego sean modificadas, canceladas o publicadas tras pruebas y revisiones regulatorias.
Cómo podría operar (según el patrón de Gemini y evidencias encontradas):
– Generación mediante prompts en lenguaje natural: indicaciones sobre género, estado de ánimo, tempo o instrumentación.
– Producción inicial de fragmentos cortos (aprox. 30–90 segundos) con posibilidad de ampliar, remezclar o editar por secciones.
– Almacenamiento y gestión dentro de «My Stuff» para organizar, previsualizar y reproducir los archivos desde la misma app.
– Exportación en formatos de audio compatibles; posible soporte futuro para stems o archivos MIDI orientados a integración con DAW.
Integración técnica y modelos existentes: Google ya dispone de modelos musicales (Lyria y Lyria RealTime) accesibles vía ecosistema de desarrollo de Gemini. Lyria RealTime permite control en tiempo real de parámetros como ritmo e instrumentación, y Lyria 2 ofrece generación de música de alta fidelidad en múltiples estilos. La integración en Gemini podría facilitar flujos multimodales, combinando audio con imágenes o video generados por otros modelos como Veo.
Impacto y utilidad:
– Para creadores de contenido: agiliza prototipos sonoros, produce pistas de acompañamiento para videos cortos y acelera procesos creativos sin necesidad de conocimientos avanzados en producción musical.
– Para desarrolladores y proyectos multimedia: posibilita pipelines integrados de audio y video generativos dentro del ecosistema de Google, reduciendo la necesidad de herramientas externas.
– Para la industria musical: plantea nuevas capacidades de composición asistida, pero también desafíos en gestión de derechos y atribución.
Limitaciones y consideraciones técnicas anticipadas:
– Restricciones en duración, volumen de generación o cuotas diarias durante fases iniciales.
– Mecanismos para evitar la imitación directa de artistas concretos, como parte de las medidas para mitigar riesgos legales y éticos.
– Posible disponibilidad inicial limitada a suscriptores o usuarios de planes avanzados (por ejemplo, Gemini Advanced o Google One AI Premium).
Estado actual y próximos pasos: la función no ha sido anunciada oficialmente por Google. Cualquier lanzamiento o detalle adicional debería confirmarse mediante comunicados oficiales y documentación técnica provista por la empresa. Hasta entonces, las capacidades musicales de Google siguen disponibles a través de sus herramientas y APIs ya publicadas.



