Cómo instalar Gemma 4 en Android e iOS: guía completa para ejecutar IA local sin conexión
Google AI Edge Gallery permite instalar Gemma 4 directamente en tu móvil y ejecutarlo sin internet, sin enviar datos a servidores y con control total sobre el modelo. Aquí tienes todos los pasos, la elección crítica entre E2B y E4B, y qué puedes hacer una vez instalado.
Ejecutar un modelo de inteligencia artificial directamente en tu smartphone, sin conexión a internet y sin enviar ningún dato a servidores externos, ya no requiere conocimientos técnicos. Google AI Edge Gallery convierte la instalación de Gemma 4 en un proceso de pocos pasos accesible para cualquier usuario.
La instalación en sí es sencilla. La decisión importante está en elegir la versión correcta para tu hardware, y en entender qué puede y qué no puede hacer un modelo que corre en el chip de tu teléfono.
Requisitos antes de instalar
Revisar los requisitos antes de descargar nada evita frustraciones. Los mínimos son claros, pero el rendimiento real depende significativamente de cuánto superas esos mínimos.
- Android 12 o superior
- Mínimo 4 GB de RAM
- 4-5 GB de espacio libre
- Snapdragon 8 Gen 1+ recomendado
- iOS 17 o superior
- iPhone 12 o posterior
- 4-5 GB de espacio libre
- A16 Bionic o superior recomendado
La regla práctica sobre hardware: Los requisitos mínimos permiten instalar y ejecutar el modelo. El rendimiento real, velocidad de respuesta y calidad del razonamiento, depende de cuánta potencia tiene el chip de tu dispositivo. En gama media, el modelo E2B es la única opción práctica. En gama alta (Snapdragon 8 Gen 3, A17 Pro o superior), el E4B ofrece una experiencia significativamente mejor.
Instalación paso a paso
El proceso completo se divide en tres fases: instalar la app contenedora, descargar el modelo y elegir con qué versión empezar.
Paso 1: instalar Google AI Edge Gallery
- Descarga la app desde la tienda oficial Busca "Google AI Edge Gallery" en Google Play (Android) o en App Store (iPhone). También está disponible como APK desde GitHub si prefieres instalación manual o acceso a versiones experimentales.
- Instala y abre la aplicación La app no requiere cuenta de Google ni ningún inicio de sesión para funcionar en modo local. Al abrirla por primera vez verás el catálogo de modelos disponibles.
Paso 2: descargar Gemma 4
Tienes dos rutas para llegar al modelo. Ambas llevan al mismo resultado:
- Ruta directa desde Models En el menú principal, selecciona Models, busca Gemma 4 en el catálogo y pulsa Download sobre la versión que quieras instalar.
- Ruta desde AI Chat Entra directamente en AI Chat, selecciona el modelo recomendado y descárgalo desde ahí. La app te sugerirá automáticamente la versión más adecuada para tu hardware.
- Espera a que complete la descarga Dependiendo de tu conexión, la descarga tardará entre 5 y 15 minutos. Solo necesitas internet para esta descarga inicial. Una vez instalado, el modelo funciona completamente offline.
Elegir entre E2B y E4B: la decisión crítica
Esta es la decisión más importante de todo el proceso. No es una cuestión de preferencia: es una cuestión de compatibilidad con tu hardware. Elegir la versión equivocada puede resultar en un modelo que funciona tan lento que resulta inutilizable.
- ~2,5 GB de descarga
- 2.000 millones de parámetros
- Respuesta más rápida
- Menor consumo de batería
- Menor profundidad de razonamiento
- ~3,6 GB de descarga
- 4.000 millones de parámetros
- Mejor calidad y coherencia
- Mayor latencia por respuesta
- Consumo de batería notable
Aunque tengas un teléfono potente, instala E2B primero. Pruébalo durante un par de días en tus casos de uso reales. Si el rendimiento te resulta insuficiente en términos de calidad de razonamiento, entonces escala a E4B. Muchos usuarios descubren que E2B es más que suficiente para la mayoría de tareas, con la ventaja adicional de una velocidad de respuesta significativamente mejor.
Qué puedes hacer con Gemma 4 en local
Una vez instalado, Google AI Edge Gallery ofrece bastante más que un simple chat de texto. El modelo puede interactuar con diferentes tipos de contenido de tu dispositivo.
La diferencia fundamental respecto a usar ChatGPT o Gemini en el móvil está en lo que pasa con tus datos. En el modelo cloud, cada consulta, imagen o audio que envías pasa por servidores externos. Con Gemma 4 en local, nada sale del dispositivo.
| Característica | Gemma 4 local | ChatGPT / Gemini |
|---|---|---|
| Funciona sin internet | Sí | No |
| Datos enviados a servidores | Ninguno | Todos |
| Coste de uso | Gratuito | Freemium |
| Calidad de respuesta | Limitada por hardware | Superior |
| Acceso a información actualizada | No | Sí |
Para qué sí y para qué no: Gemma 4 en local no reemplaza a los modelos cloud para tareas que requieren información actualizada, razonamiento muy complejo o contextos largos. Donde sí aporta valor real es en privacidad (datos sensibles que no quieres que salgan del dispositivo), disponibilidad offline (aviones, zonas sin cobertura, países con restricciones) y desarrollo (testeo de prompts sin coste de API). Para productividad general y calidad de respuesta, los modelos cloud siguen siendo superiores.
Conclusión: Instalar Gemma 4 en Android o iOS ya no es una tarea técnica: Google AI Edge Gallery lo convierte en un proceso de pocos minutos accesible para cualquier usuario. La decisión importante no es la instalación, sino elegir bien entre E2B y E4B según tu hardware, empezando por la versión ligera y escalando solo si el rendimiento lo justifica. Lo que cambia con Gemma 4 en local no es la potencia del modelo (los cloud siguen siendo superiores) sino el control: tus datos no salen del dispositivo, el modelo funciona sin internet y no hay coste de uso. Para quien trabaja con información sensible o necesita IA disponible sin conexión, ese cambio vale más que cualquier mejora de benchmark.