Installer Google Gemma 4 sur Android ou iPhone : ChatGPT gratuit, sans connexion
Google a lancé la famille Gemma 4, qui propose des modèles capables de fonctionner sur des serveurs massifs ainsi que sur des PC ou smartphones. L’application AI Edge Gallery permet de télécharger et d’exécuter localement les modèles Gemma 4, offrant une latence zéro et une confidentialité totale.

La série Gemma 4 vient d’être lancée et promet beaucoup. Comme nous l’avons souligné lors de la présentation de la gamme Gemma 4, Google propose maintenant des modèles capables de fonctionner tant sur des serveurs de grande taille que sur votre PC ou smartphone.
Pour aller plus loin
Google lance Gemma 4, un modèle open-source : voici comment l’essayer sur votre PC ou votre Mac
Nous allons maintenant aborder les aspects pratiques : comment le mettre dans votre poche ?
C’est très simple, grâce à l’application AI Edge Gallery (disponible sur Android et iOS). Cet outil permet de télécharger et d’exécuter localement les modèles Gemma 4, la version « open-source » de Google. C’est parfait pour ceux qui recherchent une latence nulle et une confidentialité maximale.


Passez au nouvel iPhone 17 avec la solution Smart Change de Bouygues Telecom ! Disponible à partir de 20€/mois x36 mois après un 1er versement de 49€ avec le forfait 200 Go.
Le petit plus ? Obtenez jusqu’à 100 € de bonus supplémentaire avec la reprise de votre ancien mobile.


L’application offre trois modules : Ask Image pour analyser vos photos (OCR, identification d’objets), Audio Scribe pour transcrire et traduire vos enregistrements localement, et le classique Prompt Lab pour discuter, résumer du texte ou générer du code. Le tout fonctionne avec une fenêtre de contexte de 128K tokens, ce qui est considérable pour un smartphone.
E2B ou E4B : Le choix pour votre SoC
Le défi réside dans le fait que faire fonctionner une IA sur le processeur d’un smartphone nécessite des compromis en matière de mémoire. Google propose deux variantes « Effective » (le « E » dans le nom) :
- Gemma 4 E2B (2,3 milliards de paramètres effectifs) : C’est la version légère, d’une taille d’environ 2,54 Go. Elle convient aux smartphones de milieu de gamme et pour des tâches simples telles que la dictée vocale ou la traduction rapide.
- Gemma 4 E4B (4,5 milliards de paramètres effectifs) : C’est la version haut de gamme, pesant 3,61 Go et nécessitant au moins 6 Go de RAM libre pour éviter des plantages système. En contrepartie, elle est beaucoup plus puissante, surpassant sa petite sœur en raisonnement (69 % sur MMLU Pro contre 60 %) et gérant efficacement la multimodalité.
Techniquement, la version E4B se positionne face à Llama 3.2 (Meta) ou Phi-3.5 mini (Microsoft). Bien qu’elle ne puisse rivaliser avec des modèles propriétaires plus anciens comme GPT-4o ou Gemini 2.0 Pro, qui affichent plus de 85 % de succès dans les benchmarks, elle se mesure sans honte à leurs versions « Mini » ou « Flash », tout en restant complètement hors ligne.
Le véritable problème réside dans la stabilité. Lors de conversations prolongées, l’application a tendance à surchauffer et à planter, surtout avec le modèle E4B. De plus, il ne faut pas s’attendre à des générations d’images ou à une analyse de fichiers PDF complexes pour l’instant. Enfin, ces LLM n’accèdent pas aux informations récentes sur le web, ce qui signifie qu’elles possèdent des connaissances dépassées et limitées.
Les « Agent Skills » : une idée prometteuse
Une des nouveautés est l’introduction des Agent Skills. Il s’agit de modules que vous pouvez activer pour donner de nouvelles capacités à Gemma 4.
J’ai pu tester l’intégration Maps : l’IA répond à une question géographique en affichant une carte interactive directement dans le chat, sans avoir besoin d’un serveur externe. On peut également envisager des compétences pour créer des graphiques à partir d’une voix ou générer des cartes pour les révisions.
Pour aller plus loin
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous

