Guides techniques
Applications mobiles

Vibecoder une application mobile avec Claude Code : tutoriel 2026 (React Native + Expo)

Virgile Rietsch
Par Virgile RIETSCH·Fondateur Algomax · Ex-CTO
22 minutes de lecture0 vues
PartagerXLinkedInWhatsApp
Virgile présente DoseTrack — vibecoder ton idée d'app mobile avec Claude Code en 2 heures

Vibecoder une application mobile en 2 heures, c'est possible ?

J'ai eu une greffe de foie. Tous les jours, je dois prendre cinq médicaments à des heures fixes, et je dois les renouveler à des dates différentes selon la taille des boîtes. Certaines contiennent 28 unités, d'autres 60, et tous les mois n'ont pas le même nombre de jours. Une feuille Excel ne suffit pas. Les apps existantes sont surchargées. Bref, le genre de besoin pour lequel une petite app mobile dédiée a un sens immédiat.

Dans la vidéo, je construis cette application de zéro en moins de 2 heures, avec Claude Code, React Native et Expo, sans écrire une ligne de code à la main. C'est ce qu'on appelle aujourd'hui le vibecoding : vous écrivez le prompt, l'agent code, vous testez, vous corrigez.

Cet article reprend le tutoriel étape par étape, avec les prompts exacts, le setup, le design system, et les bonnes pratiques que j'utilise au quotidien sur les applications mobiles livrées chez Algomax. J'ai aussi listé les pièges classiques à éviter en bas de l'article.

Couvert ici : scoping avec ChatGPT, setup Claude Code + Expo, fichier de contexte, skills.sh, design system itératif, notifications natives, OCR local Apple Vision, déploiement TestFlight.

Pas couvert : publication finale sur l'Apple Store et le Play Store, qui demande des captures commerciales, un onboarding, une base de données et une licence Apple Developer.


Comment vibecoder une application mobile avec Claude Code (résumé)

Le workflow complet en 9 étapes :

  1. Scoper le projet avec ChatGPT en 10 minutes (40 questions ciblées)
  2. Préparer le setup : Expo, Cursor, Claude Code, simulateur iOS
  3. Créer un fichier app.md qui sert de contexte permanent à l'agent
  4. Installer les skills.sh de Vercel et créer un claude.md avec vos règles strictes
  5. Brainstormer un design system avec 3 propositions, sauvegarder dans design.md
  6. Itérer la UI en envoyant des captures d'écran à Claude Code
  7. Activer les notifications natives via un EAS development build
  8. Ajouter de l'IA locale (Apple Vision OCR) pour scanner une ordonnance
  9. Déployer sur TestFlight pour tester sur un vrai iPhone

Comptez 2 heures de dev pour un MVP fonctionnel, plusieurs semaines pour une app prête à publier sur les stores.


Pourquoi vibecoder une application mobile en 2026 ?

Le vibecoding, c'est quoi ? La pratique de coder en déléguant l'écriture du code à un agent IA (Claude Code, Codex, Cursor) tout en gardant le contrôle des décisions techniques. Vous écrivez le prompt, l'agent code, vous testez, vous corrigez. La compétence passe de "savoir taper du code" à "savoir cadrer un projet et juger un résultat".

Il y a deux ans, "coder une app mobile sans la coder" était une promesse marketing. En 2026, c'est devenu une réalité technique grâce à trois briques :

  1. Les agents IA dans le terminal (Claude Code, Codex, Cursor) qui lisent, écrivent et modifient du code avec un raisonnement cohérent sur des projets de plusieurs centaines de fichiers.
  2. React Native + Expo, un framework JavaScript cross-platform qui produit une vraie application native iOS et Android à partir d'une seule base de code. Les modèles d'IA sont massivement entraînés dessus.
  3. Les skills (skills.sh), un écosystème open-source de bonnes pratiques que les agents peuvent invoquer à la demande, sur la performance, la navigation, les animations, la gestion d'état.

Résultat : un MVP fonctionnel en 2 heures pour un usage personnel ou un test interne. Pour vraiment développer une application mobile en production avec des utilisateurs payants, comptez plutôt plusieurs semaines pour soigner l'UX, les écrans App Store, l'onboarding, l'auth, le paiement et la base de données.

Une limite à connaître avant de se lancer : le vibecoding mobile est plus contraint que le web. Apple et Google imposent des règles strictes sur les notifications, les permissions, l'accessibilité. Un humain compétent doit valider l'architecture avant la prod, sinon vous payez la dette technique très vite. J'en parle dans Vibe coding, révolution ou piège pour les fondateurs.


Étape 1 — Scoper le projet en 10 minutes avec ChatGPT

La pire erreur quand on commence à vibecoder, c'est de demander tout de suite à Claude : "Code-moi une app qui fait X". L'agent va deviner, partir dans une direction qui ne vous correspond pas, et vous allez perdre 30 minutes à corriger.

La bonne approche : faire interviewer ChatGPT avant d'écrire la moindre ligne. Voici le prompt que j'utilise :

1
J'aimerais créer une application mobile en React Native et Expo.
2
3
[CONTEXTE PERSONNEL]
4
Je prends des médicaments tous les jours suite à une greffe de foie.
5
Les boîtes ont des tailles différentes (28, 60 unités).
6
L'objectif est de me rappeler de prendre les médocs et
7
de me prévenir quand je dois renouveler le stock.
8
9
[CONSIGNE]
10
Pose-moi des questions pour comprendre exactement le genre
11
d'application que je souhaite créer.
12
Une fois que tu auras tout le contexte, propose-moi un plan
13
concret pour commencer le développement.
14
15
[CONTRAINTES]
16
- Pas de base de données. Hors ligne uniquement.
17
- Aucun coût de fonctionnement.
18
- 30 minutes à 1 heure de développement maximum.

ChatGPT va vous renvoyer 30 à 40 questions en plusieurs séries : utilisation, fonctionnalités, rappels, stock, technique, écrans. Répondez de façon concise. Comptez 10 minutes.

Pourquoi ça marche : les questions forcent ChatGPT à déterminer le scope avant de proposer un plan. Vous validez chaque détail au lieu de découvrir les choix de l'IA après coup. Le contexte généré sert ensuite de brief pour Claude Code.

À la fin de l'interview, demandez le plan : architecture, fonctionnalités prioritaires, stack technique, écrans à construire. Copiez tout le contenu de la discussion. C'est votre brief, et il vous fera gagner des heures plus tard.


Étape 2 — Préparer son setup : Expo, Cursor, Claude Code

Avant de coder quoi que ce soit, installez les outils.

OutilRôleInstallation
Node.jsRuntime JavaScriptnodejs.org (LTS)
ghCLI GitHub pour le versioningbrew install gh
CursorÉditeur de code avec IA intégréecursor.com
Claude CodeAgent IA dans le terminalnpm install -g @anthropic-ai/claude-code
ExpoFramework cross-platformPas d'install globale, utilisez npx create-expo-app

Sur Mac, vous aurez aussi besoin de Xcode (gratuit sur le Mac App Store) pour le simulateur iOS. Sur Windows ou Linux, installez Android Studio pour le simulateur Android.

Côté abonnements : Claude Code fonctionne avec n'importe quel plan Anthropic à partir de 20 $/mois. Pour ce tuto, j'utilise le plan à 200 $/mois avec Claude Opus 4.6, qui est aujourd'hui le meilleur modèle pour le code. Les plans plus bas marchent aussi avec Claude Sonnet, un peu moins puissant mais largement suffisant pour un MVP.

Bootstrap du projet :

1
# Créer un nouveau projet Expo
2
npx create-expo-app dosetrack
3
cd dosetrack
4
5
# Lancer le simulateur iOS
6
npm run ios
7
8
# (ou Android)
9
npm run android

À ce stade, l'application Expo par défaut tourne dans un simulateur. Ouvrez le projet dans Cursor (cursor .), faites un split simulateur + éditeur, et vous êtes prêt à vibecoder.


Étape 3 — Donner du contexte à Claude (le fichier app.md)

Pour qu'un vibecoding tienne dans la durée, l'agent a besoin d'un fichier de contexte stable qui ne bouge pas entre les conversations. Sans ça, vous re-expliquez le projet à chaque session, et l'agent perd la cohérence.

Créez à la racine du projet un fichier app.md :

1
# DoseTrack — application de suivi de médicaments
2
3
## Objectif
4
Application mobile React Native (Expo) qui rappelle à
5
l'utilisateur de prendre ses médicaments et de renouveler
6
les stocks.
7
8
## Architecture
9
- Hors ligne, AsyncStorage uniquement
10
- Plusieurs profils patients (futur)
11
- TypeScript strict
12
- Notifications locales (expo-notifications)
13
14
## Fonctionnalités
15
[copiez ici tout le plan généré par ChatGPT]
16
17
## Écrans
18
- Accueil : prochaines prises + alertes stock
19
- Liste des médicaments + ajout
20
- Historique des prises
21
- Réglages
22
23
## Conventions
24
- Architecture par domaine (services, features, types)
25
- Zod pour les schemas
26
- date-fns pour les dates

Lancez ensuite Claude Code en mode plan (Maj+Shift deux fois) :

1
Prends connaissance du fichier @app.md.
2
Transforme-le en liste de tâches checkable que tu
3
maintiendras à jour à chaque feature implémentée.
4
Découpe en sprints :
5
1. Configuration (deps, structure)
6
2. Fondations (types, services)
7
3. UI (design system, composants)
8
4. Logique métier (rappels, renouvellement)
9
5. Notifications

Claude va explorer la base de code, identifier ce qui existe déjà (le boilerplate Expo), et réécrire app.md avec une liste de tâches structurée. Cette liste devient votre tableau Trello : à chaque feature livrée, l'agent coche la case et la prochaine instance Claude voit où en est le projet.

Astuce : si Claude se met à coder avant d'avoir réécrit app.md, arrêtez-le (Esc) et redemandez explicitement la mise à jour du fichier. Les agents sont "hypés" par le code et veulent sauter directement à l'implémentation. C'est un comportement classique.


Étape 4 — Skills.sh et claude.md : la qualité du code généré

C'est l'étape que 90 % des gens qui vibecodent ratent. Sans elle, votre code est syntaxiquement correct mais bourré d'anti-patterns. Pour faire du Claude Code mobile sérieux, c'est la fondation à poser tout de suite.

Installer les skills (bonnes pratiques)

skills.sh est un écosystème de bonnes pratiques pour agents IA, créé par Vercel. Chaque skill est un fichier markdown qui décrit comment faire les choses correctement (performance, navigation, animations) sur un sujet précis.

Pour ce projet, installez les skills React Native + Expo :

1
# Skills Vercel React Native
2
npx skills add vercel/vercel-react-native-skills
3
4
# Skills Expo (UI native, fetching, upgrade)
5
npx skills add expo/expo

Sélectionnez le scope projet et le mode symlink pour que tous vos agents (Claude Code, Cursor, Codex) lisent les mêmes règles. Les skills se retrouvent dans agent/ à la racine du projet.

J'ajoute par-dessus quatre skills officiels Anthropic et de la communauté qui changent la qualité du rendu :

  • frontend-design (Anthropic) : composants soignés, espacements cohérents
  • ui-ux-pro-max : pousse l'agent vers un rendu pro plutôt que générique
  • make-interface-feel-better : micro-interactions, hover states, finitions
  • simplify : passe finale qui supprime la complexité inutile

Créer un fichier claude.md avec vos règles strictes

Claude Code lit automatiquement le fichier claude.md à la racine du projet. C'est l'endroit où vous fixez les règles non négociables :

1
# Règles Claude Code pour ce projet
2
3
## Obligations
4
- Suis la progression dans @app.md (mets à jour après chaque feature)
5
- Suis le design system dans @design.md
6
- Lance toujours `npm run typecheck` et `npm run lint` après une modif
7
- Mets à jour @app.md à la fin de chaque tâche
8
9
## Interdictions
10
- Ne retire JAMAIS les accents des mots français (é, è, ê, à, ç...)
11
- Ne dupliques pas les styles, factorise dans le design system
12
- N'introduis pas de dépendance sans la justifier
13
14
## Mode plan (popularisé par Matt Pocock)
15
- Plan extrêmement concis (sacrifie la grammaire pour la concision)
16
- À la fin de chaque plan, liste les questions sans réponse

Pourquoi le fichier claude.md : Claude n'utilise pas la convention agents.md standard. Pour rendre votre projet compatible avec Cursor, Codex et OpenCode, dupliquez le fichier en agents.md avec les mêmes règles.

Entre chaque feature, fermez l'instance de Claude Code (Ctrl+C) et relancez-en une nouvelle. Le contexte fraîchement chargé évite la dégradation de qualité que tout agent connaît après 30+ messages.


Étape 5 — Brainstormer un design system avec Claude

Avant de coder une seule UI, fixez le design system. Sinon Claude va inventer des couleurs et des typos différentes sur chaque écran, et vous passerez la fin du projet à harmoniser.

Le prompt :

1
Brainstormons ensemble le design system de cette application.
2
Une fois les décisions prises, le design doit être cohérent
3
sur l'ensemble de l'app.
4
5
Fais-moi 3 propositions très différentes (style, couleur,
6
typographie, ombres). Crée des composants visuels sur
7
la page d'accueil pour que je voie le rendu de chaque
8
proposition.
9
10
Contexte : @app.md

Claude vous propose 3 directions visuelles distinctes (par exemple "Soft Clinical", "Bold Color", "Neo-Brutalist Medical") et les implémente en composants React Native que vous voyez immédiatement dans le simulateur. Vous choisissez celle qui vous parle.

Descendez ensuite dans le détail :

1
Efface les 2 propositions non retenues.
2
Maintenant propose-moi 4 palettes de couleurs primaires,
3
4 typographies (avec rendu visuel), et 3 niveaux d'ombre.

Une fois vos choix faits, forcez la sauvegarde dans un fichier dédié :

1
Sauvegarde notre design system complet dans un fichier
2
@design.md, structuré ainsi :
3
- Couleurs (light + dark mode)
4
- Typographie (hiérarchie complète)
5
- Ombres (subtle, medium, heavy)
6
- Composants de base (Card, Button, Input)
7
- Principes (cohérence, espacements, états)

Sans ce fichier, Claude réinvente le design à chaque conversation. Avec, vous avez une référence stable que tous vos agents partagent.


Étape 6 — Itérer la UI avec des captures d'écran

Un conseil contre-intuitif sur lequel je reviens souvent : pour faire du vibecoding mobile efficace, communiquez avec Claude par capture d'écran, pas par description textuelle.

Quand vous voyez un titre tronqué ou un bouton mal positionné, faites une capture du simulateur, glissez-la dans Claude Code, et écrivez :

1
Voici l'écran d'ajout de médicament.
2
[capture d'écran]
3
4
Problèmes :
5
1. Le titre est tronqué en haut
6
2. Le menu catalogue n'est pas ergonomique → utilise un bottom sheet
7
3. Le formulaire n'est pas scrollable jusqu'en bas

Claude voit exactement ce que vous voyez. Il identifie la racine du problème (souvent un lineHeight foireux, un KeyboardAvoidingView mal configuré ou un ScrollView qui manque) et corrige sans tâtonner.

Quelques patterns d'itération qui marchent bien :

  • Plusieurs instances Claude en parallèle. Une qui code, une qui review, une qui implémente la feature suivante. Vous gardez le contexte mental, l'IA exécute.
  • Demandez 3 propositions avant de choisir sur les décisions UX importantes (ex. "comment éditer une carte ?" : tap, swipe, icône stylo, menu long-press).
  • Utilisez les composants natifs : bottom sheet (@gorhom/bottom-sheet), switch, date picker. Plus performant qu'une vue custom.
  • Évitez le scroll infini sur les inputs numériques. Pour saisir 300 unités de stock, un input texte ou un stepper avec presets (10, 50, 100) bat un slider 1-par-1.

Anti-pattern : ne demandez jamais à Claude de "rendre l'écran plus joli". Soyez précis. "Le padding du bouton est trop grand, divise par 2", "le titre devrait être 24pt bold sur 2 lignes max". Ce niveau de précision sort de meilleurs résultats que des adjectifs.


Étape 7 — Notifications natives sur React Native (EAS development build)

C'est là que ça coince pour la plupart des gens. Les notifications locales sur iOS et Android ne fonctionnent pas dans Expo Go, l'application générique de test. Il vous faut un development build, c'est-à-dire un vrai binaire de votre application compilé spécifiquement pour le développement.

EAS (Expo Application Services) gère cette compilation dans le cloud d'Expo :

1
# Installer le CLI EAS
2
npm install -g eas-cli
3
4
# Se connecter à son compte Expo
5
eas login
6
7
# Générer un development build pour iOS
8
eas build --platform ios --profile development

Le build prend une dizaine de minutes côté serveur Expo. Le tier gratuit donne 15 builds iOS et 15 builds Android par mois (source : tarifs Expo), largement suffisant pour itérer sur un projet personnel.

Une fois le build prêt, installez-le sur le simulateur (ou un device physique en TestFlight, voir étape 9), et relancez :

1
npx expo start --dev-client

Votre application a maintenant accès aux APIs natives : notifications, caméra, capteurs, biométrie. Pour les rappels de médicaments, je m'appuie sur expo-notifications :

1
import * as Notifications from "expo-notifications";
2
3
await Notifications.scheduleNotificationAsync({
4
content: {
5
title: "Advagraf 1 mg",
6
body: "C'est l'heure de prendre votre médicament.",
7
sound: "default",
8
},
9
trigger: {
10
type: Notifications.SchedulableTriggerInputTypes.CALENDAR,
11
hour: 9,
12
minute: 0,
13
repeats: true,
14
},
15
});

Comptez environ 1 heure avec un agent IA bien briefé pour avoir cette feature complète.


Étape 8 — IA locale sur iPhone : OCR avec Apple Vision Framework

Cette feature est mon coup de cœur du projet. Scanner une ordonnance, gratuitement, sans aucune API cloud, en moins d'une seconde.

Sur les iPhone récents, Apple expose l'API Vision Framework : un OCR (reconnaissance de texte) qui tourne entièrement en local. Le texte ne sort jamais du téléphone, c'est gratuit, c'est rapide, et ça marche hors ligne.

Le prompt à Claude :

1
Implémente une feature "scanner une ordonnance" :
2
1. L'utilisateur prend une photo (ou choisit dans la galerie)
3
2. On utilise l'API Apple Vision (locale) pour extraire le texte
4
3. On parse le texte pour détecter les médicaments du catalogue
5
4. On propose à l'utilisateur de les ajouter en un clic
6
7
Si Apple Vision ne suffit pas, on basculera sur OpenAI plus tard.

Claude installe @react-native-vision-camera/text-recognition ou un wrapper équivalent, crée un écran de capture, et la pipeline de matching texte → médicaments.

Limites de l'OCR local :

  • Reconnaissance de texte uniquement, pas de raisonnement. Pour passer de "4 mg" à "1 mg + 3 mg" (parce que 4 mg n'existe pas en pharmacie), il faut une couche de logique métier en plus.
  • Sur des ordonnances manuscrites, le taux d'erreur monte vite.
  • Pour de la production, basculez sur GPT-4 Vision ou Claude 4.6 Sonnet vision : payant, mais le raisonnement détecte beaucoup mieux les ambiguïtés.

L'avantage du double système : vous proposez la feature gratuite par défaut (Apple Vision), avec un upgrade premium "scan IA avancé" (GPT-4) facturé à l'abonnement. Le genre de product-market fit incrémental qu'on recommande aux fondateurs sur le développement d'une application mobile IA.


Étape 9 — Publier sur TestFlight pour tester sur un vrai iPhone

Le simulateur, c'est bien. Mais avant d'envoyer une beta à vos premiers utilisateurs, il faut tester sur un vrai device. Sur iOS, ça passe par TestFlight.

Prérequis :

Le déploiement se fait avec eas submit :

1
# Lancer la pipeline de soumission iOS
2
eas submit --platform ios
3
4
# Le CLI vous pose les questions :
5
# - Apple ID + mot de passe
6
# - Bundle identifier (ex. com.algomax.dosetrack)
7
# - Création des clés API push
8
# - Réutilisation App Store Connect API key

Comptez environ 10 minutes pour le build et 10 minutes pour qu'Apple traite le binaire en arrière-plan. Vous recevez un email quand l'app est dispo sur TestFlight.

Sur votre iPhone, ouvrez TestFlight, cliquez sur votre application, lancez-la. Vous testez maintenant l'application sur un device physique : les notifications partent pour de vrai, l'OCR Apple Vision tourne sur le matériel. La version expire au bout de 90 jours, le délai TestFlight standard, parfait pour itérer en beta.

Bon à savoir : la licence Apple Developer à 99 $/an n'est obligatoire que pour distribuer l'app (TestFlight + App Store). Pour tester en local sur votre device, vous pouvez signer l'app avec un compte Apple gratuit, mais la signature expire au bout de 7 jours et il faut re-signer manuellement.


Les 5 pièges à éviter quand on vibecode du mobile

Après avoir développé plus d'une dizaine d'applications mobiles avec mon agence Algomax, voici les erreurs récurrentes.

1. Laisser l'agent coder avant de scoper

Symptôme : 30 minutes de code, et le résultat ne correspond pas du tout à ce que vous vouliez. Faites l'interview avec ChatGPT (étape 1) avant d'ouvrir Claude Code.

2. Ne pas reset le contexte entre les features

Au bout de 30+ messages, n'importe quel agent commence à halluciner ou à oublier les règles. Ctrl+C puis nouvelle instance Claude Code à chaque feature majeure. Les fichiers app.md, claude.md et design.md rechargent le contexte essentiel automatiquement.

3. Ignorer le typecheck et le lint

L'agent peut produire du code qui compile mais qui plante au runtime. Ajoutez npm run typecheck et npm run lint dans claude.md comme obligation après chaque modif. L'agent les exécute lui-même et corrige avant de vous rendre la main.

4. Décrire les bugs avec des mots au lieu de captures d'écran

"Le bouton est moche" donne un résultat aléatoire. Privilégiez la capture d'écran avec une description précise (couleur exacte, padding, alignement). Visuel > textuel pour la UI.

5. Vouloir tout faire en une seule conversation

L'agent est meilleur avec une feature à la fois. Un prompt = une intention claire. Si la feature est complexe, découpez en sous-tâches et créez plusieurs instances Claude Code en parallèle (notifications dans une, OCR dans l'autre, design dans une troisième).


Conclusion : 2 heures pour un MVP, plusieurs semaines pour la production

DoseTrack est sur mon iPhone. Elle me rappelle mes médicaments à 9 h et 21 h. Elle scanne mes ordonnances avec Apple Vision et m'alerte quand un stock baisse sous 25 %. Zéro dollar de dépensé, moins de 2 heures de travail.

Maintenant, c'est un MVP personnel. Pour le transformer en application grand public publiable sur l'App Store, il faudrait ajouter :

  • Un onboarding et des écrans App Store soignés (captures, vidéo de démo, visuels commerciaux)
  • Une vraie base de données (Supabase ou Firebase) pour synchroniser entre devices
  • Une authentification (Sign in with Apple, Google)
  • Du paiement in-app pour les features premium (export, multi-profils)
  • Des analytics (Mixpanel, PostHog) pour comprendre comment les utilisateurs s'en servent
  • De la conformité (RGPD, CGU, mentions médicales)

C'est typiquement le périmètre d'un MVP mobile sérieux. Si ce phasage vous parle, le retour d'expérience Lancer un MVP mobile en 4 semaines raconte comment on enchaîne ces étapes en produit livrable.

Chez Algomax, on prend votre idée, on vibecode le squelette, on solidifie l'architecture, on intègre les services payants (auth, paiement, push), on publie sur les stores et on vous forme à itérer ensuite. Vous gardez le code. Si vous voulez chiffrer votre projet, on couvre ça en détail sur la page prix d'une application mobile.

Voir le service développement d'application mobile

Si vous préférez apprendre à le faire vous-même, notre formation vibecoding couvre exactement le workflow décrit dans cet article : prompts, fichiers de contexte, skills, patterns d'itération. Et si vous voulez en discuter de vive voix avant de vous lancer, contactez-nous depuis la page contact pour un appel découverte gratuit de 30 minutes.


FAQ — vibecoder une application mobile

Faut-il savoir coder pour vibecoder une application mobile ?

Pas besoin de savoir taper du code à la main, mais il faut savoir lire le code généré et juger si c'est correct. Sans cette compétence, vous accumulez de la dette technique sans vous en apercevoir, et vous le payez au moment de la mise en production. Pour un MVP perso, vous pouvez avancer à l'aveugle. Pour une app destinée à des utilisateurs payants, prévoyez de vous faire accompagner par un dev qui valide l'architecture, ou apprenez les bases du JavaScript et de React Native en parallèle.

Combien coûte une application mobile vibecodée ?

Pour un MVP perso comme DoseTrack : 0 à 20 $/mois (un abonnement Anthropic suffit pour Claude Code, EAS Build est gratuit jusqu'à 15 builds iOS et 15 Android par mois). Pour publier sur l'App Store, comptez 99 $/an de licence Apple Developer. Pour une vraie app prête à monétiser, le coût devient celui du temps : 2 à 4 semaines de travail dev ou 8 à 12 k€ en prestation. Détail sur la page prix d'une application mobile.

Claude Code ou Cursor pour développer en React Native ?

Sur mobile, je préfère Claude Code en mode terminal pour les raisons suivantes : meilleur sur les projets multi-fichiers, mode plan natif, support natif des skills.sh. Cursor reste excellent pour les tâches courtes en édition directe avec contexte visuel. La meilleure config en pratique : Claude Code pour piloter les features, Cursor ouvert sur le projet pour les corrections rapides à la souris.

React Native ou Flutter pour le vibecoding ?

React Native gagne pour le vibecoding en 2026, parce que les modèles d'IA sont massivement entraînés sur l'écosystème JavaScript et React. Flutter (Dart) est techniquement très solide, mais les agents IA produisent moins de code idiomatique sur Dart que sur React Native. Comparatif détaillé : React Native ou Flutter, le guide pour non-techniques. D'autres comparatifs techniques sont rassemblés sur le hub comparatifs Algomax.

Quel modèle Claude utiliser pour coder une app mobile ?

Claude Opus 4.6 reste le plus puissant en avril 2026 pour les projets complexes (architecture, refactor, multi-fichiers). Claude Sonnet 4.6 est largement suffisant pour les tâches d'implémentation classiques et coûte beaucoup moins cher en API. La règle pratique : Opus pour le mode plan et l'architecture, Sonnet pour exécuter les sprints.

Peut-on vibecoder une application mobile pour Android ?

Oui, exactement le même workflow fonctionne pour Android grâce à Expo + EAS Build. Côté simulateur, installez Android Studio au lieu de Xcode, et lancez npm run android au lieu de npm run ios. Pour la publication, le Play Store remplace l'App Store et la commande devient eas submit --platform android. Coût Google Play Developer : 25 $ une seule fois, contre 99 $/an chez Apple.

Comment publier une application mobile sur l'App Store ?

Trois étapes : (1) ouvrir un compte Apple Developer (99 $/an), (2) générer un build de production avec eas build --platform ios --profile production, (3) soumettre avec eas submit --platform ios. Apple effectue ensuite une revue manuelle qui prend de 24 h à 7 jours. Prévoyez aussi : captures d'écran (iPhone + iPad), texte App Store, politique de confidentialité, et tests TestFlight pour valider le bon fonctionnement avant la soumission.


Sources vérifiées

Virgile Rietsch
Virgile RIETSCHFondateur Algomax · Ex-CTO

Dev fullstack React/Node.js. Ex-CTO pendant 3 ans. +10 projets livrés, 100% de clients satisfaits. Je construis des SaaS, des apps mobiles et des agents IA pour des fondateurs.

Ex-CTO pendant 3 ans (GoodCollect)223+ développeurs formésNote Malt : 5/5+10 projets livrés

Pages utiles pour approfondir

Si ce sujet vous concerne, ces pages vous aideront à comparer les options, cadrer un budget et choisir la bonne direction produit.

Vous voulez nos services ?

Vibecoding cleanup, applications mobile, SaaS. Réservez un appel découverte gratuit.

Reste informé

Abonne-toi à notre newsletter pour recevoir les dernières mises à jour et insights.