Paul Slama
3 avril 2026 · débutant

Outil présenté
Bolt.diy
En bref :
Tu utilises Bolt ou Lovable pour créer des apps avec l'IA. Ça marche bien — jusqu'au moment où tu atteins la limite et où on te demande de payer.
Bolt.diy est une alternative open source, gratuite et illimitée à Bolt.new et Lovable. Tu la télécharges, tu la connectes à un modèle IA (local ou cloud), et tu génères des applications complètes sans jamais voir un compteur de crédits. J'ai testé : en 20 échanges, j'avais un tableau de bord fonctionnel qui m'aurait coûté la moitié de mon quota mensuel sur Lovable.
Le projet est né d'une frustration partagée par des milliers de développeurs et d'entrepreneurs. Les outils cloud de génération d'apps par IA sont puissants, mais leur modèle économique crée un mur exactement quand tu en as le plus besoin — en plein milieu d'un projet. Bolt.diy supprime ce mur.
Dans cet article, je t'explique comment installer l'outil, quel moteur IA choisir, quels modèles utiliser, et comment mettre ton application en ligne — le tout gratuitement.
Avant de parler de l'alternative, posons les chiffres. Parce que le problème n'est pas la qualité de ces outils — ils sont excellents. Le problème, c'est ce que ça coûte quand tu veux vraiment construire.
Bolt.new fonctionne avec des tokens. Le plan gratuit donne 1 million de tokens par mois, plafonné à 300 000 par jour. En pratique, sur un projet avec plusieurs itérations, corrections de bugs et ajouts de fonctionnalités, tu atteins la limite en quelques jours. Le plan Pro monte à 25 $/mois pour 10 millions de tokens.
Lovable utilise des crédits. Le plan gratuit : 5 crédits par jour, 30 par mois. Chaque interaction avec l'IA consomme au moins un crédit — les requêtes complexes en consomment plus. Le plan Pro : 25 $/mois pour 100 crédits mensuels + 5 crédits bonus par jour.
Voici le comparatif réel :
| Bolt.new | Lovable | Bolt.diy | |
|---|---|---|---|
| Plan gratuit | 1M tokens/mois (300K/jour) | 30 crédits/mois (5/jour) | Illimité |
| Plan Pro | 25 $/mois | 25 $/mois | 0 $ |
| Plan Teams | 30 $/utilisateur/mois | 50 $/mois (illimité) | 0 $ |
| Limite d'itérations | Oui (tokens) | Oui (crédits) | Non |
| Hébergement inclus | Oui | Oui | Non (Vercel/Netlify gratuit) |
| Choix du modèle IA | Limité | Non | Total (19+ modèles) |
| Données | Cloud | Cloud | Local ou cloud, au choix |
Pour un entrepreneur qui teste plusieurs idées ou un freelance sur plusieurs projets clients, la note grimpe vite. 25 $ par mois, ça paraît raisonnable. Mais quand tu bloques en plein développement et que tu dois attendre le mois suivant ou sortir la carte bleue pour un top-up, ça devient un frein réel.
A retenir : Bolt.new et Lovable coûtent 25 $/mois minimum pour un usage sérieux, avec des limites qui bloquent en plein milieu d'un projet. Bolt.diy élimine ces deux problèmes.
Bolt.diy (anciennement oTToDev) est un fork open source de Bolt.new, maintenu par la communauté sur GitHub (stackblitz-labs/bolt.diy). L'interface est quasi identique : tu décris ce que tu veux, l'IA génère le code, tu itères par messages. La différence fondamentale : c'est toi qui choisis le modèle, et il n'y a aucune limite.
Concrètement, Bolt.diy est une application web qui tourne dans ton navigateur, mais en local sur ta machine. Tu la lances, tu connectes le moteur IA de ton choix (Ollama pour du 100% local, OpenRouter pour du cloud gratuit, ou n'importe quel fournisseur via sa clé API), et tu commences à construire.
Ce que tu peux créer :
L'outil supporte React, Node.js, Tailwind CSS. Tu décris en français ce que tu veux, l'IA code, tu demandes des modifications en langage naturel. Comparable à Lovable — sauf que tu peux itérer autant que nécessaire sans que personne ne te bloque.
Les limites à connaître : la qualité du code dépend du modèle IA que tu connectes. Un modèle local 7B ne rivalisera pas avec Claude 3.5 Sonnet (le moteur de Lovable). Avec un bon modèle 32B en local ou un modèle cloud via OpenRouter, les résultats sont très proches. Mais pas magiques — tu devras itérer, comme sur n'importe quel outil.
Brutal. Gratuit. Illimité.
Et le code t'appartient. Tu peux le télécharger en ZIP, le pousser sur GitHub, le déployer où tu veux. Pas de lock-in.
A retenir : Bolt.diy reproduit l'expérience Bolt.new et Lovable — générer des apps complètes par IA — mais en local, sans abonnement, sans limite, et avec le choix total du modèle IA.
L'installation est plus simple qu'il n'y paraît. Même si tu n'as jamais ouvert un terminal, suis ces étapes dans l'ordre.
Avant de commencer, tu as besoin de deux choses sur ta machine :
Pour vérifier que c'est installé, ouvre un terminal et tape :
node --version
git --version
Si les deux renvoient un numéro de version, tu es bon.
Ouvre ton terminal et tape ces deux commandes :
git clone https://github.com/stackblitz-labs/bolt.diy.git
cd bolt.diy
La première télécharge le code source. La deuxième te place dans le dossier du projet.
npm install -g pnpm
pnpm install
La première ligne installe pnpm (un gestionnaire de paquets plus rapide que npm). La deuxième installe tout ce dont Bolt.diy a besoin. Ça prend 1-2 minutes selon ta connexion.
pnpm run dev
L'application démarre. Ouvre ton navigateur et va sur http://localhost:5173 (l'URL exacte s'affiche dans le terminal). Tu devrais voir l'interface de Bolt.diy — identique à Bolt.new.
C'est là que tu choisis ta puissance. Clique sur l'icône paramètres (⚙️) dans l'interface, va dans l'onglet "Providers", et configure ton moteur. Les deux options principales sont détaillées dans la section suivante.
Si ça ne marche pas :
command not found: git ou node → tu n'as pas installé les prérequis. Retourne à l'étape "Prérequis".EACCES: permission denied → sur Mac/Linux, ajoute sudo devant la commande npm install.http://localhost:5173). Si le port est utilisé, Bolt.diy en propose un autre automatiquement.A retenir : 4 commandes dans le terminal et c'est lancé. Git clone, pnpm install, pnpm run dev. Le plus long sera le téléchargement du modèle IA si tu choisis Ollama.
L'outil est installé. Maintenant il faut le brancher à un cerveau. Tu as deux options, chacune avec ses avantages selon ton profil.
Ollama te permet de faire tourner des modèles IA directement sur ton ordinateur. Aucune connexion internet nécessaire après le téléchargement du modèle. Aucun frais. Jamais.
Installation :
ollama pull qwen2.5-coder:32b
C'est tout. Dans l'interface Bolt.diy, sélectionne "Ollama" comme provider et choisis le modèle.
Avantages :
Prérequis matériels :
qwen2.5-coder:7b) ou passe sur OpenRouterSi ta machine rame avec Ollama, pas de panique. C'est exactement pour ça qu'OpenRouter existe.
OpenRouter est un agrégateur qui donne accès à des dizaines de modèles IA via une seule API. Beaucoup sont gratuits, avec des limites quotidiennes largement suffisantes pour un usage régulier.
Configuration :
Limites gratuites en 2026 :
En pratique, 50 requêtes par jour permettent de construire une application fonctionnelle en 2-3 jours sans payer un centime. C'est un modèle freemium, pas du "gratuit illimité" — mais les limites sont largement suffisantes pour un projet personnel ou un prototype.
Mon conseil : commence par OpenRouter pour tester. Tu valides que le workflow te convient, tu construis tes premières apps. Si tu accroches et que tu codes régulièrement, installe Ollama avec une machine correcte pour ne plus dépendre de rien.
A retenir : Ollama = 100% local, idéal si ta machine est récente (16 Go+ RAM). OpenRouter = cloud gratuit, parfait pour démarrer sans configuration matérielle. Les deux sont gratuits.
Tous les modèles ne se valent pas pour générer du code. Voici ceux qui donnent les meilleurs résultats aujourd'hui, selon les benchmarks (LiveCodeBench, HumanEval, SWE-bench) et mes tests.
| Modèle | Taille | RAM requise | Pour qui | |
|---|---|---|---|---|
| Qwen 2.5 Coder 32B | 32B | 24 Go+ VRAM | Meilleur rapport qualité/taille. Comparable à GPT-4o. | |
| DeepSeek R1 Distill 32B | 32B | 24 Go+ VRAM | Raisonnement avancé. Décompose avant de coder. | |
| Qwen 2.5 Coder 7B | 7B | 8 Go VRAM | Machine modeste. Autocomplete et refactors. | |
| Qwen 3.5 27B | 27B | 20 Go+ VRAM | Le plus récent. Review de code et debugging. |
Pour télécharger un modèle, une seule commande :
ollama pull qwen2.5-coder:32b
Remplace le nom du modèle par celui de ton choix. Le téléchargement est unique — ensuite ça tourne indéfiniment.
Les modèles gratuits sont identifiés par le suffixe :free dans OpenRouter :
| Modèle | Points forts | |
|---|---|---|
| Devstral 2 (Mistral, 123B) | Spécialisé code, multi-fichiers, contexte 262K tokens | |
| Qwen3-Coder (480B MoE) | Le plus puissant open source, raisonnement + code | |
| Llama 3.3 70B | Polyvalent, solide sur le code et la compréhension |
Astuce : dans OpenRouter, tu peux aussi utiliser le routeur openrouter/free qui sélectionne automatiquement le meilleur modèle gratuit disponible pour ta requête.
A retenir : En local, Qwen 2.5 Coder 32B est le champion pour une machine avec 24 Go+ de VRAM. Sur OpenRouter, Devstral 2 et Qwen3-Coder sont gratuits et rivalisent avec les modèles payants.
Tu as construit ton application en local avec Bolt.diy. Elle tourne sur ta machine. Maintenant tu veux la mettre en ligne pour que d'autres puissent l'utiliser.
C'est le point où Bolt.new et Lovable ont un avantage : le déploiement en 1 clic intégré. Mais Bolt.diy compense avec des intégrations directes vers Vercel et Netlify — les deux hébergeurs les plus populaires pour les apps web, et les deux sont gratuits pour les projets personnels.
Bolt.diy a un bouton de déploiement direct vers Netlify et Vercel. Dans les paramètres de l'app, connecte ton compte Vercel ou Netlify, et clique sur "Deploy". C'est fait.
Si tu préfères contrôler le process :
npm i -g vercel
vercel login
cd bolt.diy
vercel --prod
Vercel détecte automatiquement le framework, build le projet et te donne une URL publique. Chaque push vers ton repo Git déclenche un nouveau déploiement automatique.
La plus simple de toutes :
pnpm run build dans ton projet Bolt.diydist/ dans la zone de dropAucune configuration. Tu as une URL publique en 30 secondes.
A retenir : Le déploiement est gratuit sur Vercel et Netlify. Bolt.diy a des intégrations directes, mais tu peux aussi déployer en 4 commandes CLI ou en drag and drop.
Bolt.diy est l'alternative open source la plus proche de Lovable en expérience utilisateur. L'interface est presque identique à Bolt.new, et tu peux connecter les modèles IA de ton choix via Ollama (local) ou OpenRouter (cloud gratuit). D'autres projets comme Open Hands ou Aider existent, mais ils s'adressent davantage aux développeurs confirmés.
La qualité du code dépend du modèle IA utilisé, pas de l'interface. Avec Qwen 2.5 Coder 32B en local ou Devstral 2 via OpenRouter, les résultats sont comparables à ce que produisent Bolt.new et Lovable pour des applications de complexité moyenne. Pour des projets très complexes, les modèles commerciaux comme Claude ou GPT-4 gardent un avantage — mais tu peux aussi les utiliser dans Bolt.diy en entrant ta propre clé API, et tu paies uniquement ce que tu consommes.
Si tu as un Mac M1 ou plus récent avec 16 Go de RAM, oui. Sur PC, il te faut une carte graphique avec au moins 8 Go de VRAM pour les petits modèles (7B paramètres), ou 24 Go+ pour les modèles puissants comme Qwen 2.5 Coder 32B. Si ta machine est limitée, OpenRouter est ton meilleur ami : tout tourne dans le cloud, aucune puissance locale requise.
Oui. L'installation est identique sur les deux systèmes. Tu as besoin de Git et Node.js installés — les deux sont disponibles pour Windows, Mac et Linux. Le reste se passe dans le navigateur.
OpenRouter est une plateforme qui regroupe des dizaines de modèles IA via une seule API. Beaucoup de ces modèles sont accessibles gratuitement, avec une limite de 50 requêtes par jour. C'est suffisant pour construire une application en 2-3 jours. Pour un usage intensif, tu peux acheter des crédits à la consommation — pas d'abonnement mensuel obligatoire.
Bolt.diy supporte le déploiement direct vers Vercel et Netlify, les deux hébergeurs les plus populaires. Ils sont gratuits pour les projets personnels. Tu peux aussi télécharger ton code en ZIP et le déployer manuellement. Le processus prend moins de 5 minutes dans tous les cas.
Bolt et Lovable sont de bons outils. Mais si tu en as marre de bloquer sur des limites de crédits en plein milieu d'un projet, Bolt.diy résout le problème à la racine. Open source, gratuit, illimité, et les résultats sont là.
L'installation prend un quart d'heure. Les modèles IA gratuits sont meilleurs que jamais. Et tu gardes le contrôle total sur ton code et tes données.
Si tu veux qu'on regarde ensemble comment intégrer ce type d'outil dans ton workflow ou automatiser une partie de ton business, prends un créneau directement : [lien Calendly].
Écrit par
Paul Slama
Fondateur de Cypher IA. Accompagne les PME et ETI dans leur transformation IA.
Envie d'aller plus loin ?
15 minutes pour identifier le premier cas d'usage IA rentable dans votre entreprise.
Prendre rendez-vous