TutorielTuto IAOutils IA

Bolt.diy : alternative gratuite à Bolt et Lovable (tuto 2026)

Paul Slama

3 avril 2026 · débutant

Cover Cypher : Bolt.diy alternative open source en split-screen avec un éditeur premium, fond sable chaud, accent corail

Outil présenté

Bolt.diy

Accéder à l'outil

Bolt.diy : alternative gratuite à Bolt et Lovable (tuto 2026)

En bref :

  • Bolt.diy est un fork open source de Bolt.new qui tourne sur ton ordinateur — gratuit, illimité, sans abonnement
  • Tu connectes Ollama (100% local) ou OpenRouter (API cloud gratuite) pour le moteur IA
  • Le résultat est comparable à Lovable : des applications web complètes générées par prompt, sans écrire une ligne de code
  • L'installation prend 15 à 30 minutes selon ta connexion et ton aisance technique
  • Dans cet article : tuto complet, comparatif des prix, meilleurs modèles IA à utiliser, et comment déployer ton app en ligne

Sommaire

Tu utilises Bolt ou Lovable pour créer des apps avec l'IA. Ça marche bien — jusqu'au moment où tu atteins la limite et où on te demande de payer.

Bolt.diy est une alternative open source, gratuite et illimitée à Bolt.new et Lovable. Tu la télécharges, tu la connectes à un modèle IA (local ou cloud), et tu génères des applications complètes sans jamais voir un compteur de crédits. J'ai testé : en 20 échanges, j'avais un tableau de bord fonctionnel qui m'aurait coûté la moitié de mon quota mensuel sur Lovable.

Le projet est né d'une frustration partagée par des milliers de développeurs et d'entrepreneurs. Les outils cloud de génération d'apps par IA sont puissants, mais leur modèle économique crée un mur exactement quand tu en as le plus besoin — en plein milieu d'un projet. Bolt.diy supprime ce mur.

Dans cet article, je t'explique comment installer l'outil, quel moteur IA choisir, quels modèles utiliser, et comment mettre ton application en ligne — le tout gratuitement.

Le vrai coût de Bolt et Lovable en 2026

Avant de parler de l'alternative, posons les chiffres. Parce que le problème n'est pas la qualité de ces outils — ils sont excellents. Le problème, c'est ce que ça coûte quand tu veux vraiment construire.

Bolt.new fonctionne avec des tokens. Le plan gratuit donne 1 million de tokens par mois, plafonné à 300 000 par jour. En pratique, sur un projet avec plusieurs itérations, corrections de bugs et ajouts de fonctionnalités, tu atteins la limite en quelques jours. Le plan Pro monte à 25 $/mois pour 10 millions de tokens.

Lovable utilise des crédits. Le plan gratuit : 5 crédits par jour, 30 par mois. Chaque interaction avec l'IA consomme au moins un crédit — les requêtes complexes en consomment plus. Le plan Pro : 25 $/mois pour 100 crédits mensuels + 5 crédits bonus par jour.

Voici le comparatif réel :

Bolt.newLovableBolt.diy
Plan gratuit1M tokens/mois (300K/jour)30 crédits/mois (5/jour)Illimité
Plan Pro25 $/mois25 $/mois0 $
Plan Teams30 $/utilisateur/mois50 $/mois (illimité)0 $
Limite d'itérationsOui (tokens)Oui (crédits)Non
Hébergement inclusOuiOuiNon (Vercel/Netlify gratuit)
Choix du modèle IALimitéNonTotal (19+ modèles)
DonnéesCloudCloudLocal ou cloud, au choix

Pour un entrepreneur qui teste plusieurs idées ou un freelance sur plusieurs projets clients, la note grimpe vite. 25 $ par mois, ça paraît raisonnable. Mais quand tu bloques en plein développement et que tu dois attendre le mois suivant ou sortir la carte bleue pour un top-up, ça devient un frein réel.

A retenir : Bolt.new et Lovable coûtent 25 $/mois minimum pour un usage sérieux, avec des limites qui bloquent en plein milieu d'un projet. Bolt.diy élimine ces deux problèmes.

Bolt.diy : ce que c'est et pourquoi ça change tout

Bolt.diy (anciennement oTToDev) est un fork open source de Bolt.new, maintenu par la communauté sur GitHub (stackblitz-labs/bolt.diy). L'interface est quasi identique : tu décris ce que tu veux, l'IA génère le code, tu itères par messages. La différence fondamentale : c'est toi qui choisis le modèle, et il n'y a aucune limite.

Concrètement, Bolt.diy est une application web qui tourne dans ton navigateur, mais en local sur ta machine. Tu la lances, tu connectes le moteur IA de ton choix (Ollama pour du 100% local, OpenRouter pour du cloud gratuit, ou n'importe quel fournisseur via sa clé API), et tu commences à construire.

Ce que tu peux créer :

  • Un dashboard client pour visualiser des KPIs
  • Un CRM léger ou un outil de gestion de tâches interne
  • Une landing page avec formulaire de capture d'emails
  • Un outil de prise de rendez-vous
  • Un simulateur ou calculateur pour tes prospects
  • N'importe quelle application web complète avec frontend et backend

L'outil supporte React, Node.js, Tailwind CSS. Tu décris en français ce que tu veux, l'IA code, tu demandes des modifications en langage naturel. Comparable à Lovable — sauf que tu peux itérer autant que nécessaire sans que personne ne te bloque.

Les limites à connaître : la qualité du code dépend du modèle IA que tu connectes. Un modèle local 7B ne rivalisera pas avec Claude 3.5 Sonnet (le moteur de Lovable). Avec un bon modèle 32B en local ou un modèle cloud via OpenRouter, les résultats sont très proches. Mais pas magiques — tu devras itérer, comme sur n'importe quel outil.

Brutal. Gratuit. Illimité.

Et le code t'appartient. Tu peux le télécharger en ZIP, le pousser sur GitHub, le déployer où tu veux. Pas de lock-in.

A retenir : Bolt.diy reproduit l'expérience Bolt.new et Lovable — générer des apps complètes par IA — mais en local, sans abonnement, sans limite, et avec le choix total du modèle IA.

Tuto : installer Bolt.diy en 15 minutes

L'installation est plus simple qu'il n'y paraît. Même si tu n'as jamais ouvert un terminal, suis ces étapes dans l'ordre.

Prérequis

Avant de commencer, tu as besoin de deux choses sur ta machine :

  1. Git — télécharge-le sur git-scm.com si tu ne l'as pas déjà
  2. Node.js (version 16 ou plus récente) — télécharge la version LTS sur nodejs.org

Pour vérifier que c'est installé, ouvre un terminal et tape :

node --version
git --version

Si les deux renvoient un numéro de version, tu es bon.

Étape 1 : Cloner le projet

Ouvre ton terminal et tape ces deux commandes :

git clone https://github.com/stackblitz-labs/bolt.diy.git
cd bolt.diy

La première télécharge le code source. La deuxième te place dans le dossier du projet.

Étape 2 : Installer les dépendances

npm install -g pnpm
pnpm install

La première ligne installe pnpm (un gestionnaire de paquets plus rapide que npm). La deuxième installe tout ce dont Bolt.diy a besoin. Ça prend 1-2 minutes selon ta connexion.

Étape 3 : Lancer l'application

pnpm run dev

L'application démarre. Ouvre ton navigateur et va sur http://localhost:5173 (l'URL exacte s'affiche dans le terminal). Tu devrais voir l'interface de Bolt.diy — identique à Bolt.new.

Étape 4 : Connecter un moteur IA

C'est là que tu choisis ta puissance. Clique sur l'icône paramètres (⚙️) dans l'interface, va dans l'onglet "Providers", et configure ton moteur. Les deux options principales sont détaillées dans la section suivante.

Si ça ne marche pas :

  • command not found: git ou node → tu n'as pas installé les prérequis. Retourne à l'étape "Prérequis".
  • EACCES: permission denied → sur Mac/Linux, ajoute sudo devant la commande npm install.
  • Le navigateur affiche une page blanche → vérifie que le terminal affiche bien une URL (souvent http://localhost:5173). Si le port est utilisé, Bolt.diy en propose un autre automatiquement.
A retenir : 4 commandes dans le terminal et c'est lancé. Git clone, pnpm install, pnpm run dev. Le plus long sera le téléchargement du modèle IA si tu choisis Ollama.

Ollama ou OpenRouter : quel moteur IA choisir

L'outil est installé. Maintenant il faut le brancher à un cerveau. Tu as deux options, chacune avec ses avantages selon ton profil.

Option A : Ollama — tout en local, 100% gratuit

Ollama te permet de faire tourner des modèles IA directement sur ton ordinateur. Aucune connexion internet nécessaire après le téléchargement du modèle. Aucun frais. Jamais.

Installation :

  1. Télécharge Ollama sur ollama.com
  2. Lance-le — il tourne silencieusement en arrière-plan
  3. Ouvre un terminal et télécharge un modèle de code :

ollama pull qwen2.5-coder:32b

C'est tout. Dans l'interface Bolt.diy, sélectionne "Ollama" comme provider et choisis le modèle.

Avantages :

  • 0 € pour toujours
  • Tes données restent sur ta machine — zéro envoi vers l'extérieur
  • Fonctionne hors connexion
  • Accès aux meilleurs modèles open source

Prérequis matériels :

  • Minimum : 16 Go de RAM et un processeur récent (Mac M1+ ou PC avec 8 Go de VRAM GPU)
  • Confortable : 32 Go de RAM ou GPU avec 24 Go+ de VRAM pour les modèles les plus puissants
  • Machine ancienne ou limitée : utilise un modèle plus léger (qwen2.5-coder:7b) ou passe sur OpenRouter

Si ta machine rame avec Ollama, pas de panique. C'est exactement pour ça qu'OpenRouter existe.

Option B : OpenRouter — cloud gratuit, aucune machine puissante requise

OpenRouter est un agrégateur qui donne accès à des dizaines de modèles IA via une seule API. Beaucoup sont gratuits, avec des limites quotidiennes largement suffisantes pour un usage régulier.

Configuration :

  1. Crée un compte sur openrouter.ai (gratuit, 2 minutes)
  2. Génère une clé API dans ton dashboard
  3. Dans Bolt.diy, sélectionne "OpenRouter" comme provider et entre ta clé

Limites gratuites en 2026 :

  • 50 requêtes par jour sur les modèles gratuits
  • 20 requêtes par minute
  • Si tu achètes 10 $ de crédits une fois (pas d'abonnement), la limite monte à 1 000 requêtes par jour

En pratique, 50 requêtes par jour permettent de construire une application fonctionnelle en 2-3 jours sans payer un centime. C'est un modèle freemium, pas du "gratuit illimité" — mais les limites sont largement suffisantes pour un projet personnel ou un prototype.

Mon conseil : commence par OpenRouter pour tester. Tu valides que le workflow te convient, tu construis tes premières apps. Si tu accroches et que tu codes régulièrement, installe Ollama avec une machine correcte pour ne plus dépendre de rien.

A retenir : Ollama = 100% local, idéal si ta machine est récente (16 Go+ RAM). OpenRouter = cloud gratuit, parfait pour démarrer sans configuration matérielle. Les deux sont gratuits.

Les meilleurs modèles IA gratuits pour coder en 2026

Tous les modèles ne se valent pas pour générer du code. Voici ceux qui donnent les meilleurs résultats aujourd'hui, selon les benchmarks (LiveCodeBench, HumanEval, SWE-bench) et mes tests.

Via Ollama (local)

ModèleTailleRAM requisePour qui
Qwen 2.5 Coder 32B32B24 Go+ VRAMMeilleur rapport qualité/taille. Comparable à GPT-4o.
DeepSeek R1 Distill 32B32B24 Go+ VRAMRaisonnement avancé. Décompose avant de coder.
Qwen 2.5 Coder 7B7B8 Go VRAMMachine modeste. Autocomplete et refactors.
Qwen 3.5 27B27B20 Go+ VRAMLe plus récent. Review de code et debugging.

Pour télécharger un modèle, une seule commande :

ollama pull qwen2.5-coder:32b

Remplace le nom du modèle par celui de ton choix. Le téléchargement est unique — ensuite ça tourne indéfiniment.

Via OpenRouter (cloud gratuit)

Les modèles gratuits sont identifiés par le suffixe :free dans OpenRouter :

ModèlePoints forts
Devstral 2 (Mistral, 123B)Spécialisé code, multi-fichiers, contexte 262K tokens
Qwen3-Coder (480B MoE)Le plus puissant open source, raisonnement + code
Llama 3.3 70BPolyvalent, solide sur le code et la compréhension

Astuce : dans OpenRouter, tu peux aussi utiliser le routeur openrouter/free qui sélectionne automatiquement le meilleur modèle gratuit disponible pour ta requête.

A retenir : En local, Qwen 2.5 Coder 32B est le champion pour une machine avec 24 Go+ de VRAM. Sur OpenRouter, Devstral 2 et Qwen3-Coder sont gratuits et rivalisent avec les modèles payants.

Déployer ton app en ligne (Vercel ou Netlify)

Tu as construit ton application en local avec Bolt.diy. Elle tourne sur ta machine. Maintenant tu veux la mettre en ligne pour que d'autres puissent l'utiliser.

C'est le point où Bolt.new et Lovable ont un avantage : le déploiement en 1 clic intégré. Mais Bolt.diy compense avec des intégrations directes vers Vercel et Netlify — les deux hébergeurs les plus populaires pour les apps web, et les deux sont gratuits pour les projets personnels.

Méthode rapide : déploiement intégré

Bolt.diy a un bouton de déploiement direct vers Netlify et Vercel. Dans les paramètres de l'app, connecte ton compte Vercel ou Netlify, et clique sur "Deploy". C'est fait.

Méthode manuelle : Vercel CLI

Si tu préfères contrôler le process :

npm i -g vercel
vercel login
cd bolt.diy
vercel --prod

Vercel détecte automatiquement le framework, build le projet et te donne une URL publique. Chaque push vers ton repo Git déclenche un nouveau déploiement automatique.

Méthode manuelle : Netlify (drag and drop)

La plus simple de toutes :

  1. Lance pnpm run build dans ton projet Bolt.diy
  2. Va sur app.netlify.com
  3. Fais glisser le dossier dist/ dans la zone de drop
  4. Ton app est en ligne

Aucune configuration. Tu as une URL publique en 30 secondes.

A retenir : Le déploiement est gratuit sur Vercel et Netlify. Bolt.diy a des intégrations directes, mais tu peux aussi déployer en 4 commandes CLI ou en drag and drop.

Questions fréquentes

Quelle est la meilleure alternative gratuite à Lovable en 2026 ?

Bolt.diy est l'alternative open source la plus proche de Lovable en expérience utilisateur. L'interface est presque identique à Bolt.new, et tu peux connecter les modèles IA de ton choix via Ollama (local) ou OpenRouter (cloud gratuit). D'autres projets comme Open Hands ou Aider existent, mais ils s'adressent davantage aux développeurs confirmés.

Est-ce que Bolt.diy code aussi bien que Bolt.new ou Lovable ?

La qualité du code dépend du modèle IA utilisé, pas de l'interface. Avec Qwen 2.5 Coder 32B en local ou Devstral 2 via OpenRouter, les résultats sont comparables à ce que produisent Bolt.new et Lovable pour des applications de complexité moyenne. Pour des projets très complexes, les modèles commerciaux comme Claude ou GPT-4 gardent un avantage — mais tu peux aussi les utiliser dans Bolt.diy en entrant ta propre clé API, et tu paies uniquement ce que tu consommes.

Est-ce que mon PC peut faire tourner Ollama ?

Si tu as un Mac M1 ou plus récent avec 16 Go de RAM, oui. Sur PC, il te faut une carte graphique avec au moins 8 Go de VRAM pour les petits modèles (7B paramètres), ou 24 Go+ pour les modèles puissants comme Qwen 2.5 Coder 32B. Si ta machine est limitée, OpenRouter est ton meilleur ami : tout tourne dans le cloud, aucune puissance locale requise.

Est-ce que Bolt.diy fonctionne sur Windows et Mac ?

Oui. L'installation est identique sur les deux systèmes. Tu as besoin de Git et Node.js installés — les deux sont disponibles pour Windows, Mac et Linux. Le reste se passe dans le navigateur.

C'est quoi OpenRouter et c'est vraiment gratuit ?

OpenRouter est une plateforme qui regroupe des dizaines de modèles IA via une seule API. Beaucoup de ces modèles sont accessibles gratuitement, avec une limite de 50 requêtes par jour. C'est suffisant pour construire une application en 2-3 jours. Pour un usage intensif, tu peux acheter des crédits à la consommation — pas d'abonnement mensuel obligatoire.

Comment je mets mon app en ligne après l'avoir créée ?

Bolt.diy supporte le déploiement direct vers Vercel et Netlify, les deux hébergeurs les plus populaires. Ils sont gratuits pour les projets personnels. Tu peux aussi télécharger ton code en ZIP et le déployer manuellement. Le processus prend moins de 5 minutes dans tous les cas.

Bolt et Lovable sont de bons outils. Mais si tu en as marre de bloquer sur des limites de crédits en plein milieu d'un projet, Bolt.diy résout le problème à la racine. Open source, gratuit, illimité, et les résultats sont là.

L'installation prend un quart d'heure. Les modèles IA gratuits sont meilleurs que jamais. Et tu gardes le contrôle total sur ton code et tes données.

Si tu veux qu'on regarde ensemble comment intégrer ce type d'outil dans ton workflow ou automatiser une partie de ton business, prends un créneau directement : [lien Calendly].

Écrit par

Paul Slama

Fondateur de Cypher IA. Accompagne les PME et ETI dans leur transformation IA.

Envie d'aller plus loin ?

On vous aide à passer à l'action.

15 minutes pour identifier le premier cas d'usage IA rentable dans votre entreprise.

Prendre rendez-vous