LocalSite – Créez des sites web avec l'IA 100% en local sur votre machine
Y’a quelques mois, je me suis amusé à reprendre
le projet DeepSite d’Enzostvs
et à le transformer complètement pour fonctionner en 100% local. J’ai baptisé ça
LocalSite
, et ça permet en gros de générer des pages web ou des éléments HTML / CSS / JS à l’aide d’une IA mais en local.
Ça s’appuie donc sur Ollama pour faire tourner les modèles d’IA directement sur votre ordinateur, comme ça, pas de connexion cloud, pas d’abonnement à payer, pas de données qui partent on ne sait où en Chine ou ailleurs. Vous tapez une description de ce que vous voulez, vous sélectionnez un modèle Ollama, et hop, votre site web se génère sous vos yeux.
.center-shortcode * {
text-align: center !important;
}
.center-shortcode p {
text-align: center !important;
width: 100%;
margin-left: auto;
margin-right: auto;
}
.center-shortcode img {
display: block;
margin: 0 auto;
}
.center-shortcode p em,
.center-shortcode em {
font-style: italic;
text-align: center !important;
display: inline-block;
width: 100%;
}
L’installation est assez simple. Il vous faut d’abord
Ollama
installé sur votre machine et ensuite, vous récupérez un modèle, par exemple deepseek-r1:7b avec la commande
ollama pull deepseek-r1:7b
.
Et une fois Ollama lancé avec
ollama serve
il ne reste plus qu’à installer LocalSite avec npm :
git clone https://github.com/Korben00/LocalSite.git
npm instal
npm run dev
Ensuite, direction localhost:3001 et c’est parti.
Pour l’interface, vous avez donc un éditeur Monaco intégré (le même que dans VS Code), une preview en temps réel qui s’adapte aux différentes tailles d’écran (desktop, tablette, mobile), et la possibilité de basculer entre génération et édition manuelle du code. C’est super pratique pour peaufiner le résultat une fois que l’IA a fait le gros du travail.
Pour ceux qui se demandent quels modèles utiliser,
d’après les benchmarks 2025
, CodeLlama 34B reste une référence pour la génération de code HTML/CSS/JavaScript. Mais si votre machine est plus modeste, les versions 7B ou 13B font déjà très bien le job. Qwen2.5-Coder est aussi une excellente alternative, surtout si vous voulez intégrer du code plus complexe dans vos pages. Vous pouvez aussi tenter avec des modèles “Thinking” comme GPT OSS si ça vous chauffe…
.center-shortcode * {
text-align: center !important;
}
.center-shortcode p {
text-align: center !important;
width: 100%;
margin-left: auto;
margin-right: auto;
}
.center-shortcode img {
display: block;
margin: 0 auto;
}
.center-shortcode p em,
.center-shortcode em {
font-style: italic;
text-align: center !important;
display: inline-block;
width: 100%;
}
Bref, là où DeepSite original nécessite obligatoirement une connexion à Hugging Face et utilise les serveurs API de DeepSeek (donc ça coûte aussi des sous), mon petit LocalSite fait tout en local. Vos données restent chez vous, vous pouvez bosser offline, et surtout, pas de limite d’utilisation. Vous pouvez donc générer autant de sites que vous voulez, tester différents modèles, expérimenter sans compter comme dirait Macron.
L’aspect vie privée n’est pas négligeable non plus car ça permet de prototyper rapidement, et avoir une solution 100% locale évite pas mal de questions juridiques sur la confidentialité des données.
Techniquement, l’architecture repose sur Node.js côté serveur et communique avec Ollama via son API locale. Le code généré est du pur HTML/CSS/JavaScript vanilla, donc compatible partout. Et vous pouvez directement copier-coller le résultat ou télécharger le projet HTML complet (j’ai ajouté un import / export de projets zip). Pas de framework lourd, pas de dépendances obscures, juste du code web standard.
Pour les développeurs qui veulent pousser plus loin, le code source est bien sûr disponible et modifiable. Vous pouvez ajouter vos propres templates, personnaliser les prompts système, ou même intégrer d’autres modèles compatibles avec Ollama.
Il vous faudra quand même un minimum de RAM pour faire tourner les modèles (comptez 8 Go pour les modèles 7B, 16 Go pour les 13B, et 32 Go pour les gros modèles 33B+) mais vu les capacités de génération et l’indépendance totale vis-à-vis du cloud, ça vaut le coup surtout que les modèles dispo dans Ollama progressent rapidement et deviennent de plus en plus optimisés. Je pense par exemple à GPT-OSS.
Bref, j’ai pris une idée cool (DeepSite), et je l’ai réadapté à l’aide de Claude Code et de mes maigres connaissances, pour la rendre accessible et respectueuse de la vie privée et du coup, je trouve ça encore plus cool ^^. Par contre, je suis un garçon assez occupé et je ne suis pas mainteneur de projet open source donc si vous voulez des modifs dedans ou si vous voyez des bugs, faudra vous y coller vous-même ^^.
Si ça vous dit de tester,
c’est par ici.
Source : korben.info