Volteyr Logo

Comment installer OpenClaw : le guide complet étape par étape (2026)

60 000 étoiles GitHub en 72h. OpenClaw redéfinit ce qu'un agent IA peut faire depuis votre Slack ou Telegram. Installation, configuration, soul.md et retour terrain Volteyr.

Comment installer OpenClaw : le guide complet étape par étape (2026)
Publié le 23 mars 2026
Juan Salazar
Juan Salazar
10 min de lecture

Un vendredi de fin janvier 2026, un développeur autrichien pousse un projet sur GitHub. En 72 heures, c'est le dépôt à la croissance la plus rapide de l'histoire de la plateforme - plus de 60 000 étoiles. Pas un produit d'OpenAI. Pas d'Anthropic. Un projet solo.

Peter Steinberger n'est pas un hobbyiste. C'est le fondateur de PSPDFKit, une infrastructure PDF utilisée par des milliers d'entreprises à travers le monde. Quand quelqu'un avec ce track record sort un projet en open-source et que GitHub s'emballe, il y a une raison.

OpenClaw (anciennement Clawdbot, puis Moltbot) est aujourd'hui le 5ème dépôt le plus étoilé sur GitHub au monde - tous les dépôts au-dessus ont au moins une décennie d'existence. Ce n'est pas un gadget viral. C'est un moment charnière dans la façon dont les LLMs vont s'intégrer dans les environnements de travail réels.

Dans cet article : ce qu'est vraiment OpenClaw, comment l'installer proprement, comment configurer soul.md pour créer un agent avec une vraie personnalité, et notre retour terrain après plusieurs mois d'utilisation chez Volteyr. On vous dit ce qui fonctionne vraiment et ce qui est surestimé. Si vous voulez d'abord comprendre les fondamentaux des agents IA avant de plonger dans l'installation, l'article comment créer son agent IA est le bon point de départ.

C'est quoi OpenClaw exactement ?

Dépasser la définition marketing. OpenClaw est un agent IA autonome open-source qui tourne sur votre machine et vit dans vos applications de messagerie existantes. Vous lui parlez depuis WhatsApp, Telegram, Slack, Discord, iMessage ou Signal - peu importe ce que vous utilisez déjà. Pas d'interface propriétaire à adopter, pas de nouvel outil à ouvrir.

La différence fondamentale avec ChatGPT ou Claude.ai : avant OpenClaw, si vous vouliez qu'un LLM fasse quelque chose dans le monde réel - envoyer un email, mettre à jour un ticket Jira, récupérer des données d'un site - un développeur devait écrire le code d'intégration. OpenClaw inverse ça. Il donne au LLM lui-même la capacité d'écrire, sauvegarder et exécuter du code. Le LLM devient le développeur.

Concrètement, ça veut dire quoi ? Ce n'est pas un chatbot. C'est un daemon - un processus qui tourne en permanence en arrière-plan sur votre machine ou votre VPS, même quand vous ne l'utilisez pas. Un heartbeat scheduler le réveille à intervalle configurable pour qu'il puisse agir de manière proactive, sans être sollicité. Il est local-first : mémoire et données stockées en fichiers Markdown sur votre disque, inspectables dans n'importe quel éditeur de texte, sauvegardables avec Git. Licence MIT. Pas de subscription.

Pour ancrer le réel : un développeur dont l'agent a négocié 4 200$ de réduction sur l'achat d'une voiture par email pendant qu'il dormait. Un autre dont l'agent a rédigé et envoyé un rejet juridique à une compagnie d'assurance sans avoir été explicitement demandé - l'agent avait détecté le problème dans les emails entrants et avait agi. Ce ne sont pas des démos. Ce sont des cas documentés par la communauté.

OpenClaw donne au LLM la capacité d'écrire et d'exécuter du code - ce qui lui permet de s'intégrer théoriquement avec n'importe quel système.

Ce positionnement - local, autonome, multi-canal - est ce qui explique l'emballement GitHub. Les gens ne réagissaient pas à un outil de plus. Ils réagissaient à la première implémentation grand public de ce que les agents IA peuvent réellement faire. Voyons comment c'est construit.

L'architecture : comprendre les 6 couches

Pas besoin d'être développeur pour comprendre cette architecture. Chaque couche a un rôle précis - les comprendre vous permet de configurer OpenClaw intelligemment plutôt que d'ajuster des paramètres à l'aveugle.

1. Le Gateway - la porte d'entrée

C'est là que chaque message entre et que chaque réponse sort. Il se connecte aux canaux (WhatsApp, Telegram, Slack, un chatbot web, ou n'importe quel endpoint API) et gère l'ensemble du trafic. Techniquement : un unique processus Node.js long-running avec cinq sous-systèmes intégrés - adapters de canaux, session manager, queue, agent runtime, et control plane WebSocket. Un seul processus à gérer, pas une constellation de microservices.

2. Le LLM - le cerveau

OpenClaw est model-agnostic. Vous configurez vos providers dans openclaw.json, et le Gateway route en conséquence - avec rotation des profils d'auth et une chaîne de fallback en cas de panne d'un provider. Modèles compatibles : GPT-4o, Claude Sonnet/Haiku/Opus, Gemini, DeepSeek, Llama via Ollama. Vous pouvez switcher de modèle directement depuis Telegram selon la tâche - Haiku pour une classification rapide, Sonnet pour un compte-rendu détaillé.

3. Le PI Agent - les mains

C'est le vrai breakthrough technique d'OpenClaw. Le PI Agent est un petit programme qui permet à n'importe quel autre programme de créer, éditer, exécuter et supprimer des fichiers. Le LLM génère du code, dit au PI Agent de le sauvegarder, puis lui dit de l'exécuter. Toute interaction entre deux systèmes logiciels passe par du code - et si vous donnez à un LLM la capacité d'écrire et d'exécuter ce code, il peut théoriquement s'intégrer avec n'importe quoi. C'est ça, le saut qualitatif.

4. La mémoire - la personnalité

OpenClaw maintient la mémoire via trois fichiers texte simples : agents.md stocke la configuration technique, soul.md est là où la personnalité de l'agent se construit et évolue dans le temps, et MEMORY.md stocke chaque apprentissage structuré pour que l'agent ait du contexte entre les sessions. C'est soul.md qui est le vrai différenciateur - on lui consacre une section entière.

5. Cron & Heartbeat - le pouls

C'est ce qui rend OpenClaw proactif plutôt que réactif. Un heartbeat tourne toutes les 30 minutes (configurable), lisant tous les fichiers de l'agent pour déterminer s'il y a quelque chose à faire. Un système cron permet de planifier des tâches récurrentes spécifiques. Ensemble, ils signifient que l'agent n'attend pas qu'on lui demande : il surveille, anticipe, et agit. C'est ce qui a permis l'histoire de la voiture - l'agent n'a pas été interpellé, il a vu l'opportunité dans ses emails entrants.

6. Les Skills - l'expertise

Les skills sont des templates de prompts stockés comme de simples fichiers Markdown. Chaque skill a un nom, une description, et le contenu du prompt. Quand vous demandez à l'agent d'écrire un compte-rendu, il lit les descriptions de chaque skill, identifie la bonne, et l'applique automatiquement. Plus de 100 skills préconfigurées sont disponibles. Vous pouvez créer les vôtres, en télécharger via ClawHub (le registre communautaire), ou demander à votre agent de créer lui-même une nouvelle skill en langage naturel - c'est ce qu'on recommande chez Volteyr, on y revient.

Schéma de l'architecture OpenClaw montrant les 6 couches : Gateway, LLM, PI Agent, mémoire soul.md, Heartbeat cron, et Skills marketplace ClawHub

Les 6 couches d'OpenClaw - chaque brique a un rôle précis dans la chaîne d'action de l'agent.

L'architecture est claire. Ce qui importe maintenant, c'est de la faire tourner - voici comment faire ça proprement.

Installation OpenClaw pas à pas

Avant de lancer quoi que ce soit, deux prérequis non-négociables. Node.js 22 minimum - c'est la cause numéro 1 des échecs d'installation. Vérifiez : `node -v`. Si vous voyez v20.x ou moins, mettez à jour via nvm. Et une clé API LLM : depuis janvier 2026, l'authentification OAuth d'Anthropic a été coupée - seule une clé API pay-as-you-go fonctionne. Rendez-vous sur console.anthropic.com, Settings -> API Keys -> Create Key.

Point souvent ignoré dans les tutoriels : déployez OpenClaw sur une machine dédiée ou un VPS, pas sur votre machine de travail principale. OpenClaw a accès à votre terminal, vos fichiers, et potentiellement votre navigateur. Lui donner accès à votre machine avec vos clés SSH et vos credentials clients n'est pas une bonne idée. Un VPS à 5-10€/mois résout le problème.

Les 3 méthodes d'installation

Option 1 - Le script officiel (recommandée) : la méthode la plus rapide, détecte automatiquement votre OS et installe les dépendances manquantes. macOS/Linux/WSL2 : `curl -fsSL https://openclaw.ai/install.sh | bash`. Windows PowerShell : `iwr -useb https://openclaw.ai/install.ps1 | iex`. Temps estimé : moins de 5 minutes.

Option 2 - npm/pnpm (si Node 22+ déjà installé) : `npm install -g openclaw@latest` puis `openclaw onboard --install-daemon`. Erreur fréquente sur macOS si vous avez libvips installé : `SHARPIGNOREGLOBAL_LIBVIPS=1 npm install -g openclaw@latest`.

Option 3 - Depuis les sources (pour contribuer ou personnaliser) : `git clone https://github.com/openclaw/openclaw.git`, `pnpm install`, `pnpm build`, puis `openclaw onboard --install-daemon`. Cette voie est utile si vous voulez modifier le code source - ce qu'on fait chez Volteyr pour certaines personnalisations internes. Pour 95% des cas d'usage, les options 1 ou 2 suffisent.

L'onboarding : ce qui se passe après l'installation

La commande `openclaw onboard --install-daemon` lance un wizard interactif qui configure dans l'ordre : le provider LLM et la clé API (via variable d'environnement recommandé : `export ANTHROPICAPIKEY="sk-ant-..."` dans votre .zshrc), le canal de messagerie (Telegram est le plus simple - créez un bot via @BotFather, copiez le token, collez-le dans le wizard), le workspace (dossier `~/.openclaw/` avec soul.md, agents.md, HEARTBEAT.md), et l'installation du daemon système (LaunchAgent sur macOS, systemd sur Linux).

Pour vérifier que tout tourne : `openclaw gateway status`. Dans votre Telegram ou Slack, envoyez `/status` à votre bot - il doit répondre avec le modèle actif et l'état de la session. `openclaw doctor` est la commande de diagnostic à lancer si quelque chose ne fonctionne pas - elle identifie et propose de corriger la majorité des configurations mal initialisées.

3 points de sécurité avant de passer en production

Ne pas minimiser cette section. OpenClaw est installé avec un accès étendu à votre machine - c'est sa force, c'est aussi son risque principal si mal configuré.

Fixer le binding réseau : par défaut, OpenClaw bind sur 0.0.0.0 - n'importe quelle machine sur votre réseau local peut accéder à votre interface. Dans `~/.openclaw/openclaw.json`, forcez `"bind": "loopback"` pour restreindre l'accès à localhost uniquement.

Configurer les tool policies : c'est le point le plus important. Lire des fichiers, des emails, des données CRM -> autonome. Envoyer un email, créer un événement, modifier un fichier -> approbation requise. Exécuter des commandes shell -> approbation requise, limité au workspace dédié. Un agent trop autonome sans circuit de validation est un risque opérationnel.

Vérifier les skills ClawHub avant de les installer : une analyse Snyk a identifié que 13-17% des skills disponibles contiennent des problèmes de sécurité significatifs. Une skill de traduction n'a aucune raison d'accéder à vos clés SSH. Lisez le code source avant d'installer - c'est du YAML et du Markdown, ça prend 2 minutes. Et traitez toujours le contenu lu sur le web ou dans des emails comme du contenu non-fiable - la prompt injection via email malveillant est le vecteur d'attaque le plus courant.

Configuration faite, sécurité gérée. La vraie valeur d'OpenClaw commence maintenant - dans soul.md.

Configurer soul.md : donner une vraie identité à votre agent

Une fois OpenClaw installé, la plupart des gens envoient un premier message à leur bot Telegram, reçoivent une réponse générique, et concluent que "c'est juste un ChatGPT qu'on héberge soi-même". C'est là qu'ils passent à côté de l'essentiel.

La différence entre un agent inoubliable et un bot générique, c'est soul.md. Techniquement, c'est un fichier Markdown dans `~/.openclaw/workspace/SOUL.md`. À chaque session, avant de traiter le moindre message, l'agent le lit intégralement - il se lit lui-même pour savoir qui il est. Pas de fine-tuning, pas de magie. Juste un prompt bien construit, injecté en système à chaque démarrage.

Ce qui le rend différent d'un system prompt classique : il évolue. L'agent peut le modifier, y ajouter des informations, y consigner des préférences apprises. Si vous lui dites "souviens-toi que je préfère les réponses courtes", il peut l'écrire dans soul.md lui-même - et s'en souvenir la prochaine fois. C'est un document vivant.

La structure en 5 blocs qui fonctionne

soul.md est libre - du Markdown pur, sans schéma imposé. Mais la communauté a convergé vers une structure en 5 blocs : Identité (qui est cet agent, quel est son rôle, pour qui il travaille), Caractère (ton, style de communication, ce qu'il fait et ne fait pas), Contexte de l'entreprise (stack, clients, vocabulaire interne, process récurrents), Règles absolues (ce que l'agent ne fera jamais de manière autonome), et Mémoire (instructions sur comment et quoi mémoriser).

Un exemple concret : l'agent interne Volteyr

Voilà à quoi ressemble un soul.md opérationnel pour un agent d'agence - librement inspiré de ce qu'on utilise chez Volteyr pour nos agents Slack internes. L'agent s'appelle Iris. Son identité est précise : elle travaille avec l'équipe Volteyr, connaît les clients actifs par nom, vit sur Slack. Son caractère est comportemental, pas abstrait : "Pas de 'Bien sûr !' ni 'Excellente question !'. Tu réponds, c'est tout." Elle utilise nos réactions Slack custom selon le contexte (`:volteyr-check:` pour tâche complétée, `:volteyr-fire:` pour urgent). Le contexte Volteyr intègre notre stack, notre CRM Airtable, nos cycles de relance prospect. Les règles absolues couvrent tout ce qui a un effet externe. Et les instructions de mémorisation définissent le format exact d'entrée dans MEMORY.md.

Ce n'est pas de la magie - c'est 10 lignes par section, rédigées avec précision. L'effet sur l'adoption interne est immédiat : les équipes n'ont pas besoin de formation, elles ont envie d'interagir avec l'agent parce qu'il ressemble à quelqu'un, pas à un outil.

Les 2 fichiers complémentaires : AGENTS.md et MEMORY.md

soul.md ne travaille pas seul. AGENTS.md gère la configuration technique (quel modèle, quels outils disponibles, comment gérer les sessions) - c'est la couche "paramètres" là où soul.md est la couche "personnalité". MEMORY.md est la mémoire long terme structurée : préférences utilisateur, informations clients, corrections passées, décisions prises. C'est ce fichier qui crée l'effet de compound - un agent qui utilise OpenClaw depuis 3 mois a un MEMORY.md qui le rend exponentiellement plus utile qu'au jour 1.

Un conseil pratique que peu de guides mentionnent : versionner ces fichiers avec Git. soul.md évolue, MEMORY.md s'enrichit - sans versioning, vous n'avez aucun moyen de revenir en arrière si l'agent modifie accidentellement son propre soul. `git init` dans `~/.openclaw/workspace/`, commit après chaque modification significative. Certains membres de la communauté synchronisent leur workspace entier vers GitHub privé chaque nuit via cron.

Pour les déploiements en production avec des données sensibles, passez soul.md et MEMORY.md en lecture seule : `chmod 444 ~/.openclaw/workspace/SOUL.md`. L'agent ne pourra plus se modifier lui-même - c'est le compromis à accepter quand l'exposition externe est élevée.

soul.md construit la personnalité. HEARTBEAT.md définit ce que l'agent surveille. Les deux ensemble créent un agent qui agit - voici sur quoi, concrètement.

Ce qu'on peut faire concrètement avec OpenClaw en entreprise

Pas de liste exhaustive. Les cas d'usage qui génèrent un ROI mesurable en PME, ceux qu'on a vu fonctionner en production.

Résumé d'appels et compte-rendus automatiques

Coupler OpenClaw avec Fireflies.ai ou un transcript Whisper : l'agent récupère le transcript, applique une skill de compte-rendu structuré, et crée l'entrée dans votre Notion ou Airtable. Sans intervention humaine. Le heartbeat vérifie toutes les 30 minutes si un nouveau transcript est disponible.

Veille concurrentielle hebdomadaire

L'agent scrape des sources définies, applique un framework d'analyse configuré dans une skill (positionnement, pricing, nouvelles features), et vous envoie un digest par email chaque vendredi matin. Tout configuré dans HEARTBEAT.md - aucune sollicitation de votre part.

Support interne FAQ

L'agent indexe vos process internes (docs Notion, Google Drive, Confluence) et répond aux questions des employés depuis Slack. Congés, onboarding, process métier, outils internes - sans solliciter un manager ou ouvrir un ticket.

Gestion email proactive

Lecture, priorisation, rédaction de réponses pour validation. Le heartbeat détecte les emails sans réponse depuis X jours et vous alerte. Pour les leads entrants, l'agent peut qualifier, tagger dans le CRM, et préparer la réponse - tout ça sans être sollicité, parce qu'il surveille en permanence.

L'agent développeur (pour les équipes tech)

Des développeurs utilisent OpenClaw pour faire tourner des coding agents pendant qu'ils dorment. Un agent avec accès à son code, à GitHub, et à son propre historique peut tester, debugger, et proposer des modifications - et créer des PRs pour revue humaine. C'est exactement ce qu'on expérimente chez Volteyr en ce moment, en parallèle de notre déploiement principal.

Données Volteyr 2025

Sur les agents OpenClaw déployés en interne chez Volteyr, le heartbeat a généré 34% des actions exécutées sur les 30 derniers jours - sans aucune sollicitation directe de l'équipe.

C'est le chiffre qui illustre le vrai saut par rapport à un agent classique : un tiers des actions n'auraient jamais eu lieu si l'équipe avait dû les demander explicitement. Le heartbeat transforme l'agent en collaborateur qui anticipe, pas en outil qui attend.

Les cas d'usage sont là. Ce qui conditionne leur viabilité en production, ce sont les coûts réels.

Coûts réels et considérations de production

La plupart des guides sur OpenClaw parlent du coût infrastructure et ignorent le coût LLM. C'est une erreur - c'est la variable la plus difficile à prévoir et la plus facile à sous-estimer.

Coûts d'infrastructure OpenClaw

Options d'hébergement selon votre profil - de zéro à la prod sécurisée.

Coûts d'infrastructure OpenClaw
DéploiementOptionCoût mensuel
Machine locale existanteMac / Linux perso0€
VPS dédié (recommandé)Hetzner CX21 ou OVH VPS Starter5-10€/mois
DigitalOcean 1-ClickImage renforcée, prod-ready12-20€/mois
Hostinger OpenClaw VPSConfiguré avec Docker, clé en main8-15€/mois

Pour un premier déploiement PME : VPS Hetzner à 5€/mois. Suffisant pour un agent avec usage typique, facile à upgrader.

Le coût LLM : la variable à maîtriser

OpenClaw est agentique - ce qui signifie qu'il consomme significativement plus de tokens qu'une simple conversation de chat. Une seule tâche peut déclencher 5 à 10 appels API enchaînés : lecture de fichiers, exécution d'outils, raisonnement, révisions. Une réponse qui semble simple peut consommer 50 fois plus de tokens que vous ne l'attendez.

Estimations de coût LLM selon le profil d'usage

Coûts mensuels constatés sur nos déploiements - hors infrastructure.

Estimations de coût LLM selon le profil d'usage
ProfilDescriptionCoût LLM mensuel estimé
Usage légerRésumés, réponses simples, heartbeat 1x/heure3-15€/mois
Usage typique PMEReporting, emails, gestion agenda, CRM20-60€/mois
Usage intensif devCoding, debugging, pipelines automatisés200-1000€/mois

Ces estimations supposent une utilisation mixte Haiku (tâches légères) + Sonnet (tâches complexes). Utiliser Sonnet pour tout multipliera ces chiffres par 3 à 5.

Trois règles pour contrôler les coûts : posez une limite de dépenses immédiatement dans Anthropic Console (Settings -> Billing -> Set spend limit) - un heartbeat mal configuré ou une boucle infinie peut générer des centaines d'euros en quelques heures. Utilisez le bon modèle pour la bonne tâche : Haiku ou GPT-4o mini pour les heartbeats, classifications et résumés simples, Sonnet pour les tâches complexes - jamais Opus pour tout. Et démarrez de nouvelles sessions régulièrement : l'accumulation de contexte est le principal driver de coût à l'usage intensif.

Notre retour chez Volteyr : on tourne principalement sur Claude Haiku pour les tâches automatiques et on réserve Sonnet pour les tâches qui demandent de la personnalité et du raisonnement. C'est le meilleur rapport qualité/prix qu'on ait trouvé - et les agents Anthropic ont une cohérence de personnalité sur la durée qu'on n'a pas retrouvée ailleurs.

Les coûts sont maîtrisables. Ce qui reste à clarifier, c'est où OpenClaw se positionne par rapport aux alternatives - parce que la question revient souvent.

OpenClaw vs les alternatives

OpenClaw vs LangGraph vs N8N vs Claude Code

Comparatif des principaux outils pour déployer un agent IA en 2026.

OpenClaw vs LangGraph vs N8N vs Claude Code
CritèreOpenClawLangGraphN8N / MakeClaude Code
Public cibleDev + power usersDev PythonNo-code / opsDev
Self-hosted✅ (N8N)
Multi-canal natif (Slack, Telegram…)✅ natif❌ à builderPartiel
Mémoire persistante✅ fichiers MarkdownVariableLimitéLimité
Heartbeat / proactivité✅ natifVia cron
Skills marketplace✅ ClawHub✅ Templates
Complexité logique agentiqueMoyenneHauteFaibleHaute
LicenceMITMITDual (EE)Closed

Comparatif basé sur les versions disponibles en mars 2026. L'écosystème évolue rapidement.

Notre lecture : OpenClaw et LangGraph ne sont pas concurrents - ils sont complémentaires. OpenClaw est le meilleur point d'entrée pour déployer rapidement un agent connecté à vos canaux existants, avec mémoire et personnalité out-of-the-box. LangGraph est la bonne réponse quand vous avez besoin de graphes d'état très précis, de logique conditionnelle complexe, ou d'une architecture multi-agents vraiment contrôlée.

Pour un premier agent d'entreprise opérationnel : OpenClaw. Pour une architecture agent de production à fort enjeu avec logique métier complexe : LangGraph + infrastructure custom. Les deux peuvent coexister dans la même stack - c'est exactement ce qu'on fait chez Volteyr.

Retour terrain Volteyr

Pas de contenu générique ici. Ce qu'on utilise OpenClaw pour faire concrètement, et ce qu'on a appris en le faisant tourner en production.

Nos agents OpenClaw internes vivent principalement dans Slack. Iris - c'est comme ça qu'on l'appelle - résume nos appels, gère des parties de notre reporting, surveille nos leads sans réponse dans NoCRM, et interagit avec l'équipe avec une personnalité qui lui est propre. Les réactions Slack custom qu'on lui a configurées dans soul.md ont changé la façon dont l'équipe perçoit l'agent : il ne ressemble plus à un bot, il ressemble à quelqu'un qui vit dans notre Slack.

Ce qui a vraiment marché : soul.md bien construit dès le départ (pas à corriger en cours de route), les tool policies strictes qui nous ont évité plusieurs faux positifs coûteux, et l'habitude de versionner le workspace sous Git - on a eu besoin de revenir en arrière deux fois.

Ce qui a été surestimé : ClawHub. La marketplace de skills grandit vite mais reste immature - on a eu de meilleures résultats en décrivant notre workflow à l'agent et en lui demandant de créer la skill lui-même. Le résultat est toujours plus adapté à notre contexte qu'une skill générique, et on sait exactement ce qu'elle fait.

Ce qu'on expérimente en ce moment : un agent avec accès à son propre code qui peut proposer des modifications à ses procédures. OpenClaw est l'environnement dans lequel on teste ça. Pas encore en prod, mais les premiers résultats montrent que la boucle de self-improvement est viable - avec une validation humaine à chaque itération, c'est non-négociable.

Si vous voulez déployer votre premier agent OpenClaw en entreprise ou faire auditer votre configuration avant de passer en production, c'est exactement ce qu'on accompagne chez Volteyr.

Faites le point sur vos processus en 30 minutes

FAQ : vos questions sur OpenClaw