J'ai installé OpenClaw | Voici comment faire pas à pas

En une phrase

Ce tutoriel propose une méthode sécurisée et économique pour installer Open Code localement via une machine virtuelle, en utilisant des modèles LLM auto-hébergés, afin de reprendre le contrôle sur les données et les coûts des assistants IA puissants.

Points clés

  • Enjeux Sécurité & Coûts : Open Code offre puissance et autonomie mais présente des risques majeurs (exfiltration/perte de données, modification non désirée, coûts excessifs via les tokens). La sécurité et le contrôle sont primordiaux.
  • Isolation via Machine Virtuelle (MV) : La solution recommandée est de faire tourner Open Code dans une MV Linux (ex : Ubuntu 24.10 LTS, nécessitant environ 8 Go de RAM / 100 Go de stockage) sur sa machine principale pour isoler l'environnement du bot et protéger les données critiques.
  • Gestion des Accès et Permissions : Accorder au bot des droits minimaux, idéalement de lecture seule. Pour les actions de modification/suppression, privilégier des étapes de validation humaine (ex : taguer des emails à supprimer plutôt que de les supprimer directement). Utiliser des comptes dédiés pour le bot (emails, Notion) afin de limiter les dégâts potentiels.
  • Modèles LLM Locaux pour la Confidentialité : Utiliser des modèles LLM locaux (ex : via LM Studio pour Mac/Windows ou Ollama pour Windows) pour éviter l'envoi de données sensibles aux fournisseurs cloud (ChatGPT, Gemini) et réduire les coûts.
  • Configuration LM Studio & Choix du Modèle : Activer le mode développeur, démarrer le serveur LLM avec authentification (token) et autoriser les requêtes locales. Choisir un modèle LLM adapté à la RAM de la machine (ex : GLM 4.7 pour 48 Go, Llama Small 2 pour 32 Go).
  • Installation Open Code : Utiliser la ligne de commande « Quickstart » fournie sur le site officiel d'Open Code après s'être assuré d'avoir curl installé.