Hermes
Runtime principal OpsClaw. Tooling multi-langage, container mature, support des skills sidecar et des ensembles multi-agents.
Tier Pro et au-delàUne plateforme Kubernetes-native qui exécute des agents (Hermes, OpenClaw, NanoClaw, Claude Code), expose un catalogue de MCPs, garde l'observabilité Langfuse en clair et laisse vos clés LLM chez vous. Pilotage centralisé, multi-tenant isolé, hébergement souverain par défaut.
Les runtimes parlent tous le même contrat. Vous changez de moteur sans réécrire vos agents. Un pod par agent, isolation kernel par sandbox (gVisor / Kata), namespace dédié par tenant.
Runtime principal OpsClaw. Tooling multi-langage, container mature, support des skills sidecar et des ensembles multi-agents.
Tier Pro et au-delàVariante allégée pour les personas simples : moins de RAM, démarrage plus rapide, surface d'attaque réduite.
Tier Solo / batchRuntime minimal pour les usages déclaratifs et les sub-AgentRuns spawn-then-terminate. Coût marginal proche de zéro.
Tier Solo on-demandLe harness Anthropic exécuté sur la plateforme, intégré aux mêmes MCPs et au même pilotage central. Pour les usages dev.
Workflows développeurOn choisit la forme selon l'enjeu : prévisibilité, fréquence, qualité d'entrée. Vous pouvez monter plusieurs formes sur le même agent.
Une séquence stricte d'étapes connues : "lire la boîte, classer, répondre selon ce template". Aucune surprise, aucune dérive. Idéal pour la paperasse, les déclarations, les rappels automatisés.
Coût plat · audit simpleInactif par défaut, lancé sur événement (cron, webhook, message Telegram). Pod monté à la volée, exécuté, déprovisionné. Vous payez l'invocation, pas l'inactivité.
~€0.001 par run · cold start < 3sLe LLM choisit son chemin : quels MCPs appeler, dans quel ordre, quand s'arrêter. Pour les sujets où la séquence ne peut pas être écrite à l'avance. Garde-fous : sandbox, budget, observabilité Langfuse.
Latence variable · contrôle par tracesQuand la donnée d'entrée est bien typée (Postgres, parquet, API métier propre), on saute le RAG sur du PDF. L'agent attaque la structure directement via MCP — plus rapide, plus prévisible, plus auditable que du retrieval texte.
Précision maximale · tokens divisésLe Model Context Protocol relie un LLM à vos outils. On opère un catalogue partagé multi-tenant, plus vos propres MCPs déclarés via URL (SSRF-guardée, scopée à votre tenant).
Architecture à deux couches : sympozium opère le runtime (mcpservers.sympozium.ai, un pod par MCP avec bridge stdio→HTTP), OpsTech opère la politique (mcpprofiles.platform.opsclaw.dev, le mapping persona → MCPs + auth).
Deux niveaux d'observation, branchés sur les mêmes flux OTel. L'un répond « est-ce que ça marche ? », l'autre « est-ce que ça fonctionne intelligemment ? ».
Chaque appel à un modèle est tracé et attribué à son agent, son persona, son client. Vous voyez quelles séquences de prompts coûtent, lesquelles convergent vite, et lesquelles tournent en boucle. C'est la vision business sur la qualité de l'IA, hébergée chez nous.
Métriques, logs et traces dans une seule console, par client. La pile open source standard de l'observabilité cloud, hébergée souverainement. Vos auditeurs ont les mêmes outils que nos opérateurs.
Hosting cloud + facture LLM, c'est deux lignes qu'on regarde chaque semaine. La plateforme expose les leviers, vous décidez où vous voulez payer.
Langfuse trace chaque appel modèle avec tenant, persona, modèle, tokens entrée/sortie et latence. Vous voyez en clair quel agent coûte cher, quelle séquence de prompts est gaspilleuse, et quel modèle vaut le coup pour chaque famille de tâche.
Tout agent ne mérite pas d'être debout 24/7. La plateforme expose le bon mode par défaut selon l'usage, et vous laisse arbitrer.
On expose vos agents sous les formats que vos outils existants comprennent déjà. Pas de SDK propriétaire à intégrer.
Un agent OpsClaw exposé comme une API /v1/chat/completions. Branchez Cursor, opencode, LibreChat, votre script Python, n'importe quel client OpenAI. La gateway joue le rôle de proxy filtrant : l'agent voit le contexte, le client ne voit que les sorties.
Transformez un workflow agentique en MCP réutilisable. Vos outils internes (Obsidian privé, base interne, scrapers métier) deviennent des MCPs scopés à votre tenant. Vous décidez quelles capacités sont exposées, et à qui.
Telegram est le canal d'onboarding par défaut (manager-bot live). Les autres canaux arrivent par vagues selon la demande client. Aucun canal n'est obligatoire.
Le manager-bot prévient explicitement quand un persona sensible (Paperasse FR par exemple) est branché sur un canal non souverain. L'override est tracé comme consentement éclairé.
Créer, superviser, basculer de modèle, gérer les rôles, voir la facturation, exporter l'audit. Une console multi-tenant, un seul point pour vos auditeurs.
Le pod agent n'a jamais accès à la clé. La résolution de crédentiel se fait dans le webproxy sympo, côté serveur. Invariant de sécurité, pas une option.
Choix par défaut quand la souveraineté l'emporte. Hébergement EU, performance à l'état de l'art.
Pour les workflows multi-étapes et l'usage d'outils précis. Excellent sur l'agentique complexe.
L'option éprouvée pour la majorité des cas génériques. Disponibilité maximale, coût lisible.
Llama, Qwen, Mistral ouverts sur votre infra quand le métier l'exige. Aucune donnée ne sort.
Avant d'opérer des agents, on a opéré des clusters K8s en prod, géré des secrets en multi-tenant et écrit des NetworkPolicies. Toutes les questions que vous vous posez côté DSI, on les a déjà tranchées.
Aucune route possible d'un tenant vers un autre. Chaque client a son propre périmètre Kubernetes, ses propres droits, ses propres quotas. C'est un invariant validé à chaque déploiement, pas un réglage qu'on peut oublier.
L'agent n'a jamais accès à vos clés LLM ni aux tokens OAuth de vos outils. Tout passe par un proxy serveur qui résout les credentials au dernier moment. Si un prompt fuit, il n'emporte rien avec lui.
Tout entre par une seule porte d'entrée, tout sort par une seule passerelle. Vos agents ne joignent que les services que vous avez explicitement autorisés. Pas de chemin caché, pas de surprise dans les pare-feu.
Tout ce que fait un agent est traçable. Et si vous partez, vous partez vraiment — pas de format propriétaire qui vous bloque, pas de données prises en otage.
Chaque persona est un assemblage explicite : prompt système, MCPs attachés, profil RGPD, canal recommandé. Vous activez, vous ajustez, vous gardez la main.
Gérer une activité immobilière indépendante sans friction.
A :Mail, agenda, tâches admin, sans stress pour un solopreneur français.
A :Naviguer la bureaucratie française avec aisance.
A :Aucun formulaire n'est déposé sans confirmation explicite. Les sujets juridiques sensibles sont systématiquement redirigés vers un avocat ou un expert-comptable.
Suivre Salesforce sans y passer ses journées.
A :Aucune mise à jour Salesforce sans confirmation explicite du consultant.
Shipper sans jongler entre dix outils.
A :Jamais d'exposition de tokens ou de variables d'environnement en clair dans les réponses.
Coordonner le quotidien d'une équipe d'ingénierie.
A :Aucun merge automatique sans validation humaine explicite.
L'infra est portable. Aucun service propriétaire qui rendrait une migration impossible. Le contrat de réversibilité fait partie du produit, pas du commercial.
Démo guidée sur cas concret : votre persona, vos MCPs, votre observabilité Langfuse. Vous repartez avec une piste claire, même si on ne continue pas ensemble.