OpsTech/ FR
En clair

OpsTech Plateforme
Hébergement managé d'agents

Hébergez vos agents IA et vos MCPs là où ils doivent tourner.

Une plateforme Kubernetes-native qui exécute des agents (Hermes, OpenClaw, NanoClaw, Claude Code), expose un catalogue de MCPs, garde l'observabilité Langfuse en clair et laisse vos clés LLM chez vous. Pilotage centralisé, multi-tenant isolé, hébergement souverain par défaut.

Voir la plateforme tourner Architecture détaillée
Hébergement d'agents

Multi-runtime. Un seul contrat IPC.

Les runtimes parlent tous le même contrat. Vous changez de moteur sans réécrire vos agents. Un pod par agent, isolation kernel par sandbox (gVisor / Kata), namespace dédié par tenant.

Par défaut

Hermes

Runtime principal OpsClaw. Tooling multi-langage, container mature, support des skills sidecar et des ensembles multi-agents.

Tier Pro et au-delà
Léger

OpenClaw

Variante allégée pour les personas simples : moins de RAM, démarrage plus rapide, surface d'attaque réduite.

Tier Solo / batch
Minimal

NanoClaw

Runtime minimal pour les usages déclaratifs et les sub-AgentRuns spawn-then-terminate. Coût marginal proche de zéro.

Tier Solo on-demand
Compatible

Claude Code

Le harness Anthropic exécuté sur la plateforme, intégré aux mêmes MCPs et au même pilotage central. Pour les usages dev.

Workflows développeur
Quatre formes de workflows

Toutes les tâches ne méritent pas la même mécanique.

On choisit la forme selon l'enjeu : prévisibilité, fréquence, qualité d'entrée. Vous pouvez monter plusieurs formes sur le même agent.

Forfait · déterministe

Workflow figé

Une séquence stricte d'étapes connues : "lire la boîte, classer, répondre selon ce template". Aucune surprise, aucune dérive. Idéal pour la paperasse, les déclarations, les rappels automatisés.

Coût plat · audit simple
Activable · on-demand

Workflow déclenché

Inactif par défaut, lancé sur événement (cron, webhook, message Telegram). Pod monté à la volée, exécuté, déprovisionné. Vous payez l'invocation, pas l'inactivité.

~€0.001 par run · cold start < 3s
Agentique · non-déterministe

Workflow ouvert

Le LLM choisit son chemin : quels MCPs appeler, dans quel ordre, quand s'arrêter. Pour les sujets où la séquence ne peut pas être écrite à l'avance. Garde-fous : sandbox, budget, observabilité Langfuse.

Latence variable · contrôle par traces
Data structurée

Workflow propre

Quand la donnée d'entrée est bien typée (Postgres, parquet, API métier propre), on saute le RAG sur du PDF. L'agent attaque la structure directement via MCP — plus rapide, plus prévisible, plus auditable que du retrieval texte.

Précision maximale · tokens divisés
Hébergement MCP

Un catalogue de MCPs prêts à brancher.

Le Model Context Protocol relie un LLM à vos outils. On opère un catalogue partagé multi-tenant, plus vos propres MCPs déclarés via URL (SSRF-guardée, scopée à votre tenant).

Déployés aujourd'hui · namespace partagé

GitHubstdio · code
Gmailstdio · mail
Google Calendarstdio · agenda
Google Drivestdio · docs
Notionstdio · docs
Linearstdio · tickets
Slackstdio · chat
Sentrystdio · errors
Stripestdio · billing
SearXNGstdio · search
DuckDuckGostdio · search
Fetchstdio · http
Markdownifystdio · convert
Memorystdio · context
Sequential Thinkingstdio · reasoning
+ vos MCPscustom URL · tenant-scoped

Architecture à deux couches : sympozium opère le runtime (mcpservers.sympozium.ai, un pod par MCP avec bridge stdio→HTTP), OpsTech opère la politique (mcpprofiles.platform.opsclaw.dev, le mapping persona → MCPs + auth).

Voir l'architecture →
Observabilité LLM

Voir quels agents et quels workflows fonctionnent vraiment.

Deux niveaux d'observation, branchés sur les mêmes flux OTel. L'un répond « est-ce que ça marche ? », l'autre « est-ce que ça fonctionne intelligemment ? ».

Langfuse : qualité des agents

Chaque appel à un modèle est tracé et attribué à son agent, son persona, son client. Vous voyez quelles séquences de prompts coûtent, lesquelles convergent vite, et lesquelles tournent en boucle. C'est la vision business sur la qualité de l'IA, hébergée chez nous.

  • Trace complète de chaque agent — prompt, appels d'outils, réponse, sur toute la durée du workflow.
  • Évaluations automatiques qui notent les réponses et alertent quand un agent dérive.
  • Coût lisible par client, par persona, par modèle. Vous savez où va chaque centime.

Grafana : santé de l'infra

Métriques, logs et traces dans une seule console, par client. La pile open source standard de l'observabilité cloud, hébergée souverainement. Vos auditeurs ont les mêmes outils que nos opérateurs.

  • Dashboards prêts à l'emploi pour le pilotage opérationnel.
  • Alertes paramétrables par client, sur les signaux qui comptent vraiment.
  • Rétention longue sur stockage objet, pour les enquêtes d'incident à froid.
FinOps

On voit ce qui coûte. On sait quoi éteindre.

Hosting cloud + facture LLM, c'est deux lignes qu'on regarde chaque semaine. La plateforme expose les leviers, vous décidez où vous voulez payer.

Lecture coûts par agent

Langfuse trace chaque appel modèle avec tenant, persona, modèle, tokens entrée/sortie et latence. Vous voyez en clair quel agent coûte cher, quelle séquence de prompts est gaspilleuse, et quel modèle vaut le coup pour chaque famille de tâche.

  • On change de modèle selon la tâche. Mistral pour le simple, Claude pour le raisonnement long, modèle ouvert quand le volume justifie. Vous n'êtes jamais coincé sur un fournisseur.
  • Budgets durs par agent. Le plafond s'arrête tout seul. L'alerte arrive avant, pas en facture.
  • Vos clés, votre facture. Vous payez l'IA en direct chez votre fournisseur. On ne prend rien sur vos tokens.

Lifecycle = signal de prix

Tout agent ne mérite pas d'être debout 24/7. La plateforme expose le bon mode par défaut selon l'usage, et vous laisse arbitrer.

  • Agent toujours debout quand la latence compte (dev, secrétariat). Quelques euros par mois et il répond instantanément.
  • Agent à la demande pour les tâches batchées (compte-rendu hebdo, paperasse mensuelle). Quelques centimes par lancement, zéro le reste du temps.
  • Pool tiède pour les pics planifiés. L'agent est prêt en moins d'une seconde sans rester allumé 24h sur 24.
  • Tarification transparente — vous voyez le prix de chaque ressource. Pas d'unité de compte propriétaire opaque.
Gateways

Vos agents accessibles partout, sans réécrire le client.

On expose vos agents sous les formats que vos outils existants comprennent déjà. Pas de SDK propriétaire à intégrer.

Endpoint OpenAI-compatible

Un agent OpsClaw exposé comme une API /v1/chat/completions. Branchez Cursor, opencode, LibreChat, votre script Python, n'importe quel client OpenAI. La gateway joue le rôle de proxy filtrant : l'agent voit le contexte, le client ne voit que les sorties.

MCP gateway

Transformez un workflow agentique en MCP réutilisable. Vos outils internes (Obsidian privé, base interne, scrapers métier) deviennent des MCPs scopés à votre tenant. Vous décidez quelles capacités sont exposées, et à qui.

Channels

Branchez le chat que vos équipes utilisent déjà.

Telegram est le canal d'onboarding par défaut (manager-bot live). Les autres canaux arrivent par vagues selon la demande client. Aucun canal n'est obligatoire.

TelegramLive · onboarding
Web workspaceLive · OTP + cookie
API OpenAI-compatLive · v1 chat
LibreChatDisponible via OpenAI-compat
SlackSur demande
DiscordSur demande
WhatsAppRoadmap
EmailRoadmap

Le manager-bot prévient explicitement quand un persona sensible (Paperasse FR par exemple) est branché sur un canal non souverain. L'override est tracé comme consentement éclairé.

Mission Control

Pilotage centralisé. Un seul plan pour tout l'inventaire.

Créer, superviser, basculer de modèle, gérer les rôles, voir la facturation, exporter l'audit. Une console multi-tenant, un seul point pour vos auditeurs.

  • Inventaire des agents en un coup d'œil — état, persona, outils branchés, modèle utilisé.
  • Bascule de modèle sans toucher la configuration des agents. Mistral, Claude, OpenAI ou modèle ouvert.
  • Droits par équipe finement scopés. RBAC multi-tenant, audit complet des accès.
  • Conformité RGPD prête — registre article 30, export tenant, suppression à la demande.
  • Budgets durs par agent, par modèle, par tenant. Alerte avant le plafond, jamais après.
  • Vos MCPs maison ajoutables à la volée. Scopés à votre tenant, contrôlés au niveau réseau.
  • Sortie réseau filtrée — chaque agent ne joint que les services que vous avez autorisés.
  • Pas de verrouillage — charts open-source, configuration exportable, vous repartez avec.
BYOK et fournisseurs

Vos clés LLM ne quittent pas votre Secret tenant.

Le pod agent n'a jamais accès à la clé. La résolution de crédentiel se fait dans le webproxy sympo, côté serveur. Invariant de sécurité, pas une option.

Mistral
FR · souverain

Mistral

Choix par défaut quand la souveraineté l'emporte. Hébergement EU, performance à l'état de l'art.

Anthropic Claude
Raisonnement long

Anthropic Claude

Pour les workflows multi-étapes et l'usage d'outils précis. Excellent sur l'agentique complexe.

OpenAI
Polyvalent

OpenAI

L'option éprouvée pour la majorité des cas génériques. Disponibilité maximale, coût lisible.

On-prem · auto-hébergé

Modèles ouverts

Llama, Qwen, Mistral ouverts sur votre infra quand le métier l'exige. Aucune donnée ne sort.

Sécurité & ops

On vient de l'infra. La sécurité est dans le default.

Avant d'opérer des agents, on a opéré des clusters K8s en prod, géré des secrets en multi-tenant et écrit des NetworkPolicies. Toutes les questions que vous vous posez côté DSI, on les a déjà tranchées.

Isolation par construction

Aucune route possible d'un tenant vers un autre. Chaque client a son propre périmètre Kubernetes, ses propres droits, ses propres quotas. C'est un invariant validé à chaque déploiement, pas un réglage qu'on peut oublier.

  • Un namespace par client, isolé au niveau noyau Linux quand le workload est sensible (gVisor, Kata).
  • Droits attribués au lancement du run et récupérés à la fin — pas de privilège qui traîne.
  • Un webhook d'admission refuse toute configuration qui sort des règles. Le mauvais déploiement n'existe pas.

Secrets et clés LLM

L'agent n'a jamais accès à vos clés LLM ni aux tokens OAuth de vos outils. Tout passe par un proxy serveur qui résout les credentials au dernier moment. Si un prompt fuit, il n'emporte rien avec lui.

  • Vos clés LLM restent dans votre tenant, chiffrées au repos. Le proxy lit, l'agent ne voit jamais rien.
  • Tokens OAuth des MCPs stockés dans un coffre dédié, jamais en clair, refresh automatique.
  • Pas de PII dans les logs par défaut. Redaction au bord, traces OTel sans contenu sensible.

Réseau verrouillé

Tout entre par une seule porte d'entrée, tout sort par une seule passerelle. Vos agents ne joignent que les services que vous avez explicitement autorisés. Pas de chemin caché, pas de surprise dans les pare-feu.

  • Chiffrement bout-en-bout au bord, identité fédérée pour vos équipes (SSO compatible).
  • Liste blanche de domaines par tenant. OpenAI, Anthropic, vos APIs métier : vous décidez.
  • Pare-feu applicatif et limitation de débit en frontal. Le DoS arrive sur le mur, pas sur l'agent.

Audit et reprise en main

Tout ce que fait un agent est traçable. Et si vous partez, vous partez vraiment — pas de format propriétaire qui vous bloque, pas de données prises en otage.

  • Trace bout-en-bout par tenant. Chaque appel modèle et chaque appel outil est attribuable.
  • Registre RGPD article 30 alimenté tout seul. Vos auditeurs reçoivent un export, pas une promesse.
  • Charts open-source. Vous pouvez réhéberger la même stack chez vous le jour où vous voulez.
Personas pré-câblés

Des agents livrés avec leurs outils, leur prompt et leur conformité.

Chaque persona est un assemblage explicite : prompt système, MCPs attachés, profil RGPD, canal recommandé. Vous activez, vous ajustez, vous gardez la main.

Immobilier

Pro · 49€/mois

Gérer une activité immobilière indépendante sans friction.

A :
  • une boîte Gmail branchée pour relire et répondre
  • un Google Calendar pour planifier les visites
  • un Google Drive pour préparer les dossiers de location et vente
  • un accès direct à LeBonCoin et SeLoger pour la veille de biens
  • la capacité de suivre les mandats en cours et leurs échéances
  • un connecteur Doctolib pour caler les diagnostics
Bientôt : génération d'images et de plans pour les annonces, traitement de transcripts d'appels et de visites.

Secrétariat

Solo · 19€/mois

Mail, agenda, tâches admin, sans stress pour un solopreneur français.

A :
  • une boîte Gmail pour trier les emails entrants
  • un Google Calendar pour planifier les rendez-vous
  • un workspace Notion pour router les tâches
  • un canal Telegram pour notifier au bon moment
  • la capacité de suivre les dépenses et de les classer

Paperasse FR

Pro · 49€/mois

Naviguer la bureaucratie française avec aisance.

A :
  • une boîte Gmail pour suivre les notifications des portails
  • un accès Impôts.gouv pour la fiscalité (lecture + prépa)
  • un accès URSSAF pour les cotisations
  • un accès Ameli pour la sécurité sociale
  • un accès Doctolib pour les démarches santé
  • la capacité de préparer les pièces justificatives et de les ranger

Aucun formulaire n'est déposé sans confirmation explicite. Les sujets juridiques sensibles sont systématiquement redirigés vers un avocat ou un expert-comptable.

Consultant SF

Pro · 49€/mois

Suivre Salesforce sans y passer ses journées.

A :
  • un accès Salesforce pour suivre les opportunités
  • une boîte Gmail pour rédiger les follow-ups
  • un Google Calendar pour préparer les rendez-vous
  • un workspace Notion pour documenter les notes de mission
  • la capacité de rechercher un compte client avant un appel

Aucune mise à jour Salesforce sans confirmation explicite du consultant.

Dev Solo

Solo · 19€/mois

Shipper sans jongler entre dix outils.

A :
  • un accès GitHub pour relire, résumer les PRs, générer la doc
  • un workspace Linear pour trier les tickets
  • un monitoring Sentry pour comprendre les erreurs prod
  • un channel Slack pour synchroniser avec l'équipe
  • la capacité de relire du code et proposer des patchs minimaux

Jamais d'exposition de tokens ou de variables d'environnement en clair dans les réponses.

Dev Squad

Squad · 99€/siège

Coordonner le quotidien d'une équipe d'ingénierie.

A :
  • un accès GitHub pour trier les PRs entrants
  • un workspace Linear pour préparer les sprints et résumer les rétros
  • un channel Slack pour router les reviews aux bonnes personnes
  • un monitoring Sentry et Datadog pour le contexte d'astreinte
  • la capacité d'opérer en ensemble multi-agents (delegation, supervision)

Aucun merge automatique sans validation humaine explicite.

Un cas qui n'est pas dans la liste ? Les personas sont des fichiers déclaratifs. On peut câbler le vôtre. Parler de votre cas →
Souveraineté

FR/EU par défaut. Multi-cloud par construction.

L'infra est portable. Aucun service propriétaire qui rendrait une migration impossible. Le contrat de réversibilité fait partie du produit, pas du commercial.

  • Scaleway et OVH par défaut. Les deux opérateurs souverains qu'on opère en production.
  • Multi-cloud testé. AWS, Azure, GCP disponibles si votre groupe l'impose, sans réécriture.
  • Bare-metal et on-prem pour les contextes où rien ne doit sortir de votre datacenter.
  • Stack open source. Vous pouvez réhéberger la même plateforme chez vous sans nous.
  • Données FR par défaut sur les personas qui le demandent (Paperasse, Immobilier).
  • Isolation noyau Linux sur les workloads sensibles. La sandbox protège même si le code dérape.
  • Cloisonnement total entre clients au niveau réseau, identité et stockage. Aucun pont possible.
  • Audit traçable bout-en-bout sur chaque appel à un modèle, à un outil, à une donnée.
Voir tourner

30 minutes pour voir la plateforme en action.

Démo guidée sur cas concret : votre persona, vos MCPs, votre observabilité Langfuse. Vous repartez avec une piste claire, même si on ne continue pas ensemble.

Prendre rendez-vous Nous écrire