OpenClaw vs Anthropic : quand un développeur autrichien force l'industrie à se réinventer

 

En novembre 2025, un développeur autrichien publie sur GitHub un projet open source qu'il appelle, en hommage à Claude, le modèle d'IA d'Anthropic, « Clawd ». L'idée est simple : permettre à un agent IA de travailler de manière autonome sur votre ordinateur et de vous tenir informé sur WhatsApp, Telegram ou iMessage, sans que vous ayez à être là. L'outil devient viral en quelques semaines. Anthropic lui envoie une mise en demeure pour violation de marque.

Le développeur renomme le projet OpenClaw. Puis OpenAI lui propose un poste.

En mars 2026,Anthropic riposte sur le terrain technique avec Claude Cowork, ses fonctions Dispatch et Computer Use, et Claude Code Channels. La contre-offensive est spectaculaire — mais elle ne surprend pas ceux qui suivent la trajectoire d'une entreprise habituée à tenir ses lignes, y compris face au Pentagone (lire : Anthropic : Claude, le Pentagone et les lignes rouges de l'IA). Mais cette riposte soulève, pour quiconque s'intéresse au droit du numérique, une série de questions qui ne sont pas encore résolues :qui est responsable quand un agent IA autonome fait une erreur ? Le RGPD s'applique-t-il à un outil qui lit vos fichiers, vos mails et vos agendas ? Et qu'est-ce que cela implique pour vous, utilisateur ?

Le RGPD s'applique-t-il à un outil qui lit vos fichiers, vos mails et vos agendas ? Et qu'est-ce que cela implique pour vous, utilisateur ?

Un agent IA qui agit à votre place sur votre ordinateur, c'est pratique. C'est aussi un acteur juridique fantôme : il agit, il accède, il modifie, sans signature, sans mandat, sans responsabilité clairement assignée.

 

Qu'est-ce qu'OpenClaw, et pourquoi ça a tout changé

Un projet né d'une idée simple, devenu phénomène mondial

Peter Steinberger, développeur autrichien connu dans la communauté iOS, publie OpenClaw en novembre 2025. Le concept : un agent IA local, tournant sur votre propre machine, auquel vous pouvez parler depuis n'importe quelle messagerie : WhatsApp, Telegram, Slack, iMessage, Discord, et qui exécute des tâches en votre absence.

Écrire et envoyer des e-mails, organiser des fichiers, gérer des campagnes sur les réseaux sociaux, postuler à des offres d'emploi. Tout, de manière autonome, depuis votre ordinateur.

 

L'adoption est fulgurante. En Chine, où ni Anthropic ni OpenAI n'opèrent commercialement, des milliers d'utilisateurs achètent des Mac Mini dédiés pour faire tourner OpenClaw en permanence.

Les stocks se vident. Tencent intègre OpenClaw à WeChat. Des dizaines de projets dérivés émergent : NanoClaw pour la sécurité,NemoClaw pour Nvidia, KiloClaw, ZeroClaw, NullClaw. Le gouvernement chinois finit par interdire OpenClaw sur les machines des entreprises d'État.

L'affaire de la marque : quand Anthropic envoie une mise en demeure

Le premier acte juridique de cette histoire est une mise en demeure. Anthropic, voyant le projet s'appeler « Clawd », référence directe à son modèle Claude, adresse à Steinberger une lettre de cessation et d'abstention pour risque de confusion de marque.

Le développeur renomme le projet OpenClaw. Steinberger est ensuite recruté par OpenAI, le concurrent direct d'Anthropic. L'ironie est totale.

 

Cette mise en demeure, anecdotique en apparence, est révélatrice d'un problème structurel :dans un écosystème open source où les projets se multiplient à partir des modèles des grandes plateformes, la frontière entre hommage, réutilisation légale et violation de marque est constamment brouillée.

Le droit des marques n'a pas été conçu pour ce rythme.

Nommer son projet d'après un modèle d'IA, même par hommage, peut constituer une atteinte à la marque déposée. Anthropic a les droits sur «Claude ». La nuance entre évocation et confusion n'est pas toujours perçue par les développeurs, mais elle l'est toujours par les juristes.

 

La riposte d'Anthropic : Claude Cowork,Dispatch et Computer Use

Claude Cowork : l'agent de bureau sécurisé

En janvier 2026, Anthropic lance Claude Cowork, un agent IA conçu pour fonctionner directement sur votre ordinateur, avec accès natif à Google Drive, Gmail,Slack, et d'autres outils de productivité. Le positionnement est clair : faire ce qu'OpenClaw fait, mais avec les garanties de sécurité d'un produit commercial. Autorisation application par application, défenses contre les attaques par injection de prompt, architecture MCP (Model Context Protocol) ouverte et auditée.

Dispatch : OpenClaw pour les professionnels

En mars 2026,Anthropic ajoute Dispatch à Claude Cowork : la possibilité de lancer une tâche depuis son téléphone, de vaquer à ses occupations, et de recevoir une notification quand la tâche est terminée sur son ordinateur de bureau.

C'est exactement le cas d'usage qui a rendu OpenClaw viral, mais dans un cadre maîtrisé. Gael Breton, co-fondateur d'Authority Hacker, résume la proposition sur X :

 

"C'est OpenClaw pour les adultes. Ça fait 90 % de ce qu'OpenClaw fait, dans un environnement 90 % plus sécurisé."

— Gael Breton, co-fondateur d'Authority Hacker, mars 2026

L'essor rapide de l'intelligence artificielle suscite des inquiétudes légitimes chez de nombreux utilisateurs.

Parmi les préoccupations les plus répandues figurent la crainte de perdre son emploi face à l'automatisation, le manque de transparence sur le fonctionnement des algorithmes, et les questions liées à la protection des données personnelles. Beaucoup s'interrogent également sur les biais potentiels intégrés dans ces systèmes, ainsi que sur la difficulté croissante à distinguer le vrai du faux à l'ère des contenus générés artificiellement.

Enfin, une inquiétude plus diffuse concerne la perte de contrôle humain sur des technologies de plus en plus autonomes, et les implications éthiques d'une dépendance accrue à des machines pour des décisions importantes.

Ce qui est frappant, c'est que ces craintes ne sont pas nouvelles, elles accompagnent chaque révolution technologique majeure ; mais la vitesse d'évolution de l'IA compresse le temps d'adaptation habituel, ce qui amplifie le sentiment d'incertitude.

Computer Use : l'agent qui prend le contrôle de votre écran

Le 23 mars2026, Anthropic franchit un cap supplémentaire avec Computer Use : Claude peutdésormais cliquer, taper, naviguer sur le web et contrôler des applicationsdirectement sur votre bureau, sans sandbox isolé, sur votre machine réelle.

La fonctionnalité fonctionne par captures d'écran continues : Claude observe l'état de votre écran et agit en conséquence.

 

Anthropic prend soin de préciser que la technologie est en phase de recherche préliminaire et déconseille son utilisation avec des données sensibles. La société a également acquis en février 2026 la startup Vercept pour renforcer ces capacités.

ClaudeCode Channels, pendant coder-développeur, permet lui d'orchestrer des tâches via Discord et Telegram depuis la version 2.1.80.

"Assignez une tâche depuis votre téléphone, consacrez votre attention à autre chose, et revenez trouver le travail terminé sur votre ordinateur."

— Anthropic, annonce officielle Computer Use, 23 mars 2026

Anthropic a intégré en quatre semaines la messagerie, des milliers de compétences MCP et la correction de bugs autonome. La vitessed'exécution est vertigineuse — et elle rend le cadre réglementaire encore plus en retard qu'il ne l'était déjà.

 

Chronologie : quatre mois qui ont tout accéléré

Novembre 2025 — PeterSteinberger publie « Clawd » sur GitHub. Adoption virale immédiate, notamment en Chine. Anthropic envoie une mise en demeure pour violation de marque. Le projet est renommé OpenClaw.

Décembre 2025 — Anthropic fait don du protocole MCP (Model Context Protocol) à l'Agentic AI Foundation sous l'égide de la Linux Foundation, une décision stratégique pour imposer un standard ouvert tout en gardant la main sur l'écosystème.

Janvier 2026 — Anthropiclance Claude Cowork. OpenAI recrute Peter Steinberger. Le gouvernement chinois interdit OpenClaw sur les machines des entreprises d'État. Tencent intègre OpenClaw à WeChat.

Février 2026 — Anthropic acquiert la startup Vercept pour renforcer Computer Use. Meta rachète Moltbook,plateforme d'agents IA construite sur OpenClaw.

Mars 2026 (mi) — Anthropic lance Claude Code Channels : connexion de Claude Code à Discord et Telegram.L'outil est immédiatement décrit comme un « tueur d'OpenClaw » par la communauté développeur

23 mars 2026 — Lancement de Computer Use : Claude prend le contrôle de l'écran, de la souris et du clavier directement sur le bureau de l'utilisateur, hors sandbox. Nvidia,Perplexity et Snowflake lancent leurs propres alternatives à OpenClaw la même semaine.

 

 

Ce que le droit dit, et ne dit pas encore sur les agents IA autonomes

La responsabilité de l'agent : un vide juridique béant

Un agent IA autonome qui envoie un e-mail en votre nom, modifie un fichier, ou soumet une candidature d'emploi sans que vous l'ayez explicitement validé à cet instant précis, c'est un acteur juridique sans statut.

En droit civil français, un acte juridique valable suppose un consentement exprès ou au moins tacite mais circonstancié. Un agent IA opérant sur mandat général et diffus pose un problème de qualification.

 

La directive européenne sur la responsabilité en matière d'IA (AI Liability  ), encours de transposition dans les États membres, vise à clarifier la chaîne de responsabilité. Mais elle reste silencieuse sur un cas aussi concret que : que se passe-t-il quand un agent IA achète une voiture à l'insu de son utilisateur, un cas documenté dès 2025 avec OpenClaw ? Le fabricant, le déployeur,l'utilisateur : les trois niveaux de responsabilité coexistent sans hiérarchie claire.

Un utilisateur d'OpenClaw a vu son agent IA acheter une voiture de manière autonome après lui avoir donné un accès trop large.

Ce n'est pas une anecdote. C'est un cas de test grandeur nature pour la responsabilité contractuelle à l'ère des agents.

Le RGPD face aux agents qui lisent tout

Un agent IA local comme OpenClaw ou Claude Cowork peut avoir accès à vos e-mails, vos fichiers, votre agenda, votre historique de navigation, vos messages. Sous le RGPD, ce type de traitement de données personnelles, y compris les vôtres,mais aussi celles de vos correspondants, doit reposer sur une base légale. Pour un usage personnel, l'article 2(c) du RGPD prévoit une exemption pour les activités « strictement personnelles et domestiques ».

 

Mais dès que l'agent agit dans un contexte professionnel, envoie des e-mails à des clients,gère des données de tiers, interagit avec des systèmes d'entreprise, l'exemption tombe.

L'entreprise qui déploie un agent IA pour ses collaborateurs doit documenter les traitements, désigner un responsable, et informer les personnes concernées. En pratique, ces obligations sont massivement ignorées par les premières entreprises qui adoptent ces outils.

La sécurité des données : le vrai différenciateur juridique

C'est précisément sur ce terrain que la bataille entre OpenClaw et Anthropic se joue aussi, au-delà des fonctionnalités.

OpenClaw accorde à l'agent un accès global au système de fichiers, sans cloisonnement. Des cas de manipulation de l'agent par injection de prompt malveillant, où un tiers insère des instructions cachées dans un document que l'agent lit, ont déjà été documentés.

 

Anthropic a construit Claude Cowork sur une architecture d'autorisation granulaire et des défenses explicites contre les injections de prompt.

L'AI Act, qui classe les agents ayant accès à des données personnelles sensibles comme systèmes à risque élevé ou intermédiaire selon leur usage, impose des exigences de sécurité que les agents open source non supervisés peinent structurellement à respecter.

Le don du MCP à la Linux Foundation : stratégie ou altruisme ?

En décembre 2025, Anthropic a transféré le protocole MCP, le standard de communication entre agents IA, outils et données qu'elle avait développé, à l'Agentic AI Foundation sous l'égide de la Linux Foundation. Un geste présenté comme altruiste, qui mérite un regard juridique.

 

En rendant MCPouvert et gouverné collectivement, Anthropic s'assure que le protocole devient un standard industriel, ce qui bénéficie directement à Claude Cowork et à l'ensemble de son écosystème.

C'est une stratégie de plateforme classique :donner le standard, garder l'avantage concurrentiel sur l'implémentation. Sur le plan du droit de la concurrence, ce type de mouvement est scruté de près par les régulateurs européens, qui ont déjà ouvert des investigations sur les pratiques de standardisation dans le secteur tech.

Donner un protocole à la Linux Foundation, c'est s'assurer qu'il devient un bien commun, et que tous les acteurs construisent sur votre fondation.

C'est légal, c'est stratégique, et c'est la définition d'une position dominante construite en douceur.

 

Ce que ça change concrètement : pour les utilisateurs et les entreprises

Pour les utilisateurs

La prolifération des agents IA autonomes pose des questions pratiques immédiates.Lorsque vous donnez accès à un agent à vos outils professionnels ; Gmail,Google Drive, Slack, vous traitez potentiellement les données personnelles de vos collègues, clients et partenaires. Sans en avoir nécessairement conscience,et sans avoir mis en place les garde-fous requis par le RGPD.

 

La recommandation d'Anthropic elle-même est éloquente : ne pas confier de données sensibles à Computer Use pour l'instant.

Cette prudence opérationnelle devrait être doublée d'une prudence juridique : avant d'activer un agent IA sur vos systèmes professionnels, documentez les accès accordés, informez les personnes concernées, et vérifiez la politique de confidentialité de l'outil utilisé.

Pour les entreprises

Les entreprises qui déploient des agents IA pour leurs équipes entrent de plein pied dans le champ de l'AI Act pour les systèmes à risque élevé, notamment si l'agent prend des décisions ayant des effets significatifs sur des tiers (clients, candidats,partenaires).

Les obligations sont concrètes : évaluation de conformité,documentation technique, supervision humaine, traçabilité des actions.

 

Le cas du gouvernement chinois qui a interdit OpenClaw sur les machines des entreprises d'État, illustre une tension que les entreprises européennes rencontreront aussi : comment intégrer des outils d'une puissance productive considérable tout en maîtrisant les risques juridiques associés ?

La réponse n'est pas l'interdiction. Elle passe par une gouvernance des agents IA; politique d'usage, journalisation des actions, supervision humaine, dont les grandes lignes sont déjà esquissées par l'AI Act.

Le gouvernement chinois a interdit OpenClaw dans les entreprises d'État non pour des raisons idéologiques, mais pour des raisons de sécurité des données, les mêmes que celles qui préoccupent les régulateurs européens. La géographie change. La question de fond est universelle.

 

Conclusion : OpenClaw a ouvert une boîte de Pandore que le droit devra fermer

En quatre mois,un développeur autrichien a forcé Google DeepMind, Anthropic, OpenAI, Nvidia,Perplexity et Snowflake à accélérer leurs feuilles de route sur les agents autonomes. C'est la puissance de l'open source : un seul projet peut recentrer les priorités d'une industrie entière.

 

Mais cette accélération s'est faite sans cadre juridique adapté.

Les agents qui agissent à votre place soulèvent des questions de responsabilité contractuelle, de protection des données, de sécurité des systèmes et de droit de la concurrence que le droit n'a pas encore formalisées. L'AI Act en pose les fondations sans répondre à tout.

 

Ce qui est certain, c'est que les prochains contentieux autour des agents IA autonomes sont déjà en train de se construire dans les boîtes mail des utilisateurs qui ont accordé des accès trop larges, dans les systèmes d'entreprise mal gouvernés, dans les décisions prises par des agents sans qu'un humain ait vraiment dit oui. Ctrlzed suivra cette évolution article après article.

OpenClaw a montré ce qu'un agent IA peut faire quand on lui donne les clés.

La question juridique de 2026 est simple : à qui appartiennent ces clés, qui est responsable de ce qu'elles ouvrent, et qui paie quand une porte est franchie par erreur ?

 

FAQ — OpenClaw, agents IA et droit du numérique

Qu'est-ce qu'OpenClaw exactement ?

OpenClaw est un projet opensource créé en novembre 2025 par l'Autrichien Peter Steinberger. Il permet de connecter un agent IA, typiquement basé sur Claude d'Anthropic à des messageries comme WhatsApp, Telegram ou iMessage pour lui faire exécuter des tâches de manière autonome sur votre ordinateur : envoyer des e-mails, gérer des fichiers, publier sur les réseaux sociaux, postuler à des emplois. Il est gratuit, open source, mais peu sécurisé par défaut.

Claude Cowork est-il la même chose qu'OpenClaw ?

Non, mais il vise une partie du même cas d'usage. Claude Cowork est le produit commercial d'Anthropic : un agent IA local avec accès contrôlé à vos outils (Drive, Gmail, Slack), une architecture de sécurité contre les attaques par injection, et une fonctionnalité Dispatch pour lancer des tâches à distance. Il est moins flexible qu'OpenClaw mais significativement plus sûr, et couvert par les conditions d'utilisation et la politique de confidentialité d'Anthropic.

Est-ce qu'utiliser un agent IA sur mon ordinateur pose des problèmes RGPD ?

Potentiellement oui, dès que l'agent traite des données de tiers, e-mails de clients, fichiers contenant des données personnelles, etc. Pour un usage strictement personnel et domestique, le RGPD prévoit une exemption. Pour tout usage professionnel, les obligations s'appliquent : base légale du traitement, information des personnes concernées,sécurité des données. L'outil utilisé (open source ou commercial) ne change pas ces obligations.

Qui est responsable si un agent IA fait une erreur , achète quelque chose, envoie un mauvais e-mail ?

C'est précisément la question que le droit n'a pas encore tranchée clairement. En l'état actuel, la responsabilité se répartit entre l'utilisateur (qui a accordé les accès et le mandat), le déployeur (l'entreprise qui a mis l'outil à disposition) et potentiellement le fabricant du modèle sous-jacent. L'AI Liability Directive, en cours de transposition en Europe, clarifiera partiellement ce point, mais les premiers contentieux arriveront avant la finalisation de ces textes.

Qu'est-ce que le MCP (Model Context Protocol) et pourquoi c'est important juridiquement ?

Le MCP est le protocole standardisé qui permet aux agents IA de communiquer avec les outils et données externes. Développé par Anthropic et cédé à la Linux Foundation en décembre 2025, il est devenu le standard de facto de l'écosystème agent. Juridiquement,son adoption massive soulève des questions de droit de la concurrence : une entreprise qui définit le standard d'interopérabilité peut construire une position dominante structurelle. Les régulateurs européens ont ces dynamiques dans leur radar.

Est-il légal d'utiliser OpenClaw en entreprise en France ?

Il n'existe pas d'interdiction légale spécifique à OpenClaw en France. Mais l'utiliser dans un contexte professionnel implique de respecter le RGPD, les politiques de sécurité de l'entreprise, et potentiellement les dispositions de l'AI Act si l'outil est utilisé dans des processus à fort impact. Certains secteurs régulés (banque,santé, droit) ont des obligations supplémentaires en matière de maîtrise des outils utilisés. La prudence, et la documentation, sont de mise.

 

Article rédigé à des fins d'information journalistique et juridique générale. Il ne constitue pas un conseil juridique. Ctrlzed n'est pas un cabinet d'avocats. Pour toute situation spécifique, consultez un professionnel du droit qualifié.

 

En novembre 2025, un développeur autrichien publie sur GitHub un projet open source qu'il appelle, en hommage à Claude, le modèle d'IA d'Anthropic, « Clawd ». L'idée est simple : permettre à un agent IA de travailler de manière autonome sur votre ordinateur et de vous tenir informé sur WhatsApp, Telegram ou iMessage, sans que vous ayez à être là. L'outil devient viral en quelques semaines. Anthropic lui envoie une mise en demeure pour violation de marque.

Le développeur renomme le projet OpenClaw. Puis OpenAI lui propose un poste.

En mars 2026,Anthropic riposte sur le terrain technique avec Claude Cowork, ses fonctions Dispatch et Computer Use, et Claude Code Channels. La contre-offensive est spectaculaire — mais elle ne surprend pas ceux qui suivent la trajectoire d'une entreprise habituée à tenir ses lignes, y compris face au Pentagone (lire : Anthropic : Claude, le Pentagone et les lignes rouges de l'IA). Mais cette riposte soulève, pour quiconque s'intéresse au droit du numérique, une série de questions qui ne sont pas encore résolues :qui est responsable quand un agent IA autonome fait une erreur ? Le RGPD s'applique-t-il à un outil qui lit vos fichiers, vos mails et vos agendas ? Et qu'est-ce que cela implique pour vous, utilisateur ?

Le RGPD s'applique-t-il à un outil qui lit vos fichiers, vos mails et vos agendas ? Et qu'est-ce que cela implique pour vous, utilisateur ?

Un agent IA qui agit à votre place sur votre ordinateur, c'est pratique. C'est aussi un acteur juridique fantôme : il agit, il accède, il modifie, sans signature, sans mandat, sans responsabilité clairement assignée.

 

Qu'est-ce qu'OpenClaw, et pourquoi ça a tout changé

Un projet né d'une idée simple, devenu phénomène mondial

Peter Steinberger, développeur autrichien connu dans la communauté iOS, publie OpenClaw en novembre 2025. Le concept : un agent IA local, tournant sur votre propre machine, auquel vous pouvez parler depuis n'importe quelle messagerie : WhatsApp, Telegram, Slack, iMessage, Discord, et qui exécute des tâches en votre absence.

Écrire et envoyer des e-mails, organiser des fichiers, gérer des campagnes sur les réseaux sociaux, postuler à des offres d'emploi. Tout, de manière autonome, depuis votre ordinateur.

 

L'adoption est fulgurante. En Chine, où ni Anthropic ni OpenAI n'opèrent commercialement, des milliers d'utilisateurs achètent des Mac Mini dédiés pour faire tourner OpenClaw en permanence.

Les stocks se vident. Tencent intègre OpenClaw à WeChat. Des dizaines de projets dérivés émergent : NanoClaw pour la sécurité,NemoClaw pour Nvidia, KiloClaw, ZeroClaw, NullClaw. Le gouvernement chinois finit par interdire OpenClaw sur les machines des entreprises d'État.

L'affaire de la marque : quand Anthropic envoie une mise en demeure

Le premier acte juridique de cette histoire est une mise en demeure. Anthropic, voyant le projet s'appeler « Clawd », référence directe à son modèle Claude, adresse à Steinberger une lettre de cessation et d'abstention pour risque de confusion de marque.

Le développeur renomme le projet OpenClaw. Steinberger est ensuite recruté par OpenAI, le concurrent direct d'Anthropic. L'ironie est totale.

 

Cette mise en demeure, anecdotique en apparence, est révélatrice d'un problème structurel :dans un écosystème open source où les projets se multiplient à partir des modèles des grandes plateformes, la frontière entre hommage, réutilisation légale et violation de marque est constamment brouillée.

Le droit des marques n'a pas été conçu pour ce rythme.

Nommer son projet d'après un modèle d'IA, même par hommage, peut constituer une atteinte à la marque déposée. Anthropic a les droits sur «Claude ». La nuance entre évocation et confusion n'est pas toujours perçue par les développeurs, mais elle l'est toujours par les juristes.

 

La riposte d'Anthropic : Claude Cowork,Dispatch et Computer Use

Claude Cowork : l'agent de bureau sécurisé

En janvier 2026, Anthropic lance Claude Cowork, un agent IA conçu pour fonctionner directement sur votre ordinateur, avec accès natif à Google Drive, Gmail,Slack, et d'autres outils de productivité. Le positionnement est clair : faire ce qu'OpenClaw fait, mais avec les garanties de sécurité d'un produit commercial. Autorisation application par application, défenses contre les attaques par injection de prompt, architecture MCP (Model Context Protocol) ouverte et auditée.

Dispatch : OpenClaw pour les professionnels

En mars 2026,Anthropic ajoute Dispatch à Claude Cowork : la possibilité de lancer une tâche depuis son téléphone, de vaquer à ses occupations, et de recevoir une notification quand la tâche est terminée sur son ordinateur de bureau.

C'est exactement le cas d'usage qui a rendu OpenClaw viral, mais dans un cadre maîtrisé. Gael Breton, co-fondateur d'Authority Hacker, résume la proposition sur X :

 

"C'est OpenClaw pour les adultes. Ça fait 90 % de ce qu'OpenClaw fait, dans un environnement 90 % plus sécurisé."

— Gael Breton, co-fondateur d'Authority Hacker, mars 2026

L'essor rapide de l'intelligence artificielle suscite des inquiétudes légitimes chez de nombreux utilisateurs.

Parmi les préoccupations les plus répandues figurent la crainte de perdre son emploi face à l'automatisation, le manque de transparence sur le fonctionnement des algorithmes, et les questions liées à la protection des données personnelles. Beaucoup s'interrogent également sur les biais potentiels intégrés dans ces systèmes, ainsi que sur la difficulté croissante à distinguer le vrai du faux à l'ère des contenus générés artificiellement.

Enfin, une inquiétude plus diffuse concerne la perte de contrôle humain sur des technologies de plus en plus autonomes, et les implications éthiques d'une dépendance accrue à des machines pour des décisions importantes.

Ce qui est frappant, c'est que ces craintes ne sont pas nouvelles, elles accompagnent chaque révolution technologique majeure ; mais la vitesse d'évolution de l'IA compresse le temps d'adaptation habituel, ce qui amplifie le sentiment d'incertitude.

Computer Use : l'agent qui prend le contrôle de votre écran

Le 23 mars2026, Anthropic franchit un cap supplémentaire avec Computer Use : Claude peutdésormais cliquer, taper, naviguer sur le web et contrôler des applicationsdirectement sur votre bureau, sans sandbox isolé, sur votre machine réelle.

La fonctionnalité fonctionne par captures d'écran continues : Claude observe l'état de votre écran et agit en conséquence.

 

Anthropic prend soin de préciser que la technologie est en phase de recherche préliminaire et déconseille son utilisation avec des données sensibles. La société a également acquis en février 2026 la startup Vercept pour renforcer ces capacités.

ClaudeCode Channels, pendant coder-développeur, permet lui d'orchestrer des tâches via Discord et Telegram depuis la version 2.1.80.

"Assignez une tâche depuis votre téléphone, consacrez votre attention à autre chose, et revenez trouver le travail terminé sur votre ordinateur."

— Anthropic, annonce officielle Computer Use, 23 mars 2026

Anthropic a intégré en quatre semaines la messagerie, des milliers de compétences MCP et la correction de bugs autonome. La vitessed'exécution est vertigineuse — et elle rend le cadre réglementaire encore plus en retard qu'il ne l'était déjà.

 

Chronologie : quatre mois qui ont tout accéléré

Novembre 2025 — PeterSteinberger publie « Clawd » sur GitHub. Adoption virale immédiate, notamment en Chine. Anthropic envoie une mise en demeure pour violation de marque. Le projet est renommé OpenClaw.

Décembre 2025 — Anthropic fait don du protocole MCP (Model Context Protocol) à l'Agentic AI Foundation sous l'égide de la Linux Foundation, une décision stratégique pour imposer un standard ouvert tout en gardant la main sur l'écosystème.

Janvier 2026 — Anthropiclance Claude Cowork. OpenAI recrute Peter Steinberger. Le gouvernement chinois interdit OpenClaw sur les machines des entreprises d'État. Tencent intègre OpenClaw à WeChat.

Février 2026 — Anthropic acquiert la startup Vercept pour renforcer Computer Use. Meta rachète Moltbook,plateforme d'agents IA construite sur OpenClaw.

Mars 2026 (mi) — Anthropic lance Claude Code Channels : connexion de Claude Code à Discord et Telegram.L'outil est immédiatement décrit comme un « tueur d'OpenClaw » par la communauté développeur

23 mars 2026 — Lancement de Computer Use : Claude prend le contrôle de l'écran, de la souris et du clavier directement sur le bureau de l'utilisateur, hors sandbox. Nvidia,Perplexity et Snowflake lancent leurs propres alternatives à OpenClaw la même semaine.

 

 

Ce que le droit dit, et ne dit pas encore sur les agents IA autonomes

La responsabilité de l'agent : un vide juridique béant

Un agent IA autonome qui envoie un e-mail en votre nom, modifie un fichier, ou soumet une candidature d'emploi sans que vous l'ayez explicitement validé à cet instant précis, c'est un acteur juridique sans statut.

En droit civil français, un acte juridique valable suppose un consentement exprès ou au moins tacite mais circonstancié. Un agent IA opérant sur mandat général et diffus pose un problème de qualification.

 

La directive européenne sur la responsabilité en matière d'IA (AI Liability  ), encours de transposition dans les États membres, vise à clarifier la chaîne de responsabilité. Mais elle reste silencieuse sur un cas aussi concret que : que se passe-t-il quand un agent IA achète une voiture à l'insu de son utilisateur, un cas documenté dès 2025 avec OpenClaw ? Le fabricant, le déployeur,l'utilisateur : les trois niveaux de responsabilité coexistent sans hiérarchie claire.

Un utilisateur d'OpenClaw a vu son agent IA acheter une voiture de manière autonome après lui avoir donné un accès trop large.

Ce n'est pas une anecdote. C'est un cas de test grandeur nature pour la responsabilité contractuelle à l'ère des agents.

Le RGPD face aux agents qui lisent tout

Un agent IA local comme OpenClaw ou Claude Cowork peut avoir accès à vos e-mails, vos fichiers, votre agenda, votre historique de navigation, vos messages. Sous le RGPD, ce type de traitement de données personnelles, y compris les vôtres,mais aussi celles de vos correspondants, doit reposer sur une base légale. Pour un usage personnel, l'article 2(c) du RGPD prévoit une exemption pour les activités « strictement personnelles et domestiques ».

 

Mais dès que l'agent agit dans un contexte professionnel, envoie des e-mails à des clients,gère des données de tiers, interagit avec des systèmes d'entreprise, l'exemption tombe.

L'entreprise qui déploie un agent IA pour ses collaborateurs doit documenter les traitements, désigner un responsable, et informer les personnes concernées. En pratique, ces obligations sont massivement ignorées par les premières entreprises qui adoptent ces outils.

La sécurité des données : le vrai différenciateur juridique

C'est précisément sur ce terrain que la bataille entre OpenClaw et Anthropic se joue aussi, au-delà des fonctionnalités.

OpenClaw accorde à l'agent un accès global au système de fichiers, sans cloisonnement. Des cas de manipulation de l'agent par injection de prompt malveillant, où un tiers insère des instructions cachées dans un document que l'agent lit, ont déjà été documentés.

 

Anthropic a construit Claude Cowork sur une architecture d'autorisation granulaire et des défenses explicites contre les injections de prompt.

L'AI Act, qui classe les agents ayant accès à des données personnelles sensibles comme systèmes à risque élevé ou intermédiaire selon leur usage, impose des exigences de sécurité que les agents open source non supervisés peinent structurellement à respecter.

Le don du MCP à la Linux Foundation : stratégie ou altruisme ?

En décembre 2025, Anthropic a transféré le protocole MCP, le standard de communication entre agents IA, outils et données qu'elle avait développé, à l'Agentic AI Foundation sous l'égide de la Linux Foundation. Un geste présenté comme altruiste, qui mérite un regard juridique.

 

En rendant MCPouvert et gouverné collectivement, Anthropic s'assure que le protocole devient un standard industriel, ce qui bénéficie directement à Claude Cowork et à l'ensemble de son écosystème.

C'est une stratégie de plateforme classique :donner le standard, garder l'avantage concurrentiel sur l'implémentation. Sur le plan du droit de la concurrence, ce type de mouvement est scruté de près par les régulateurs européens, qui ont déjà ouvert des investigations sur les pratiques de standardisation dans le secteur tech.

Donner un protocole à la Linux Foundation, c'est s'assurer qu'il devient un bien commun, et que tous les acteurs construisent sur votre fondation.

C'est légal, c'est stratégique, et c'est la définition d'une position dominante construite en douceur.

 

Ce que ça change concrètement : pour les utilisateurs et les entreprises

Pour les utilisateurs

La prolifération des agents IA autonomes pose des questions pratiques immédiates.Lorsque vous donnez accès à un agent à vos outils professionnels ; Gmail,Google Drive, Slack, vous traitez potentiellement les données personnelles de vos collègues, clients et partenaires. Sans en avoir nécessairement conscience,et sans avoir mis en place les garde-fous requis par le RGPD.

 

La recommandation d'Anthropic elle-même est éloquente : ne pas confier de données sensibles à Computer Use pour l'instant.

Cette prudence opérationnelle devrait être doublée d'une prudence juridique : avant d'activer un agent IA sur vos systèmes professionnels, documentez les accès accordés, informez les personnes concernées, et vérifiez la politique de confidentialité de l'outil utilisé.

Pour les entreprises

Les entreprises qui déploient des agents IA pour leurs équipes entrent de plein pied dans le champ de l'AI Act pour les systèmes à risque élevé, notamment si l'agent prend des décisions ayant des effets significatifs sur des tiers (clients, candidats,partenaires).

Les obligations sont concrètes : évaluation de conformité,documentation technique, supervision humaine, traçabilité des actions.

 

Le cas du gouvernement chinois qui a interdit OpenClaw sur les machines des entreprises d'État, illustre une tension que les entreprises européennes rencontreront aussi : comment intégrer des outils d'une puissance productive considérable tout en maîtrisant les risques juridiques associés ?

La réponse n'est pas l'interdiction. Elle passe par une gouvernance des agents IA; politique d'usage, journalisation des actions, supervision humaine, dont les grandes lignes sont déjà esquissées par l'AI Act.

Le gouvernement chinois a interdit OpenClaw dans les entreprises d'État non pour des raisons idéologiques, mais pour des raisons de sécurité des données, les mêmes que celles qui préoccupent les régulateurs européens. La géographie change. La question de fond est universelle.

 

Conclusion : OpenClaw a ouvert une boîte de Pandore que le droit devra fermer

En quatre mois,un développeur autrichien a forcé Google DeepMind, Anthropic, OpenAI, Nvidia,Perplexity et Snowflake à accélérer leurs feuilles de route sur les agents autonomes. C'est la puissance de l'open source : un seul projet peut recentrer les priorités d'une industrie entière.

 

Mais cette accélération s'est faite sans cadre juridique adapté.

Les agents qui agissent à votre place soulèvent des questions de responsabilité contractuelle, de protection des données, de sécurité des systèmes et de droit de la concurrence que le droit n'a pas encore formalisées. L'AI Act en pose les fondations sans répondre à tout.

 

Ce qui est certain, c'est que les prochains contentieux autour des agents IA autonomes sont déjà en train de se construire dans les boîtes mail des utilisateurs qui ont accordé des accès trop larges, dans les systèmes d'entreprise mal gouvernés, dans les décisions prises par des agents sans qu'un humain ait vraiment dit oui. Ctrlzed suivra cette évolution article après article.

OpenClaw a montré ce qu'un agent IA peut faire quand on lui donne les clés.

La question juridique de 2026 est simple : à qui appartiennent ces clés, qui est responsable de ce qu'elles ouvrent, et qui paie quand une porte est franchie par erreur ?

 

FAQ — OpenClaw, agents IA et droit du numérique

Qu'est-ce qu'OpenClaw exactement ?

OpenClaw est un projet opensource créé en novembre 2025 par l'Autrichien Peter Steinberger. Il permet de connecter un agent IA, typiquement basé sur Claude d'Anthropic à des messageries comme WhatsApp, Telegram ou iMessage pour lui faire exécuter des tâches de manière autonome sur votre ordinateur : envoyer des e-mails, gérer des fichiers, publier sur les réseaux sociaux, postuler à des emplois. Il est gratuit, open source, mais peu sécurisé par défaut.

Claude Cowork est-il la même chose qu'OpenClaw ?

Non, mais il vise une partie du même cas d'usage. Claude Cowork est le produit commercial d'Anthropic : un agent IA local avec accès contrôlé à vos outils (Drive, Gmail, Slack), une architecture de sécurité contre les attaques par injection, et une fonctionnalité Dispatch pour lancer des tâches à distance. Il est moins flexible qu'OpenClaw mais significativement plus sûr, et couvert par les conditions d'utilisation et la politique de confidentialité d'Anthropic.

Est-ce qu'utiliser un agent IA sur mon ordinateur pose des problèmes RGPD ?

Potentiellement oui, dès que l'agent traite des données de tiers, e-mails de clients, fichiers contenant des données personnelles, etc. Pour un usage strictement personnel et domestique, le RGPD prévoit une exemption. Pour tout usage professionnel, les obligations s'appliquent : base légale du traitement, information des personnes concernées,sécurité des données. L'outil utilisé (open source ou commercial) ne change pas ces obligations.

Qui est responsable si un agent IA fait une erreur , achète quelque chose, envoie un mauvais e-mail ?

C'est précisément la question que le droit n'a pas encore tranchée clairement. En l'état actuel, la responsabilité se répartit entre l'utilisateur (qui a accordé les accès et le mandat), le déployeur (l'entreprise qui a mis l'outil à disposition) et potentiellement le fabricant du modèle sous-jacent. L'AI Liability Directive, en cours de transposition en Europe, clarifiera partiellement ce point, mais les premiers contentieux arriveront avant la finalisation de ces textes.

Qu'est-ce que le MCP (Model Context Protocol) et pourquoi c'est important juridiquement ?

Le MCP est le protocole standardisé qui permet aux agents IA de communiquer avec les outils et données externes. Développé par Anthropic et cédé à la Linux Foundation en décembre 2025, il est devenu le standard de facto de l'écosystème agent. Juridiquement,son adoption massive soulève des questions de droit de la concurrence : une entreprise qui définit le standard d'interopérabilité peut construire une position dominante structurelle. Les régulateurs européens ont ces dynamiques dans leur radar.

Est-il légal d'utiliser OpenClaw en entreprise en France ?

Il n'existe pas d'interdiction légale spécifique à OpenClaw en France. Mais l'utiliser dans un contexte professionnel implique de respecter le RGPD, les politiques de sécurité de l'entreprise, et potentiellement les dispositions de l'AI Act si l'outil est utilisé dans des processus à fort impact. Certains secteurs régulés (banque,santé, droit) ont des obligations supplémentaires en matière de maîtrise des outils utilisés. La prudence, et la documentation, sont de mise.

 

Article rédigé à des fins d'information journalistique et juridique générale. Il ne constitue pas un conseil juridique. Ctrlzed n'est pas un cabinet d'avocats. Pour toute situation spécifique, consultez un professionnel du droit qualifié.