Retour

Le PDG de Perle Labs Ahmed Rashad explique pourquoi l’IA a besoin d’une infrastructure de données vérifiables

Préférez-nous sur Google
author avatar

Ecrit par
Lynn Wang

editor avatar

Mis à jour par
Célia Simon

02 mars 2026 15:10 CET

Les agents IA ont dominé l’événement ETHDenver 2026, allant de la finance autonome à la robotique on-chain. Mais alors que l’enthousiasme autour des « agentic economies » grandit, une question plus difficile émerge : les institutions peuvent-elles prouver sur quelles données leurs systèmes d’IA ont été entraînés ?

Parmi les startups qui s’attaquent à ce problème figure Perle Labs, qui soutient que les systèmes d’IA exigent une chaîne de traçabilité vérifiable pour leurs données d’entraînement, notamment dans les environnements réglementés et à haut risque. En se concentrant sur la création d’une infrastructure de données auditable et certifiée pour les institutions, Perle a levé à ce jour 17,5 millions de dollars, sa dernière levée de fonds ayant été menée par Framework Ventures. Parmi les autres investisseurs figurent CoinFund, Protagonist, HashKey et Peer VC. L’entreprise indique que plus d’un million d’annotateurs ont contribué à plus d’un milliard de données notées sur sa plateforme.

BeInCrypto s’est entretenu avec Ahmed Rashad, CEO de Perle Labs, en marge d’ETHDenver 2026. Rashad a précédemment occupé un poste de direction opérationnelle chez Scale AI lors de sa phase d’hypercroissance. Au cours de l’entretien, il a abordé la provenance des données, l’effondrement des modèles, les risques adversariaux et pourquoi, selon lui, l’intelligence souveraine deviendra une condition préalable au déploiement de l’IA dans les systèmes critiques.

BeInCrypto : Vous présentez Perle Labs comme la « couche d’intelligence souveraine pour l’IA ». Pour les lecteurs extérieurs au débat sur l’infrastructure des données, qu’est-ce que cela signifie concrètement ?

Ahmed Rashad : « Le mot souverain est utilisé à dessein et revêt plusieurs dimensions.

Sponsorisé
Sponsorisé

Le sens le plus littéral est celui du contrôle. Si vous êtes un gouvernement, un hôpital, un sous-traitant de la défense ou une grande entreprise déployant une IA dans un environnement à fort enjeu, vous devez posséder l’intelligence qui se trouve derrière ce système, et non la sous-traiter à une boîte noire que vous ne pouvez ni inspecter ni auditer. Souverain signifie que vous savez sur quoi votre IA a été entraînée, qui l’a validée, et que vous pouvez le prouver. La plupart du secteur n’en est pas capable aujourd’hui.

Le deuxième sens, c’est l’indépendance. Agir sans interférence extérieure. C’est précisément ce dont des institutions comme le DoD ou une entreprise ont besoin lorsqu’elles déploient l’IA dans des environnements sensibles. Vous ne pouvez pas avoir une infrastructure IA critique dépendant de chaînes de données que vous ne contrôlez pas, que vous ne pouvez pas vérifier et que vous ne pouvez pas protéger contre la falsification. Il ne s’agit pas d’un risque théorique. La NSA et la CISA ont toutes deux publié des recommandations opérationnelles sur les vulnérabilités de la chaîne d’approvisionnement des données en tant qu’enjeu de sécurité nationale.

Le troisième sens, c’est la responsabilité. Lorsque l’IA passe de la génération de contenu à la prise de décision – médicale, financière, militaire – il faut pouvoir répondre à ces questions : d’où vient l’intelligence ? Qui l’a vérifiée ? Ce registre est-il permanent ? Sur Perle, notre objectif est que chaque contribution de chaque annotateur expert soit enregistrée on-chain. Elle ne peut pas être modifiée. Cette immutabilité, c’est ce qui rend le mot souverain justifié, et non simplement aspiré.

Concrètement, nous construisons une couche de vérification et de certification. Si un hôpital déploie un système d’IA pour le diagnostic, il doit pouvoir remonter chaque donnée du jeu d’entraînement jusqu’au professionnel certifié qui l’a validée. C’est cela, l’intelligence souveraine. Voilà ce que nous cherchons à dire. » 

BeInCrypto : Vous faisiez partie de Scale AI pendant sa phase d’hypercroissance, avec notamment d’importants contrats de défense et l’investissement de Meta. Qu’est-ce que cette expérience vous a appris sur les failles des chaînes de données IA traditionnelles ?

Ahmed Rashad : « Scale était une entreprise incroyable. J’y étais durant la période où elle est passée de 90 millions à 29 milliards de dollars ; tout était en train de se mettait en place, et j’étais aux premières loges pour voir où se forment les fissures.

Le problème fondamental, c’est que la qualité des données et la montée en puissance vont dans des directions opposées. Quand on effectue une croissance de 100x, la pression, c’est toujours d’aller plus vite : plus de données, annotation accélérée, baisse du coût par label. Et ce qui en souffre, c’est la précision et la traçabilité. On finit avec des chaînes opaques : on sait à peu près ce qui est entré, on a quelques indicateurs de qualité sur ce qui en est sorti, mais le milieu reste une boîte noire. Qui a validé cela ? Était-il réellement qualifié ? L’annotation était-elle cohérente ? À grande échelle et avec les modèles traditionnels, il devient quasiment impossible de répondre à ces questions.

La deuxième chose que j’ai comprise, c’est que l’élément humain est presque toujours traité comme un coût à minimiser plutôt qu’une capacité à développer. Le modèle transactionnel – rémunérer à la tâche puis optimiser le rendement – dégrade la qualité avec le temps. On épuise les meilleurs contributeurs. Les personnes capables de fournir des annotations réellement expertes et de haute qualité ne sont pas celles qui accepteront de passer du temps sur des micro-tâches gamifiées pour quelques centimes. Il faut construire différemment si l’on souhaite ce niveau d’expertise.

C’est ce constat qui fonde Perle. Le problème des données ne se résout pas en y affectant plus de main-d’œuvre. Il se résout quand on considère les contributeurs comme des professionnels, qu’on intègre une vraie certification vérifiable au système et qu’on rend l’ensemble du processus auditable de bout en bout. »

BeInCrypto : Vous avez atteint un million d’annotateurs et dépassé le milliard de données notées. La plupart des plateformes de labellisation s’appuient sur une main-d’œuvre anonyme. Qu’est-ce qui distingue structurellement votre modèle de réputation ?

Ahmed Rashad : « La différence essentielle, c’est que sur Perle, votre historique professionnel vous appartient, et il est permanent. Quand vous terminez une tâche, l’enregistrement de cette contribution, la catégorie de qualité atteinte, la manière dont elle se compare au consensus des experts, tout est inscrit on-chain. Cela ne peut pas être modifié, supprimé ou réattribué. Au fil du temps, cela devient un véritable certificat professionnel, qui s’accumule.

Comparez cela à la main-d’œuvre anonyme, où une personne est en fait interchangeable. Elle n’a aucun intérêt à viser la qualité, car sa réputation n’existe pas ; chaque tâche est déconnectée de la précédente. La structure d’incitation produit exactement ce que l’on imagine : l’effort minimal viable.

Sponsorisé
Sponsorisé

Notre modèle inverse cette logique. Les contributeurs bâtissent un historique vérifiable. La plateforme reconnaît l’expertise sectorielle. Par exemple, un radiologue qui produit systématiquement des annotations médicales de grande qualité se construit un profil qui en témoigne. Cette réputation donne accès à des tâches à plus forte valeur ajoutée, à une meilleure rémunération et à des missions plus porteuses de sens. Il s’agit d’un cercle vertueux : la qualité s’accroît par le jeu des incitations.

Nous avons dépassé le milliard de points notés au sein de notre réseau d’annotateurs. Il ne s’agit pas seulement d’un indicateur de volume, mais d’un milliard de contributions de données traçables et attribuées à des personnes vérifiées. Voilà le socle d’une donnée d’entraînement IA digne de confiance, et il est structurellement impossible de reproduire cela avec une main-d’œuvre anonyme. »

BeInCrypto : L’effondrement des modèles est beaucoup discuté dans les cercles de recherche, mais rarement abordé par le grand public de l’IA. À votre avis, pourquoi et les inquiétudes devraient-elles être plus larges ?

Ahmed Rashad : « Cela n’apparaît pas dans les débats grand public, car c’est une crise lente, pas spectaculaire. L’effondrement des modèles, où des systèmes IA entraînés de plus en plus sur des données générées par IA commencent à perdre en finesse, à s’homogénéiser autour de la moyenne et à se dégrader, ne provoque pas d’événement marquant. C’est une lente érosion de la qualité qui passe inaperçue jusqu’à devenir critique.

Le mécanisme est simple : internet se remplit de contenus générés par IA. Les modèles entraînés sur ces contenus apprennent de leurs propres sorties, et non plus de réelles connaissances ou expériences humaines. Chaque génération de formation amplifie les déformations des précédentes. C’est une boucle de rétroaction sans correction naturelle possible.

Faut-il s’en inquiéter davantage ? Oui, surtout dans les domaines sensibles. Quand l’effondrement des modèles touche un algorithme de recommandation, les suggestions sont moins pertinentes. Quand cela concerne un modèle de diagnostic médical, un système de raisonnement juridique, ou un outil de renseignement militaire, les conséquences sont d’un tout autre ordre. La marge d’erreur disparaît.

C’est pourquoi la couche de données vérifiées par l’humain n’est pas optionnelle à mesure que l’intelligence artificielle s’intègre aux infrastructures critiques. Il faut une source continue d’intelligence humaine authentique et diversifiée pour l’entraîner ; pas des résultats générés par l’IA et filtrés au travers d’un autre modèle. Nous comptons plus d’un million d’annotateurs qui disposent d’une véritable expertise sectorielle dans des dizaines de domaines. Cette diversité est l’antidote à l’effondrement des modèles. On ne peut pas y remédier par des données synthétiques ou davantage de puissance de calcul. »

BeInCrypto : Quand l’IA passe d’environnements numériques à des systèmes physiques, qu’est-ce qui change fondamentalement en matière de risque, de responsabilité et de normes dans son développement ?

Ahmed Rashad : L’irréversibilité change. C’est là tout le cœur du sujet. Un modèle de langage qui « hallucine » fournit une mauvaise réponse. On peut la corriger, la signaler, passer à autre chose. Un système de chirurgie robotique fonctionnant sur une mauvaise inférence, un véhicule autonome effectuant une mauvaise classification, un drone agissant sur une cible mal identifiée : ces erreurs-là n’ont pas de bouton « annuler ». Le coût de l’échec passe de l’embarrassant au catastrophique.

Cela change tout quant aux normes à appliquer. Dans les environnements numériques, le développement de l’IA a, dans l’ensemble, été autorisé à avancer vite tout en s’auto-corrigeant. Pour les systèmes physiques, ce modèle n’est pas viable. Les données d’entraînement à la base de ces systèmes doivent être vérifiées avant le déploiement, non auditées après un incident.

Cela change aussi la question de la responsabilité. Dans un contexte numérique, il est relativement facile de diluer les responsabilités : était-ce le modèle ? Les données ? Le déploiement ? Dans les systèmes physiques, surtout quand des humains sont blessés, les régulateurs et tribunaux exigeront des réponses claires. Qui a entraîné ce modèle ? Avec quelles données ? Qui a validé ces données et selon quelles normes ? Les entreprises et gouvernements capables de répondre à ces questions seront ceux qui seront autorisés à opérer. Ceux qui ne le peuvent pas feront face à des responsabilités auxquelles ils ne s’attendaient pas.

Nous avons conçu Perle précisément pour cette transition. Vérifié par l’humain, alimenté par des experts, auditable on-chain. Lorsque l’IA commencera à opérer dans les entrepôts, les blocs opératoires et sur les champs de bataille, la couche d’intelligence sous-jacente devra répondre à d’autres standards. C’est précisément ce standard que nous sommes en train de construire.

BeInCrypto : À quel point la menace de l’empoisonnement de données ou de la manipulation adverse est-elle réelle dans les systèmes IA aujourd’hui, notamment à l’échelle nationale ?

Ahmed Rashad : « C’est réel, c’est documenté, et cela est déjà traité comme une priorité de sécurité nationale par des personnes ayant accès à des informations classifiées sur le sujet.

Le programme GARD de la DARPA (Guaranteeing AI Robustness Against Deception) a passé des années à développer spécifiquement des défenses contre les attaques adverses sur les systèmes d’IA, y compris l’empoisonnement de données. La NSA et la CISA ont émis en 2025 des recommandations conjointes, mettant explicitement en garde contre les vulnérabilités de la chaîne d’approvisionnement des données et contre les données d’entraînement modifiées de manière malveillante, qui constituent des menaces crédibles pour l’intégrité des systèmes d’IA. Il ne s’agit pas de rapports théoriques : ces recommandations sont opérationnelles et proviennent d’agences qui ne publient pas de mises en garde pour des risques hypothétiques.

La surface d’attaque est considérable. Si vous pouvez compromettre les données d’entraînement d’un système d’IA utilisé pour la détection de menaces, le diagnostic médical ou l’optimisation logistique, vous n’avez pas besoin de pirater le système en lui-même. Vous avez déjà modifié sa perception du monde. Il s’agit d’un vecteur d’attaque beaucoup plus discret et difficile à détecter que les intrusions de cybersécurité traditionnelles.

Le contrat de 300 millions de dollars que détient Scale AI avec le CDAO du Département de la Défense, pour déployer de l’IA sur des réseaux classifiés, existe en partie parce que le gouvernement sait qu’il ne peut pas utiliser une IA entraînée sur des données publiques non vérifiées dans des environnements sensibles. À ce niveau, la question de la traçabilité des données n’est pas académique. Elle est opérationnelle.

Ce qui manque dans la discussion dominante, c’est que cela ne concerne pas que les gouvernements. Toute entreprise déployant une IA dans un environnement concurrentiel – services financiers, industrie pharmaceutique, infrastructures critiques – fait face à une exposition adverse aux données qu’elle n’a probablement pas cartographiée intégralement. La menace est réelle. Les défenses sont encore en construction. »

BeInCrypto : Pourquoi un gouvernement ou une grande entreprise ne pourrait-il pas simplement construire lui-même cette couche de vérification ? Quelle est la véritable réponse face à cette objection ?

Ahmed Rashad : « Certains essaient. Et ceux qui essaient découvrent rapidement où se trouve le vrai problème.

Développer la technologie est la partie facile. L’enjeu réside dans le réseau. Des experts vérifiés et accrédités, radiologues, linguistes, juristes, ingénieurs, scientifiques, ne surgissent pas par miracle parce que vous avez bâti une plateforme. Il faut les recruter, les accréditer, concevoir des dispositifs d’incitation pour les fidéliser et mettre en place des mécanismes de consensus qualitatif permettant à leur contribution d’avoir du sens à grande échelle. Cela prend des années et requiert une expertise que la plupart des agences gouvernementales et des entreprises n’ont tout simplement pas en interne.

Le deuxième problème, c’est la diversité. Une agence gouvernementalequi construit sa propre couche de vérification puisera, par définition, dans un vivier restreint et relativement homogène. L’atout d’un réseau mondial d’experts ne réside pas seulement dans la validation des compétences, mais aussi dans la diversité des points de vue, des langues, des contextes culturels et des spécialisations que seule une échelle globale permet d’atteindre. Nous avons plus d’un million d’annotateurs. Ce n’est pas réplicable en interne.

Le troisième problème, c’est la conception des incitations. Pour maintenir l’engagement de contributeurs de haute qualité sur la durée, il faut une rémunération transparente, équitable et programmable. L’infrastructure blockchain permet cela d’une façon impossible à reproduire pour les systèmes internes : registre d’apports immuable, attribution directe et paiement vérifiable. Un système de passation de marchés publics n’est pas conçu pour faire cela de manière efficace.

La véritable réponse à cette objection est la suivante : vous n’achetez pas qu’un outil. Vous accédez à un réseau et à un système de validation des compétences qui ont mis des années à se bâtir. L’alternative, ce n’est pas « le bâtir soi-même », c’est « utiliser ce qui existe déjà ou accepter le risque lié à la qualité des données faute de l’avoir ». »

BeInCrypto : Si l’IA devient une infrastructure nationale essentielle, où s’inscrit une couche d’intelligence souveraine dans cette architecture, d’ici cinq ans ?

Ahmed Rashad : « D’ici cinq ans, je pense que cela ressemblera à la fonction d’audit financier d’aujourd’hui : une couche de vérification incontournable, placée entre les données et leur déploiement, soutenue par la régulation et assortie de standards professionnels clairs.

Actuellement, le développement de l’IA fonctionne sans équivalent à l’audit financier. Les entreprises présentent elles-mêmes leurs données d’entraînement. Il n’y a ni vérification indépendante, ni accréditation professionnelle du processus, ni attestation tierce que l’intelligence derrière un modèle respecte une norme définie. Nous en sommes aux débuts de la finance, avant le Sarbanes-Oxley, où tout repose sur la confiance et l’auto-certification.

À mesure que l’IA deviendra une infrastructure critique (réseaux électriques, systèmes de santé, marchés financiers, réseaux de défense), ce modèle ne sera plus tenable. Les États exigeront l’auditabilité. Les marchés publics nécessiteront des preuves vérifiées de provenance des données comme condition contractuelle. Les cadres de responsabilité juridique imposeront des conséquences aux échecs qu’une vérification appropriée aurait pu éviter.

La position de Perle dans cette architecture, c’est celle de la couche de vérification et de validation, l’entité capable de produire un historique immuable et vérifiable de l’entraînement d’un modèle : sur quelles données, par qui, selon quelles normes. Ce ne sera pas une simple fonctionnalité du développement de l’IA dans cinq ans. Ce sera un prérequis.

L’essentiel, c’est que l’intelligence souveraine n’est pas un sujet de niche réservé à la défense : elle est le socle qui rend le déploiement de l’IA possible partout où l’échec a des conséquences tangibles. Et à mesure que l’IA s’étend à toujours plus de ces contextes, ce socle devient la partie la plus précieuse de l’écosystème. »

Avis de non responsabilité

Avis de non-responsabilité : conformément aux directives de The Trust Project, cet article d’opinion présente le point de vue de l’auteur et ne reflète pas nécessairement les opinions de BeInCrypto. BeInCrypto s’engage à fournir des informations transparentes et à respecter les normes journalistiques les plus strictes. Les lecteurs sont invités à vérifier les informations de leur propre chef et à consulter un professionnel avant de prendre des décisions sur la base de ce contenu.

Sponsorisé
Sponsorisé