Le cofondateur d’Ethereum, Vitalik Buterin, a tiré la sonnette d’alarme sur les risques associés à l’IA superintelligente et la nécessité d’un mécanisme de défense solide pour cette nouvelle technologie.
Les commentaires de Vitalik Buterin tombent à un moment où, avec le développement rapide de l’intelligence artificielle, les préoccupations concernant la sécurité liée à l’IA augmentent considérablement.
Le plan de régulation d’IA de Buterin
Dans un article de blog publié le samedi 5 janvier, Vitalik Buterin a exposé son idée de « d/acc ou accélération défensive », selon laquelle la technologie devrait être développée pour défendre plutôt qu’afin de causer du tort. Il ne s’agit cependant pas de la première fois que Buterin s’exprime sur les risques associés à l’intelligence artificielle.
« Une manière dont l’IA défaillante pourrait aggraver le monde serait (presque) la pire possible : elle pourrait littéralement entrainer l’extinction humaine », a Vitalik expliqué Buterin en 2023.
Aujourd’hui, Vitalik Buterin donne suite à ses théories de 2023. Selon lui, la “superintelligence artificielle” pourrait potentiellement exister d’ici quelques années seulement.
« Il semble probable qu’il y ait un délais de trois ans jusqu’à l’AGI puis de trois ans de plus jusqu’à la superintelligence. Ainsi, si nous ne voulons pas que le monde soit détruit ou tombe dans un piège irréversible, nous ne pouvons pas seulement accélérer le bien, nous devons aussi ralentir le mal », a écrit Buterin.
Pour atténuer les risques liés à l’IA, Vitalik Buterin préconise la création de systèmes d’IA décentralisés qui restent étroitement liés aux prises de décision par les humains. Ainsi, en veillant à ce que l’IA reste un outil entre les mains des humains, les menaces de conséquences catastrophiques pourront être minimisées.
Buterin a ensuite expliqué comment les armées pourraient être les acteurs responsables d’un scénario de « catastrophe par IA ». L’utilisation militaire de l’IA augmente à échelle mondiale, comme on a pu le voir en Ukraine et à Gaza. Buterin pense également que toute réglementation de l’IA à entrer en vigueur exempterait très probablement les armées, faisant de celles-ci une menace majeure.
Le cofondateur d’Ethereum a par ailleurs exposé ses plans afin de réglementer l’utilisation de l’IA ; ainsi, selon lui, la première étape pour éviter les risques associés à l’IA est de responsabiliser ses utilisateurs.
« Bien que le lien entre le mode de développement d’un modèle et la façon dont il finit par être utilisé soit souvent flou, c’est l’utilisateur qui décide exactement comment l’IA est utilisée » a expliqué Buterin, soulignant là le rôle joué par les utilisateurs de l’IA.
Si les règles de responsabilité ne fonctionnent pas, l’étape suivante serait d’instaurer des boutons de “pause douce” qui permettent à la réglementation de l’IA de ralentir le rythme des avancées potentiellement dangereuses.
« L’objectif serait d’avoir la capacité de réduire la puissance de calcul disponible dans le monde de ~90-99% pendant 1-2 ans à une période critique, afin de gagner plus de temps pour que l’humanité puisse se préparer. »
Selon lui, cette pause peut être implémentée par la vérification et l’enregistrement de la localisation de l’IA.
Une autre approche consisterait à contrôler le matériel de l’IA. Le cofondateur d’Ethereum a en effet expliqué que le matériel de l’IA pourrait être équipé d’une puce pour le contrôler.
Cette puce permettrait aux systèmes d’IA de fonctionner uniquement s’ils obtiennent trois signatures d’organismes internationaux chaque semaine. Il a ajouté qu’au moins un des organismes devrait être non affilié à l’armée.
Cela dit, Buterin lui-même a admis que ses stratégies comportent des failles et ne constituent que des « solutions temporaires ».
Morale de l’histoire : Qui dit IA dit ne jamais oublier les risques.
Avis de non-responsabilité
Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.