Le G7 s’apprête à établir un “code de conduite” pour les entreprises qui opèrent dans le domaine de l’intelligence artificielle. Cette initiative, qui s’inscrit dans le cadre du “processus Hiroshima”, vise à lutter contre les abus et les risques liés à la technologie IA.
Les membres du G7 (Canada, France, Allemagne, Italie, Japon, Royaume-Uni, États-Unis et Union européenne) ont lancé cette initiative afin de tracer les lignes directrices des prochaines réglementations IA.
Vers une intelligence artificielle plus éthique ?
Alors que l’intelligence artificielle suscite les inquiétudes du monde entier, ce nouveau code de conduite pourrait donner une petite lueur d’espoir aux utilisateurs. À en croire un document publié par le G7, ce code de conduite vise à :
“Promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournir des directives volontaires aux organisations qui développent les systèmes IA les plus avancés”.
Le code encourage les entreprises à identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA. De même, il recommande de publier des rapports publics sur les capacités, les limites et l’utilisation de l’intelligence artificielle et d’investir dans des contrôles de sécurité robustes.
Pour en savoir plus : Top 5 des cryptos IA les plus prometteuses pour 2023
Lors d’une conférence sur la gouvernance web, Vera Jourova, responsable de la politique numérique de la Commission européenne, a déclaré :
“Ce code de conduite constitue une base solide pour garantir la sécurité. Il servira de passerelle jusqu’à ce qu’une réglementation soit mise en place”.
OpenAI tend la main aux régulateurs
OpenAI, la société mère de ChatGPT, a également formé une équipe qui s’occupera de la gestion des risques posés par les modèles IA. Dirigée par Aleksander Madry, cette équipe se penchera sur des risques comme la persuasion personnalisée, les menaces de cybersécurité et la propagation de fake news.
Avec cette initiative, OpenAI souhaite contribuer au prochain sommet mondial sur l’IA, qui se tiendra au Royaume-Uni et qui vise à promouvoir la sécurité et la transparence de l’intelligence artificielle.
Par ailleurs, le gouvernement britannique considère Frontier AI comme un modèle IA “hautement avancé”.
“Ce sont des modèles IA à usage général très performants, capables d’effectuer une grande variété de tâches et d’égaler ou de dépasser les capacités des modèles les plus avancés d’aujourd’hui”.
L’équipe de préparation d’OpenAI se concentrera sur la gestion des risques, renforçant ainsi la nécessité d’un “code de conduite” mondial en matière d’intelligence artificielle.
Alors que l’IA continue d’évoluer, la position proactive du G7 et l’engagement d’OpenAI en faveur de l’atténuation des risques s’avèrent plus que nécessaires. Le “code de conduite” volontaire et la formation d’une équipe dédiée à la gestion des risques représentent des étapes importantes vers une utilisation plus responsable l’IA. L’objectif est de s’assurer que les avantages de cette technologie l’emportent sur ses risques.
Morale de l’histoire : C’est l’homme qui doit contrôler la technologie, et non pas l’inverse.
Avis de non-responsabilité
Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.