Lucy Powell appelle à réglementer l’intelligence artificielle (IA) au même titre que les médicaments et l’énergie nucléaire.
D’après Lucy Powell, la porte-parole du parti travailliste britannique, les législateurs devraient mettre en place un régime de licences pour les entreprises IA comme OpenAI.
Vers une réglementation stricte de l’intelligence artificielle (IA) ?
Selon Lucy Powell, les législateurs britanniques devraient essayer de réglementer l’intelligence artificielle au même titre que l’énergie nucléaire et l’industrie pharmaceutique.
Face à la croissance exponentielle des modèles de langages IA, les autorités britanniques cherchent à contrôler cette nouvelle technologie.
Rishi Sunak, le Premier ministre britannique, se rendra prochainement à la Maison Blanche pour proposer la création d’une agence internationale de réglementation IA au Royaume-Uni.
De son côté, Keir Starmer, le chef du parti travailliste, rencontrera cette semaine les principaux dirigeants de Google AI. Notons par ailleurs que Google a récemment lancé une fonctionnalité IA qui permet de détecter les scams.
L’IA est également dans le viseur des législateurs européens. Selon eux, les entreprises qui utilisent de grands modèles de langages, comme Bard de Google ou ChatGPT d’OpenAI, devraient mettre en place des mesures de protection pour lutter contre les fake news.
Vera Jourova, directrice adjointe de la Commission européenne, a déclaré :
“Les entreprises qui proposent des services susceptibles de diffuser des fausses informations générées par l’IA devraient mettre en place des systèmes pour identifier ce type de contenu et mettre en garde les utilisateurs”.
Pour en savoir plus, nous vous invitons à lire notre guide sur la réglementation crypto en Europe.
Le Royaume-Uni veut passer à la vitesse supérieure
Matt Clifford, le conseiller IA du Premier ministre britannique, a déclaré ce lundi que “l’intelligence artificielle peut tuer l’humanité en moins de deux ans”. D’après lui, le rythme de croissance actuel de cette technologie doit inciter les législateurs à agir au plus vite.
“Vous pouvez utiliser l’IA aujourd’hui pour apprendre à fabriquer des armes biologiques ou pour lancer des cyberattaques à grande échelle”, a-t-il averti.
Matt Clifford estime également que le plus grand problème des législateurs est le manque de compréhension de la technologie IA. Pire encore, il pense que même les entreprises qui ont développé des chatbots IA ne savent pas comment ces derniers génèrent des réponses.
“Même lorsque le code est open-source…nous ne pouvons pas avoir suffisamment de visibilité sur le fonctionnement de ces outils. Il est important de ne pas confondre ouverture et accessibilité avec compréhension”.
D’après le spécialiste, les audits et les évaluations des modèles d’intelligence artificielle doivent faire partie intégrante du nouveau cadre réglementaire.
“Certains pays, comme la Chine et la Russie, ne voient pas la sécurité IA du même œil que le reste du monde. Cependant, l’objectif premier de tous les pays est d’utiliser cette technologie pour améliorer le monde”.
Notons par ailleurs que Elon Musk a déclaré lors d’une interview avec Wall Street Journal que l’intelligence artificielle pourrait contribuer à la paix mondiale.
En mars, le célèbre milliardaire a signé une pétition visant à suspendre le développement de l’intelligence artificielle pendant au moins six mois.
Néanmoins, Brian Armstrong, le PDG de Coinbase, pense que personne n’est qualifié pour assurer une bonne gouvernance de l’IA.
Morale de l’histoire : L’intelligence artificielle n’est qu’une technologie parmi tant d’autres. À nous de l’utiliser à bon escient.
Avis de non-responsabilité
Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.