„Il faut agir très vite pour réguler l'intelligence artificielle” — Genève Vision, un nouveau point de vue

0

L’application Midjourney a aussi fait sensation. Elle fonctionne sur le même principe, mais appliqué au monde de la photographie. Vous avez certainement vu l’arrestation musclée de Donald Trump, Emmanuel Macron au milieu des manifestants en France ou le pape en icône de la mode dans sa doudoune immaculée. Ces images sont fausses et générées par intelligence artificielle (IA).

Et ce n’est qu’une infime partie des domaines conquis par l’IA. Du monde de la surveillance, au monde de l’art, au service de la médecine ou du climat, le marché s’est envolé ces dernières années. De 65 milliards de dollars en 2020, il pourrait même dépasser les 1500 milliards d’ici 2030, selon le dernier rapport des Nations unies. Et tout le monde veut sa part du gâteau. Microsoft a investi 10 milliards de dollars dans OpenAI et vient d’intégrer ChatGPT dans son moteur de recherche. Les autres géants numériques répliquent avec leurs propres logiciels: Bard pour Google, Ernie Bot pour Baidu, Tongyi Qianwen pour Alibaba.

Lire aussi: Yuval Noah Harari: « L’IA est fondamentalement différente de toutes les inventions de l’humanité »

Risques et dérives

L’intelligence artificielle fascine autant qu’elle inquiète. Le succès fulgurant de ChatGPT a ravivé les craintes de voir ces innovations se développer sans aucun contrôle. Sabine Süsstrunk, directrice du Laboratoire d’images et de représentation visuelle de la Faculté d’informatique et communications à l’EPFL, pointe les risques de la démocratisation de ces outils, désormais accessibles à large échelle: « Maintenant, on voit qu’avec ces outils on peut tricher, truquer les visages, les sons, les e-mails. Je trouve cela dangereux. »

Dans le laboratoire qu’elle dirige à Lausanne, ses équipes travaillent notamment sur les deepfakes, ces vidéos truquées grâce à l’intelligence artificielle, qui permettent de faire dire quasiment tout à n’importe qui. Les chercheurs tentent de mettre au point une IA capable de détecter ces fausses images. Cet outil fonctionne bien pour identifier les fausses vidéos, mais n’est pas encore au point dans le cas de photographies, souligne Sabine Süsstrunk.

Les avancées du domaine sont si rapides qu’elles pourraient rendre tout aussi rapidement inopérants ces logiciels de détection. L’outil de l’EPFL fonctionne bien « aujourd’hui. Demain, je ne suis pas sûre », précise la chercheuse.

Lire aussi: Quand les scientifiques regrettent leurs inventions technologiques

Un moratoire réclamé

Fin mars, le patron de SpaceX et Tesla Elon Musk s’est joint aux centaines d’experts du domaine qui réclament un moratoire de six mois dans le développement des applications les plus puissantes. Un recul nécessaire selon eux face à une technologie potentiellement incontrôlable. Le milliardaire avait alors pointé « le danger qu’une intelligence artificielle puisse s’éloigner des intentions collectives humaines. » Pour Sabine Süsstrunk, ce risque relève encore d’un récit de science-fiction. « On est encore loin de systèmes plus intelligents que nous », affirme-t-elle.

Elon Musk a annoncé dans la foulée le développement de son propre logiciel « TruthGPT », censé intégrer plus de garde-fous que ses concurrents. Le créateur de ChatGPT Sam Altman avait lui-même évoqué dans un entretien à ABC New ses craintes de voir son application dévoyée à des fins de désinformation à grande échelle ou pour des cyberattaques.

Lire aussi le grand format: Intelligence artificielle, ange ou démon?

Quelle régulation?

L’Italie avait décidé de bloquer provisoirement ChatGPT pour protéger les mineurs et les données personnelles des utilisateurs. Elle vient d’autoriser à nouveau l’application après les garanties d’OpenAI pour plus de transparence et l’ajout d’un mécanisme de contrôle de l’âge.

La régulation de l’intelligence artificielle n’en est qu’à ses balbutiements. L’Union européenne a lancé il y a deux ans un projet de règlement pour encadrer son usage et sa commercialisation. Il pourrait aboutir ces prochains mois. Aux Etats-Unis, Joe Biden s’est entretenu début mai avec les dirigeants de plusieurs entreprises actives dans l’IA, notamment Google et Microsoft. Le président américain a tenu à rappeler la nécessité d’innover de manière responsable. « L’intelligence artificielle est l’un des outils les plus puissants de notre époque, mais pour saisir ses opportunités, nous devons d’abord atténuer ses risques », a précisé la Maison Blanche sur son compte Twitter.

« Il faut agir très vite pour réguler l’intelligence artificielle », insiste Sabine Süsstrunk. Selon la chercheuse, seule une réglementation universelle pourra être efficace dans ce domaine. Elle propose notamment de contraindre les entreprises à apposer « une watermark » (un tatouage numérique), sur les images créées grâce à leur logiciel. « Même si ce n’est pas visible à l’oeil nu, la source serait détectable », dit-elle. « Il faut réguler les boîtes qui font ces outils. (…) C’est leur responsabilité de ne pas aller trop vite dans le déploiement de leur technologie. »

Sabine Süsstrunk n’est pas pour autant pessimiste et appelle à « ne pas sous-estimer l’intelligence humaine », pour différencier le vrai du faux.

Mélanie Ohayon

Les Etats-Unis, numéro un des investissements privés dans l’IA

Dans cette course à l’innovation, Américains et Chinois dominent, à la fois dans la recherche et l’industrie.

En termes d’investissements privés sur les dix dernières années, les Etats-Unis sont largement en tête, devant la Chine et le Royaume-Uni.

Les Etats-Unis, numéro un des investissements privés dans l’intelligence artificielle. [Géopolitis – RTS]