Aller au contenu principal

IA : FREINER, MAÎTRISER OU ACCÉLÉRER ?

DES ENJEUX INCERTAINS, UNE MAÎTRISE TECHNOLOGIQUE BALBUTIANTE, UNE GOUVERNANCE POLITIQUE INOPÉRANTE

Pour maîtriser la révolution de l’IA, certainement aussi impactante que le climat, la création de gouvernances publiques nationales et internationales (UE) nous semble impérative.

Parallèlement, la création d’une organisation non gouvernementale ( comme le GIEC ) s’impose pour associer toutes les parties prenantes de nos sociétés à la construction d’une vision et l’élaboration d’orientations éthiques, démocratiques, industrielles.

PRÉCÉDENTES PUBLICATIONS DE METAHODOS

APRÈS L’IA, L’IA[G] SE HISSERA-T-ELLE AU NIVEAU DE L’HUMAIN D’ICI 5 ANS ? https://metahodos.fr/2023/11/30/lintelligence-artificielle-generale-pourrait-voir-le-jour-dici-2028/

metahodos.frhttps://metahodos.fr › 2023/09/12LIRE « L’intelligence artificielle n’est pas une question technologique » 12 sept. 2023

metahodos.frhttps://metahodos.fr › 2023/11/02L’INTELLIGENCE ARTIFICIELLE POUR MIEUX COMPRENDRE L’ …2 nov. 2023 —

Nous vous proposons 3 séquences ci contre

1. « Intelligence artificielle : Google va mettre les bouchées doubles »

Titre Le Point qui poursuit :

« Le succès planétaire de ChatGPT a pris de vitesse le géant de Mountain View… qui contre-attaque avec Bard, son robot conversationnel. Et pas question de faire une pause dans la recherche en IA !

« Pour Google, l’arrivée de ChatGPT, mis à disposition gratuitement auprès du grand public le 30 novembre 2022, est apparue comme un « moment Spoutnik », c’est- à-dire une prise de conscience comparable à celle des Américains qui ont découvert en 1957 que les Soviétiques avaient pris l’avantage dans la conquête spatiale. Et pour cause, la technologie sur laquelle repose une grande partie des modèles de langage, le modèle dit « transformeur », avait été développée en interne par des chercheurs du géant californien en 2017, mais rangée au placard parce que jugée trop dangereuse à l’époque. Plus préoccupant, le succès de ChatGPT menace directement le cœur de métier de Google, fondé sur la recherche et qui lui a rapporté tant de dollars. Google a donc lancé en février Bard, un logiciel de que… »

2. « Intelligence artificielle : en France, le pari de la recherche ouverte »

Titre par ailleurs LE POINT

« La France a des arguments à faire valoir dans le domaine de la recherche sur l’intelligence artificielle avec des talents de haut niveau. Et des projets, du même acabit.

« Connaissez-vous Arthur Mensch ? Ce polytechnicien a choisi de quitter le géant britannique DeepMind, acquis par Google en 2014, pour imaginer une alternative européenne, professionnelle et open source au robot conversationnel américain ChatGPT. Il s’est lancé dans l’aventure avec deux anciens de Meta, Guillaume Lample, polytechnicien avec doctorat à Sorbonne Université, et le normalien Timothée Lacroix. « L’intelligence artificielle représente un virage technologique que l’on ne peut pas ignorer, estime Arthur Mensch. Si l’Europe n’investit pas le champ de l’IA, 30 % de son économie dépendra d’acteurs extérieurs. » Or, explique l’entrepreneur, « une bonne partie des talents mondiaux du secteur sont français ou ont été formés en France » … »

3. « L’ancien PDG de Google annonce une catastrophe planétaire à cause de l’IA dans cinq ans »

Titre SLATE QUI POURSUIT :

Toute l’humanité serait en danger.

Eric Schmidt, l’ancien PDG de Google, a pris la parole ce 28 novembre lors d’un sommet organisé par le média Axios, indique Futurism. Celui qui est désormais président de la National Security Commission on Artificial Intelligence a affirmé qu’il n’y avait pas assez de mesures de sécurité en place pour maîtriser la technologie et l’empêcher de causer d’importants dégâts. Schmidt est même allé jusqu’à comparer l’intelligence artificielle (IA) aux bombes atomiques lancées sur le Japon en 1945.

«Après Nagasaki et Hiroshima, il a fallu dix-huit ans pour parvenir à un traité sur l’interdiction des essais [nucléaires] et d’autres choses de ce genre», a-t-il déclaré à Mike Allen, confondateur d’Axios. «Nous n’avons pas ce temps aujourd’hui.» En effet, il pense que l’IA pourrait devenir suffisamment puissante pour nuire à l’humanité d’ici cinq à dix ans seulement.

Des avis divergents

Pour Schmidt, le pire scénario se produira lorsque les ordinateurs pourront prendre leurs propres décisions. Et à ce moment-là, s’ils sont capables d’accéder à des systèmes d’armements ou d’atteindre d’autres capacités terrifiantes, les machines pourraient réussir à mentir aux humains et agir derrière notre dos.

Pour éviter ce genre de catastrophe, Eric Schmidt a demandé la création d’une organisation non gouvernementale, comme le GIEC, pour aider les responsables politiques à prendre des décisions au moment où l’intelligence artificielle deviendra trop puissante.

Cette prise de position ne convainc pas tout le monde. Yann Le Cun, directeur à Meta et chercheur en intelligence artificielle, a par exemple déclaré en octobre au Financial Times que la technologie était loin d’être assez intelligente pour menacer l’humanité.

«Le débat sur le risque existentiel est très prématuré tant que nous n’aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d’apprentissage»,avait-il affirmé.

Comme souvent, il est difficile de trancher entre ces deux extrêmes. Il semblerait, avance Futurism, que le niveau d’inquiétude que nous pouvons légitimement avoir se trouve quelque part au milieu.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.