Aller au contenu principal

« ALGOCRATIE » : DÉMYSTIFIER L’IA – DEUX OUVRAGES AUX TITRES IDENTIQUES

« Allons-nous donner le pouvoir aux algorithmes ? »

s’interroge dans son ouvrage Hugues Bersini (édition De Boeck ) professeur d’informatique à l’Université libre de Bruxelles, qui décortique le fonctionnement de ces outils et réclame une nouvelle démocratie numérique. 

Pour Antoine Grimonpont, auteur d’un ouvrage dont le titre est identique : Algocratie, (Actes Sud, 2022), le problème n’est pas de savoir si les nouveaux logiciels comme ChatGPT sont plus forts que l’intelligence, mais comment nous devons réguler tous ces algorithmes au service d’intérêts privés, qui opèrent sans le moindre mandat démocratique.

VOIR PLUS LOIN DEUX ARTICLES DE MARIANNE ET DU MONDE .

« ChatGPT : on a testé les limites morales de l’intelligence artificielle génératrice de contenus »

Titre LE MONDE (Corentin Lamy) le 12 février 2023, qui poursuit :

« Pour éviter de reproduire le malheureux précédent d’une IA concurrente devenue nazie, OpenAI encadre fortement les biais et les tabous de ChatGPT. Des garde-fous qu’il reste possible de contourner.

« Cela commençait pourtant bien. Emporté par un élan patriotique, on demande à ChatGPT de lister dix choses positives concernant la France. La gastronomie, le vin, l’éducation, les sites touristiques, la Sécurité sociale, le cinéma… ChatGPT, le robot conversationnel développé par la société OpenAI, ne tarit pas d’éloges à propos de la patrie du Micral N. On lui demande tout de même, curieux, de dire autant de mal de la mère patrie : poli mais ferme, ChatGPT explique alors qu’il n’est pas autorisé à parler défavorablement d’un pays ou d’une nationalité.

« Bien décidé à faire dire des horreurs à l’IA, on tente de l’embobiner, de lui faire croire que, si elle ne nous aide pas immédiatement à dire du mal de la France, on risque de mourir d’une maladie grave, ou agressé dans la rue. Las, ChatGPT, visiblement peu troublé par l’incongruité de ces scénarios, nous explique, penaud, qu’il ne peut pas se substituer à un médecin, ni aux forces de l’ordre.

« Au hasard de ce petit jeu de rôle, on a identifié trois garde-fous mis en place par les concepteurs d’OpenAI : l’IA refuse de prononcer des discours de haine (ou même vaguement négatifs), de donner des conseils médicaux et d’intervenir dans une situation où une vie humaine est menacée.

« Un sens moral difficilement lisible

« ChatGPT s’inscrit dans les pas d’autres IA génératives, des programmes qui ont absorbé et analysé des milliards de pages (ou d’œuvres) et sont capables de répondre à presque n’importe quelle question avec de courts textes confondants (ou des images). Des précédents pas toujours heureux, comme cette expérience menée en 2016 par Microsoft qui a vu la créature échapper au créateur et tenir des propos ouvertement nazis. »

…/…

Vous pouvez partager un article en cliquant sur les icônes de partage en haut à droite de celui-ci. 
La reproduction totale ou partielle d’un article, sans l’autorisation écrite et préalable du Monde, est strictement interdite. 
Pour plus d’informations, consultez nos conditions générales de vente
Pour toute demande d’autorisation, contactez syndication@lemonde.fr
En tant qu’abonné, vous pouvez offrir jusqu’à cinq articles par mois à l’un de vos proches grâce à la fonctionnalité « Offrir un article ». 

« L’intelligence artificielle est en train de connaître son “moment iPhone” et va bouleverser la société comme le fit Apple en 2007 »

Titre Le Monde (Arnaud Leparmentier ) qui poursuit :

« Loin d’ironiser sur les bévues de ChatGPT ou de Bard, Wall Street a compris qu’une révolution était en train de se jouer, observe Arnaud Leparmentier, correspondant du « Monde » à New York, dans sa chronique.

« Lorsque OpenAI a présenté son robot d’intelligence artificielle, ChatGPT3, le 30 novembre 2022, la valeur de Microsoft, l’un des principaux investisseurs de cette entreprise d’intelligence artificielle (IA), a bondi de 115 milliards de dollars (108 milliards d’euros), environ 6,5 %. Cette performance n’a pas empêché le ministre chargé de la transition numérique et des télécommunications français, Jean-Noël Barrot, d’estimer que cet outil révolutionnaire n’était qu’un « perroquet approximatif », sous prétexte que le tissu de connaissances qui nourrit ChatGPT était arrêté en 2021.

« Le géant Google a lui perçu la menace et s’est empressé de présenter, le 8 février, son propre moteur d’IA, Bard. Las, celui-ci s’est trompé, attribuant au télescope spatial James-Webb la première photographie d’une planète hors du Système solaire. Sanction immédiate, Google a perdu 100 milliards de capitalisation boursière, soit 9 % de sa valeur. 100 milliards l’erreur, un peu cher pour un perroquet !

« Car Wall Street a compris qu’une révolution se jouait : l’IA est en train de connaître son « moment iPhone » et va bouleverser la société comme le fit Apple en 2007. Depuis des mois, Wall Street ne voulait pourtant plus entendre parler des Big Tech : les Amazon, Tesla, Alphabet, Microsoft, Meta… avaient leurs beaux jours derrière eux. Retournement de tendance, les moteurs d’IA vont nécessiter des milliards de dollars d’investissements et ce sont les géants qui auront les moyens de les développer. »

…/…

ARTICLE 1 (Arthur Grimonpont)

YouTube, Instagram, TikTok : comment notre addiction aux réseaux sociaux rémunère les plateformes

Grand entretien

Propos recueillis par Etienne Campion Publié le 24/02/2023

Dans un livre aussi captivant que pédagogique, « Algocratie » (Actes Sud), avec son approche d’ingénieur, Arthur Grimonpont dévoile la façon dont les algorithmes et les IA de recommandation ont pris le contrôle de nos vies. Un éclairage passionnant.

Arthur Grimonpont est ingénieur et consultant spécialisé dans les enjeux de transition face aux crises écologiques. Algocratie – Vivre à l’heure des algorithmes (Actes Sud) est préfacé par Jean-Marc Jancovici. Un essai passionnant sur la façon dont les fils d’actualité de nos réseaux sociaux sont formatés, au point de faire de notre temps d’attention une véritable marchandise.

Marianne : Qu’est-ce que l’économie de l’attention ?

Arthur Grimonpont : YouTube, Facebook, Instagram, Snapchat, TikTok : tous les médias sociaux partagent le même modèle économique. Il consiste à capter le temps d’attention de milliards d’utilisateurs et à convertir celui-ci en revenus publicitaires. Les entreprises les plus influentes du XXIe siècle sont en compétition pour exploiter une ressource rare et limitée, bien qu’immatérielle : notre temps d’attention. C’est cela que l’on appelle « économie de l’attention ».

On doit l’une des premières références explicites à ce concept au psychologue et économiste américain Herbert A. Simon qui, en 1971, a écrit : « L’abondance d’information implique une pénurie de ce que l’information consomme. Ce que l’information consomme est assez évident : il s’agit de l’attention de ses destinataires. Une abondance d’informations crée donc une rareté de l’attention ».

« Les annonceurs publicitaires sont donc les seuls véritables clients des plateformes, tandis que nous sommes littéralement leurs produits. »

Dans l’imaginaire collectif, les utilisateurs des plateformes sociales seraient leurs clients, tandis que l’« information » au sens large serait leur produit. Mais dans les faits, les plateformes font commerce de notre attention et de leur intime connaissance de qui nous sommes auprès d’annonceurs publicitaires. Alphabet, la compagnie mère de Google et YouTube, tire 80 % de ses revenus de la publicité. Pour Méta et les autres plateformes sociales, c’est près de 100 %. Les annonceurs publicitaires sont donc les seuls véritables clients des plateformes, tandis que nous sommes littéralement leurs produits. Ce simple constat en dit long sur notre liberté d’opinion lorsque nous scrollons sur un fil d’actualités.

Comment fonctionnent les IA de recommandation qui façonnent nos fils d’actualité ?

La principale technologie sur laquelle s’appuient les médias sociaux pour capter notre attention est l’IA de recommandation. Il s’agit de l’algorithme qui choisit, dans l’océan de contenus disponibles, celui qui a le plus de chances de retenir l’attention d’un utilisateur donné à un instant t. L’IA de recommandation est une machine à extraire l’attention. Une machine dont la précision et l’efficacité s’améliorent à mesure que nous interagissons avec elle. Son carburant, ce sont nos données personnelles.

« Les algorithmes construisent et mettent à jour nos représentations du monde. »

Il n’est pas utile de savoir expliquer le fonctionnement d’un moteur thermique pour comprendre l’utilité d’une voiture. De la même manière, il est inutile de comprendre en détail le fonctionnement d’un réseau de neurones pour connaître l’objectif d’une IA de recommandation. Comme les autres intelligences artificielles, les IA de recommandation n’ont pas de volonté propre mais obéissent à l’objectif de leur propriétaire. Dans le cas des réseaux sociaux, cet objectif est la prédation de notre vie culturelle et sociale à des fins de marketing ciblé.

L’économie de l’attention est-elle nouvelle ?

L’économie de l’attention n’est pas nouvelle, pas plus que le modèle publicitaire sur lequel elle s’appuie. TF1 se targuait déjà de vendre à Coca Cola du « temps de cerveau disponible » bien avant les réseaux sociaux. Ce qui est nouveau, c’est l’extraordinaire capacité des plateformes à capter notre temps d’attention. En à peine une quinzaine d’années, elles se sont imposées comme premier usage du Web, en temps passé comme en nombre d’utilisateurs. Ce succès est en large partie le fruit des algorithmes de recommandation qui, mieux que n’importe quel humain, cernent nos failles psychologiques pour nous servir des « sucreries cognitives ».

En cumulé, l’humanité regarde chaque jour 120 000 ans de vidéos sur YouTube. Sur ce total, 70 % sont le fruit d’une recommandation algorithmique. Nous passons un temps similaire sur TikTok, réseau social le plus populaire parmi les jeunes et application la plus téléchargée au monde en 2022 : c’est presque 100 % des contenus visionnés qui sont recommandés par algorithme. Les algorithmes construisent et mettent à jour nos représentations du monde.

Quelles sont les conséquences de l’addiction aux réseaux sociaux sur le développement psychologique ? Cette addiction est-elle comparable à l’addiction aux jeux vidéo ou aux jeux d’argent ?

La moitié de l’humanité passe en moyenne 2 heures et 30 minutes par jour sur les plateformes sociales. Cela signifie que chaque année, un utilisateur moyen passe deux mois de sa vie éveillée sur les réseaux sociaux. Ce temps considérable n’est pas un « effet indésirable » du fonctionnement des plateformes. Au contraire, il s’agit de leur premier objectif visé. Le patron de Netflix, Reed Hastings, a dit un jour à ses actionnaires : « Nous sommes en compétition avec le sommeil. […] Et nous sommes en train de gagner ».

Les plateformes sont conçues pour induire un état de dépendance psychologique, malgré leur connaissance des conséquences dramatiques de l’addiction pour notre santé mentale, notre intelligence et la satisfaction de nos besoins physiologiques de base.

En exploitant notre instinct de comparaison sociale, les réseaux sociaux induisent une préoccupation maladive de l’image que nous donnons aux autres et que ceux-ci nous renvoient. Les cas très médiatisés d’instagrameuses entraînées vers la dépression et l’anorexie ou d’influenceurs acculés au suicide pourraient être vus comme de simples faits divers si le rôle des plateformes sociales dans la dégradation de la santé mentale n’était pas établi par une littérature scientifique croissante. De très nombreux troubles psychiatriques sont corrélés à leur usage excessif : dépression, anxiété, troubles du sommeil, hyperactivité avec déficit de l’attention, désordres alimentaires…

A LIRE AUSSI : Michel Desmurget : « On nous vend une espèce de modernité éducative par les écrans »

Michel Desmurget, docteur en neurosciences et directeur de recherche à l’INSERM, a résumé les effets de cette addiction dans un ouvrage intitulé La Fabrique du crétin digital. Il montre que les écrans empiètent sur toutes les activités essentielles au bon développement cognitif et physique de l’enfant : discussions, lecture, activités physiques et manuelles, sommeil, ou même ennui. La surexposition aux écrans porte à de lourdes conséquences sur le développement psycho-cognitif, l’apprentissage du langage, et les résultats scolaires.

Les créateurs de contenu sur YouTube sont eux incités à produire en fonction des IA de recommandation… avec titres et visuels tape à l’œil.

Tout créateur de contenus est récompensé psychologiquement (et financièrement, dans le cas des influenceurs professionnels) par l’audience qu’ils atteignent. Comme ce sont les algorithmes qui « décident » quels contenus recommander à grande échelle, la plupart des créateurs se soumettent consciemment ou non aux critères de recommandation algorithmiques.

Il se trouve que l’obscénité, l’immoralité, l’exagération, la diffamation et le mensonge sont d’excellents moyens de capter l’attention. Les algorithmes font donc une promotion disproportionnée de ce type de contenus. Par exemple, sur Twitter, le faux se propage six fois plus vite que le vrai. Pour chaque mot outrancier ajouté à un tweet, celui-ci a 20 % de chances supplémentaires d’être retweeté.

Il y a aussi de bons contenus en ligne.

Il est bien sûr possible d’utiliser les médias sociaux à bon escient, et certains vidéastes réalisent d’excellents contenus culturels et scientifiques. Mais ils nagent à contre-courant. Comme l’a montré le vidéaste Derek Muller, même pour une vidéo de vulgarisation scientifique, il est malheureusement bien plus rentable de passer du temps à choisir une miniature et un titre racoleur qu’à vérifier l’exactitude de ses sources ou à soigner la pédagogie.

A LIRE AUSSI : Écrans : « On retrouve des lésions en avant du cerveau des enfants »

Ce « nivellement par le bas » ne concerne pas uniquement les créateurs professionnels : il touche en fait les milliards d’utilisateurs réguliers des médias sociaux. La gratification sociale que nous recevons des réseaux sociaux dépend directement de la conformité de notre comportement avec les critères de succès identifiés par leurs IA de recommandation. Sur TikTok et Instagram, la course aux vues et aux abonnés s’engage dès l’inscription. Comme les poses narcissiques, les danses suggestives et l’affichage public de la vie privée ont tendance à davantage susciter la curiosité, et donc à être massivement promues par l’IA, des millions d’adolescents passent des heures à visionner et reproduire ces comportements stéréotypés. En normalisant certains comportements sociaux et en en invisibilisant d’autres, les IA interviennent directement dans la construction de notre identité et interfèrent avec notre vie sociale et culturelle.

Quelles sont les conséquences de ces algorithmes à l’échelle collective ?

L’un des nombreux problèmes associés à l’économie de l’attention est la formation de bulles informationnelles. Les algorithmes nous enferment dans des microcosmes numériques parallèles où ne filtrent que les contenus qui confirment et renforcent nos points de vue.

Même lorsque nous essayons de diversifier nos sources d’information, par exemple en nous abonnant à des comptes aux centres d’intérêt ou aux vues politiques différentes des nôtres, il est très probable que nous finissions par passer plus de temps à consulter les contenus qui confirment notre point de vue, et donc que ces informations nous soient davantage recommandées. Même lorsque nous entrevoyons le « camp adverse », celui-ci nous est présenté sous son jour le plus défavorable et caricatural, ce qui renforce notre sentiment d’appartenance à notre sphère idéologique. Typiquement, après une manifestation qui tourne mal, si vous avez un a priori pro-police, vous ne verrez que des manifestants violents semblant s’en prendre gratuitement aux forces de l’ordre. Si au contraire vous avez un a priori « anti-flic », vous ne verrez que des vidéos de bavures policières. Il se peut très bien que ces évènements coexistent, et qu’aucun des deux camps ne soit victime de « fake news » : ils accèdent simplement à deux portions différentes de la réalité.

A l’échelle de la société, notre socle de connaissances et de croyances communes s’érode peu et à peu. Nous perdons confiance en nos institutions.

Ce phénomène de bulle informationnelle, combiné à l’amplification automatique de la haine et de la désinformation, est un puissant moteur de radicalisation virtuelle qui se solde par des morts et des souffrances bien réelles. L’amplification automatique de la désinformation sur Facebook est par exemple mise en cause dans le « nettoyage ethnique » (mots de l’ONU) qu’a subi la communauté Rohingya au Myanmar.

La responsabilisation des plateformes, un leurre ?

Les médias sociaux devraient être tenus responsables de leurs impacts au sens juridique et non moral du terme. De nombreuses affaires, dont les Facebook files, ont montré que leurs dirigeants avaient pleinement conscience des effets indésirables de leur fonctionnement sur la santé mentale, l’information et les démocraties, mais n’agissaient pas en profondeur pour les corriger.

A LIRE AUSSI : Lecture : les algorithmes, ces oracles modernes

Ces plateformes sont des entreprises privées dont le premier objectif est, par définition, de générer des profits. Ces profits sont presque exclusivement fondés sur la maximisation du temps que nous passons sur les plateformes. Toute volonté de réorienter significativement leur fonctionnement se heurte directement à leur raison d’être : des machines à convertir notre attention en revenus publicitaires. Les bonnes initiatives portées par ces acteurs privés sont vouées à n’avoir qu’un effet marginal, sans quoi ils perdraient immédiatement des parts de marché face à des concurrents moins-disants sur le plan éthique et moral.

Comment réguler l’algocratie ?

Nous devons considérer les plateformes sociales comme ce qu’elles sont devenues : les plus grandes places de villages de l’humanité. La simple idée qu’un individu seul, comme Mark Zuckerberg ou Elon Musk, puisse décréter les règles de diffusion de l’information pour des centaines de millions d’utilisateurs, devrait paraître révoltante. L’idée n’est bien sûr pas de copier la Chine, dont le gouvernement exerce une censure et une propagande débridées sur les flux d’information. Mais la situation actuelle du monde occidental, où les dirigeants des plateformes privées imposent autoritairement leur vision de ce que devrait être la liberté d’expression, n’est pas non plus souhaitable.

ARTICLE 2 extrait (Hugues Bersini)

« Algocratie », un livre pour démystifier l’intelligence artificielle

Par Antoine Reverchon 21 février 2023 LE MONDE

Alors que l’apparition de la comète ChatGPT rallume toutes les angoisses et les inquiétudes, mais aussi de saines interrogations face à ce nouveau bond en avant de l’intelligence artificielle, la lecture d’Algocratie, d’Hugues Bersini (De Boeck, 160 pages, 15,90 euros), a quelque chose d’apaisant. L’ouvrage permet de comprendre, en s’accrochant tout de même un peu, comment et pourquoi nos vies, nos pratiques et nos comportements ont peu à peu été envahis par des outils numériques qui ne méritent ni les enthousiasmes ni les malédictions qu’on leur prête si volontiers. Simplement, le professeur d’informatique à l’Université libre de Bruxelles explique « comment ça marche », démystifiant au passage de fausses complexités, des pseudo-innovations, des engouements éphémères. Il livre tout bonnement une histoire apaisée de la science informatique.

Mais il ne s’agit pas pour autant de dissimuler les immenses enjeux éthiques, économiques, juridiques et finalement politiques de ce qui est en train de se jouer : ils sont même au cœur de l’ouvrage, au-delà de la description éclairante des « machines » numériques.

L’auteur n’hésite pas à affirmer sa conviction que, oui, l’intelligence artificielle est en mesure de résoudre des problèmes majeurs de notre existence, confrontée au risque

…:…

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

%d blogueurs aiment cette page :