L’IA générative recommande de manger une pierre par jour, conseille de mettre de la colle sur votre pizza et affirme que les astronautes ont rencontré des chats sur la lune. Tandis que la Chine se lance avec enthousiasme dans les possibilités de l’intelligence artificielle en matière de service public de santé, d’éducation pour ce pays continent et la planète… les expériences dans notre monde témoignent des incohérences que risque de provoquer un bricolage des capacités réelles de l’intelligence artificielle avec l’exemple de google. Dans le fond l’IA dans ce cas est comme la politique de nos sociétés : elle ne sait plus ce qui est juste et vrai, simplement ce qui est “populaire” et donc confond réalité et démagogie clientéliste. Si l’on en croit la démonstration de l’article, dans nos sociétés dont le vecteur est uniquement le profit, nous sommes condamnés en matière de “progrès” à en respirer les gaz d’échappement pas à cause de l’IA mais ce qu’on en fait … Édifiant ! (note et traduction de Danielle Bleitrach pour histoire et société)
Par TOBY WALSH 30 MAI 2024
Google a déployé sa dernière fonctionnalité de recherche expérimentale sur Chrome, Firefox et le navigateur d’applications Google à des centaines de millions d’utilisateurs.
« AI Overviews » vous évite de cliquer sur des liens en utilisant l’IA générative – la même technologie qui alimente le produit rival ChatGPT – pour fournir des résumés des résultats de recherche. Demandez « comment garder les bananes fraîches plus longtemps » et il utilise l’IA pour générer un résumé utile de conseils tels que les conserver dans un endroit frais et sombre et à l’écart d’autres fruits comme les pommes.
Mais posez-lui une question plus subtile et les résultats peuvent être désastreux, voire dangereux. Google s’efforce actuellement de résoudre ces problèmes un par un, mais c’est un désastre de relations publiques pour le géant de la recherche et un jeu de taupe difficile.
AI Overviews vous dit utilement que “Whack-A-Mole est un jeu d’arcade classique où les joueurs utilisent un maillet pour frapper des taupes qui apparaissent au hasard pour des points. Le jeu a été inventé au Japon en 1975 par le fabricant de jeux TOGO et s’appelait à l’origine Mogura Taiji ou Mogura Tataki.”
Mais AI Overviews vous dit également que « les astronautes ont rencontré des chats sur la lune, joué avec eux et fourni des soins ». Plus inquiétant encore, il recommande également « vous devriez manger au moins un petit caillou par jour » car « les cailloux sont une source vitale de minéraux et de vitamines », et suggère de mettre de la colle dans la garniture de pizza.
Un problème fondamental est que les outils d’IA générative ne savent pas ce qui est vrai, juste ce qui est populaire. Par exemple, il n’y a pas beaucoup d’articles sur le web sur la consommation de pierres car c’est évidemment une mauvaise idée.
Il y a cependant un article satirique très lu de The Onion sur la consommation de pierres. Et donc l’IA de Google a basé son résumé sur ce qui était populaire, pas sur ce qui était vrai.
Un autre problème est que les outils d’IA générative n’ont pas nos valeurs. Ils sont formés sur une grande partie du Web.
Et bien que des techniques sophistiquées (qui portent des noms exotiques tels que « l’apprentissage par renforcement à partir de la rétroaction humaine » ou RLHF) soient utilisées pour éliminer le pire, il n’est pas surprenant qu’elles reflètent certains des préjugés, des théories du complot et pire que l’on trouve sur le Web. En effet, je suis toujours étonné de voir à quel point les chatbots IA sont polis et bien élevés, compte tenu de ce sur quoi ils sont formés.
Est-ce l’avenir de la recherche ?
Si c’est vraiment l’avenir de la recherche, alors nous allons avoir un parcours cahoteux. Google est, bien sûr, en train de rattraper OpenAI et Microsoft.
Les incitations financières à mener la course à l’IA sont immenses. Google est donc moins prudent que par le passé en poussant la technologie entre les mains des utilisateurs.
En 2023, le directeur général de Google, Sundar Pichai, a déclaré :
Nous avons été prudents. Il y a des domaines où nous avons choisi de ne pas être les premiers à sortir un produit. Nous avons mis en place de bonnes structures autour d’une IA responsable. Vous continuerez à nous voir prendre notre temps.
Cela ne semble plus être aussi vrai, car Google répond aux critiques selon lesquelles il est devenu un concurrent important et léthargique.
C’est une stratégie risquée pour Google. Cela comporte le risque de perdre la confiance du public dans Google en tant qu’endroit où trouver des réponses (correctes) aux questions.
Mais Google risque également de saper son propre modèle commercial d’un milliard de dollars. Si nous ne cliquons plus sur les liens et lisons simplement leur résumé, comment Google continue-t-il à gagner de l’argent ?
Les risques ne se limitent pas à Google. Je crains qu’une telle utilisation de l’IA ne soit préjudiciable à la société en général. La vérité est déjà une idée quelque peu contestée et fongible. Les contre-vérités de l’IA risquent d’aggraver la situation.
Dans une décennie, nous pourrions considérer 2024 comme l’âge d’or du Web, lorsque la plupart du contenu généré par l’homme était de qualité avant que les robots ne prennent le relais et ne remplissent le Web de contenu synthétique et de plus en plus de mauvaise qualité généré par l’IA.
L’IA a-t-elle commencé à respirer ses propres gaz d’échappement ?
La deuxième génération de grands modèles de langage est probablement et involontairement entraînée sur certains des résultats de la première génération. Et de nombreuses startups d’IA vantent les avantages de la formation sur des données synthétiques générées par l’IA.
Mais s’entraîner sur les gaz d’échappement des modèles d’IA actuels risque d’amplifier même les petits biais et erreurs. Tout comme respirer les gaz d’échappement est mauvais pour les humains, c’est mauvais pour l’IA.
Ces préoccupations s’inscrivent dans un tableau beaucoup plus large. À l’échelle mondiale, plus de 400 millions de dollars américains sont investis chaque jour dans l’IA. Et les gouvernements commencent tout juste à se rendre compte que nous pourrions avoir besoin de garde-fous et de réglementations pour garantir une utilisation responsable de l’IA, compte tenu de ce torrent d’investissements.
https://25e546d207c7737d7ff5324e971d5dc9.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html
Les sociétés pharmaceutiques ne sont pas autorisées à libérer des médicaments nocifs. Les constructeurs automobiles non plus. Mais jusqu’à présent, les entreprises technologiques ont été largement autorisées à faire ce qu’elles veulent.
Toby Walsh, professeur d’IA, chef de groupe de recherche, UNSW Sydney
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original
Vues : 67