Effectivement les grandes capacités du cerveau humain, celle correspondant à l’abstraction ou au concept, mais aussi celle de l’apprentissage et de sa transmission, sont inégalées et doivent être à la base de l’éducation aujourd’hui, mais ce que l’on mesure mal c’est ce que Spinoza n’a cessé de nous dire, à savoir qu’il y avait là la clé du plaisir, de la joie à vivre… C’est peut-être même la seule qui ne se paye pas par de l’angoisse et des sentiments dépressifs et mortifères, peut-être parce qu’elle est le fondamental de l’être humain, celui qui s’identifie à la vie y compris dans le saut civilisationnel du numérique et de l’intelligence artificielle, transition qui engendre la panique. Apprendre ce verbe traduit bien les deux sens, la dialectique du vivant humain et c’est ce que je trouve courageux dans le socialisme chinois, cubain, ou autres, la conscience des dangers et la volonté de tabler sur ce vivant-là dans cette dialectique de l’espèce entre individu et collectif. Imaginer que c’est la logique de Blanquer par rapport à l’humanisme c’est ne pas mesurer l’investissement non seulement matériel mais moral que les sociétés socialistes consacrent à l’éducation. (note de Danielle Bleitrach pour histoireetsociete)
Par Elena Sender le 09.10.2021
Notre cerveau a un super-pouvoir, celui d’apprendre pour s’adapter en permanence à l’environnement. Pour le chercheur en neurosciences Stanislas Dehaene, il est fondamental de mieux comprendre la biologie de cette capacité pour la renforcer.
Stanislas Dehaeneest titulaire de la chaire de psychologie cognitive au Collège de France et président du Conseil scientifique de l’Éducation nationale.CEA – BENOIT DECOUT/REA
Cet article est issu du magazine Sciences et Avenir – La Recherche n°896 daté octobre 2021.
La science peut aider à apprendre ! Telle est l’excellente nouvelle qu’apporte Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France et président du Conseil scientifique de l’Éducation nationale. Il est aussi la figure de proue française d’un mouvement international, nommé “éducation fondée sur des données probantes” (en anglais evidence-based education) qui évalue par des méthodes expérimentales rigoureuses les effets de différentes pratiques pédagogiques. Fort de trente ans d’études et d’expériences, notamment dans l’Unité de neurosciences cognitives qu’il dirige au centre Neurospin (CEA, Saclay), il livre à Sciences et Avenir les clés de l’apprentissage. Des clés qui, lorsqu’on les utilise, permettent au cerveau humain de mieux apprendre à apprendre.
Sciences et Avenir : Alors que les progrès du machine learning (apprentissage de la machine) sont époustouflants, qui, du cerveau humain ou de la machine, apprend le mieux ?
Stanislas Dehaene : À l’heure actuelle, l’efficacité du cerveau humain reste inégalée dans le domaine de l’apprentissage. Tout d’abord parce qu’il a une capacité unique d’abstraction. Alors que la machine n’analyse la présence d’un objet que sur des éléments anecdotiques de l’image (couleur, forme), l’humain reconnaît l’essence même d’un objet par sa capacité de raisonnement et d’abstraction. Il distingue une chaise par exemple même si elle n’est qu’un seul pied de métal plié. Et il en va ainsi du concept de tous les objets, animaux etc. De plus, le cerveau humain est incroyablement rapide pour apprendre. Une publication montre que l’intelligence artificielle (IA) de l’entreprise britannique DeepMind a dû accumuler 900 heures de jeu sur une console Atari pour atteindre un niveau qu’un être humain a atteint en deux heures ! Ou encore, selon une étude du linguiste Emmanuel Dupoux, directeur d’étude à l’École des hautes études en sciences sociales (EHESS, Paris), un enfant apprend sa langue maternelle en entendant de 500 à 1000 heures de parole par an alors que les meilleurs systèmes informatiques existant exigent de 20 à 1000 fois plus de données. Autre caractéristique : contrairement aux machines, l’apprentissage humain est social, il se transmet. Plus que des Homo sapiens, nous sommes des Homo docens (qui enseignent). C’est grâce à ces extraordinaires capacités d’apprentissage et de transmission du savoir que l’espèce humaine a survécu.
Vues : 174
Jeanne Labaigt
Je me souviens d’un exemple qu’avait donné au tout début de l’informatique (dans les années 1970) pour ce qui était de la compréhension des langues naturelles, un collègue de mon mari .
Une phrase comme : “le professeur envoya l’élève chez le censeur parce qu’il lançait des boulettes” était très difficile de compréhension pour la machine car il fallait “rentrer” nombre d’informations pour déterminer qui était le “il” (l’élève? le prof ? le censeur ?) alors que n’importe quel interlocuteur français ayant été en classe le comprenait “immédiatement” sans se poser la moindre question.
De même aux tous débuts de la traduction automatique la phrase (en anglais) de la Bible : “l’esprit est fort, la chair est faible” avait été choisie pour être traduite en russe, pour ce faire et voir si cela marchait on avait 1- traduit en russe la phrase et 2- pour confirmer, la justesse retraduit du russe en anglais. Le retour avait été : ” la vodka est puissante , mais la viande est avariée” … Le contexte n’ayant pas été suffisamment spécifié.
Cinquante ans plus tard ,évidemment ceci devient beaucoup plus aisé, mais le travail qu’il y a derrière, le temps effectivement passé à “l’apprentissage” d’une machine particulière, la capacité de l’esprit humain à “décortiquer” ses propres opérations pour pouvoir produire “l’intelligence artificiel” et la faire advenir est sans commune mesure avec les performances prodigieuses pourtant des machines.
Daniel Arias
Aujourd’hui une bonne partie de l’IA repose sur l’apprentissage supervisé, c’est à dire guidé par l’humain comme dans les robots collaboratifs appelés cobots, la traduction en ligne, ou encore dans les avions issus du programme russe PAK50 comme le drone Охотник Su-70. Ce denier un avion sans pilote apprend à voler avec un pilote qui le contrôle à distance, à la fin de l’apprentissage l’avion sera capable de faire les missions de manière entièrement autonome.
Un humain peut enseigner à d’autres humains mais chacun doit apprendre, pour les ordinateurs il suffit de copier les connaissances de l’un sur l’autre. Cette reproduction reste identique et les calculs sont plus rapides que chez l’humain et sans erreurs.
Par contre l’IA reste incapable d’initiative ; par exemple si un objet est programmé pour aller vers des points ayant une valeur maximale la comparaison entre deux points de valeurs différentes est très rapide, par contre si les deux points ont la même valeur il sera bloqué ; là où un jeune enfant n’hésitera pas une demi seconde entre deux paquets de bonbons identiques, surtout qu’il a peut être déjà prévu de manger également le deuxième.
Pour que l’objet programmé prenne une décision entre les deux points égaux il faudra que l’humain l’ait prévu dans le logiciel.
Si l’IA n’est pas prête à détrôner l’humain elle va par contre contribuer à une concentration de la connaissance entre peu de mains, celles des experts et rendre ignorants les utilisateurs sur le domaine d’application de l’IA, cette concentration s’accompagne d’une division des connaissances entre experts. Au final il est probable que bien peu de personne comprennent l’IA dans l’ensemble.
Celle-ci entrant dans la résolution de problèmes et la prise de décision doit poser des questions sur son usage, doit-on laisser des algorithmes nous influencer ?
En informatique un problème complexe est l’optimisation des réseaux, comme la transmission des données par Internet, les réseaux ferrés, la logistique, les réseaux sociaux…
Je vous invite à regarder sur Arte le documentaire “La blob, un génie sans cerveau”,Physarum polycephalum est un organisme apparu sur terre avant les plantes, unicellulaire, sans système nerveux, sans muscles, sans forme fixe, on peut le couper, le faire fusionner. Cet organisme est capable d’optimiser son déplacement pour se nourrir, ne passe jamais deux fois par le même chemin et peut même transmettre des connaissances.
Les japonnais ont calqué le réseau ferroviaire japonnais, mis un flocon d’avoine à l’emplacement des gares, Physarum polycephalum a reproduit le réseau en quelques heures aussi efficacement que les ingénieurs en plusieurs années.
Dominique Pagani propose une discussion avec un chercheur,Christophe Denis, au sujet de l’IA:
https://youtu.be/Ibb8GzlZvbs
https://youtu.be/2djYy_IKXtE
Le blob :
https://www.arte.tv/fr/videos/082726-000-A/le-blob-un-genie-sans-cerveau/
Bernard Malfon
Personnellement, je pense que le terme “intelligence artificielle” relève plus du marketing que de la science car elle regroupe des techniques qui certes on parfois des points communs, mais qui sont différentes : apprentissage de langages naturels, réseaux neuronaux, bases de données déductives …
Il me semble qu’au début de l’informatique on utilisait des termes analogues pour désigner les ordinateurs.
Il est vrai que les progrès considérables dans l’élaboration des algorithmes et les capacités des ordinateurs en terme stockage et de temps de calcul font que certaines situations que l’on a connues au début ne se renouvellent peut-être plus ; certains chefs d’établissements faisaient une confiance aveugle à l’ordinateur et certains emplois du temps obtenus étaient catastrophiques, voire impossibles à mettre en pratique. Etant en retraite depuis 14 ans je ne sais pas ce qu’il en est aujourd’hui mais des empois du temps réalisés à la main par de bons chefs d’établissements (ou plutôt leurs adjoints) étaient nettement supérieurs à ceux réalisés par la machine.
On oublie que tous les langages sont équivalents en temps que possibilités de calcul.
On oublie également que tous les formalismes ont leur propre limitation et qu’il y a des problèmes qui seront toujours impossible pratiquement (complexité algorithmique)
En ce qui concerne les sciences cognitives elles ont peut-être leur intérêt mais miser uniquement là-dessus comme cet imbécile de Blanquer ne peut que conduire à des catastrophes.
Je n’ai pas regardé la vidéo signalée par Daniel Arias : elle éclaire peut-être la problématique