Intelligence Artificielle : les robots nous rendent plus humains !

Tribune éditoriale

Par Samuel CETTE – Janvier 2023
Cofondateur du Groupe ADONIS Éducation
Président des Éditions SEDRAP

Dans les années 50, le mathématicien Norbert Wiener posait les bases de la cybernétique en modélisant le cerveau aux comportements machiniques. Dans une approche plus sociétale, Nick Bostrom puis Kai-Fu Lee(1) évoquaient l’obligatoire nouveau contrat social, en alternant deux visions futuristes antinomiques :

  • Vision utopique, en considérant l’émergence de ces technologies comme l’étape ultime vers une conscience augmentée, un « échappatoire à la condition de mortel ». C’est Avatar.
  • Vision dystopique, craignant la puissance grandissante de machines auto-apprenantes, sans alignement avec les valeurs humaines. C’est Terminator.

D’aucuns se pensent libre d’agir, à leur guise, suivant leur instinct ou leur bon vouloir ? L’IA révèle qu’ils ne sont que le fruit de réponses conditionnées, aisément prévisibles…

Récemment, Sam Altman, père de ChatGPT considérait que nous n’étions que des « perroquets stochastiques(2) », finalement peu éloignés des moteurs qu’il développait. La version 3 de son système impressionne déjà par le traitement automatisé du langage naturel et par une excellente maitrise de la paraphrase et des systèmes de question-réponse. Spécifiquement conçue pour résoudre des taches liées au langage, cette IA ne dispose pas des capacités à résoudre une variété de taches différentes comme la compréhension de l’image, la résolution de problèmes avancés, la planification, la compréhension et une approche appliquée de la logique.

La panacée ? L’IA générale(3) qui exploitera des contenus existants au service de son propre apprentissage, pour générer des textes, des sons ou des images en se basant sur des informations déjà stockées dans des giga-bases de données. Autant de concepts qui sont seulement envisagés par l’humain, à ce jour.

Bien qu’il soit intrinsèque à la condition humaine d’envisager les évolutions comme des opportunités, les principes fondamentaux d’une forme de résistance aux changements, par leurs différentes phases, s’appliquent encore.

Des apprenants usent d’IA pour traiter leurs devoirs ? « On doit interdire ces programmes d’agir ! »
Des textes pertinents sont générés par une IA ? « On doit créer des programmes qui détectent ces créations ! »
— Sans fin.

En tant qu’éditeur de contenus, pédagogiques ou de formation, scolaires ou d’enseignement supérieur, nous sommes donc confrontés à des nouveaux paradigmes et de nouvelles interrogations. C’est l’intensité de l’impact de ce que nous vivons et sa compréhension qui ordonnera une action.

Une « réponse » à cette « agression » :

  • selon que nous considérions ceci comme une simple évolution incrémentielle de nos usages, comme un « cran supplémentaire » qui serait atteint dans le progrès, sans modification sensible de nos usages ;
  • selon que nous envisagions une révolution dans la promotion de nouvelles méthodologies du savoir.

Jadis, la démocratisation de l’internet, en tant que base mondiale de connaissances avait réduit la proéminence des apprentissages de données « par coeur », au profit d’une intégration des concepts. Assez naturellement, les éditeurs ont fait évoluer leurs outils : plus de travail sur la compréhension pour être plus à même de transférer ces connaissances à des résolutions de problèmes.

Désormais, une nouvelle technologie d’intelligence artificielle laissera penser qu’elle peut désormais émuler une réflexion humaine et donc manier des concepts, reléguant le célèbre « copier/coller de Wikipédia » au rang de pratiques ancestrales. Défi énorme pour l’éducation, défi énorme pour l’édition…

« Si nous évaluons des notions qui peuvent être produites par des robots, c’est que peut-être nous n’évaluons pas les bonnes choses ? »
« Si nous nous satisfaisons d’outils créés par des robots, c’est que notre valeur ajoutée n’est pas là ou elle devrait être ? »

Dans la structuration de la pensée, en tant qu’élaboration de concepts, les chercheurs déclarent qu’il y a (encore) de nombreuses choses que l’IA ne peut pas faire :

  • a compréhension textuelle, le sens des mots dans un contexte déterminé, pourtant essentielle dans le cadre d’interactions et de communication humaine,
  • La créativité : l’IA ne peut que générer des idées en utilisant des données existantes,
  • Les décisions éthiques : par absence de compréhension des nuances et des conséquences des actions,
  • L’intuition, l’empathie et les émotions.

Voici donc Piaget(4) ressorti de sa boite pour valoriser une compréhension en constante évolution, fruit d’une permanente restructuration conceptuelle à travers les expériences de l’apprenant. Finalement, le combat humains/IA aurait déjà été théorisé au 20ème siècle, entre les béhavioristes et les constructivistes ! Plus loin encore, avant notre ère, les grecs établissaient les dialogues socratiques et les romains conceptualisaient la méthode du défi pour transcender l’acuité intellectuelle. Finalement, ici, rien de nouveau !

Que pourrait craindre l’intelligence humaine d’un système qui ne crée qu’à partir de ce qui a déjà été créé ? Dans un tel monde, tout tendrait vers l’uniformisation des idées, une forme de consanguinité dégénératrice créée par les machines. Autant nourrir des bovins avec de la poudre de bovins(5) ! Sauf à considérer que l’intelligence n’est qu’accumulation de connaissances, en usurpant les fonctions cognitives de la création ; dans cet océan de conformité sans saveur, demeura la créativité humaine.

Ainsi, nos productions pédagogiques devront favoriser l’évaluation des compétences sociales et créatives, la valorisation des réflexions critiques et bien entendu toute analyse de situations et de contextes favorisant les interactions et présentations orales. Ce passage obligatoire à des processus d’investigation active devrait préparer nos apprenants à l’obligatoire adaptation au (nouveau) nouveau monde de la communication et de l’information.

Gageons que la « création par intelligence humaine », comme toute chose rare, sera valorisée et recherchée. Après les labels « conforme aux programmes », comme gage de qualité, « fabriqué en France » comme gage de responsabilité, voici venir le label « produit par une intelligence humaine », comme gage de créativité exclusive !

Conservez ce texte, il a de la valeur, il a été conçu par un humain… Ce sont les robots qui le disent.(6)

 

————
(1)Nick Bostrom, SUPERINTELLIGENCE : ouvrage dystopique sur le développement de l’IA qui a provoqué l’effroi à sa parution et qui est désormais davantage considéré comme un ouvrage à lire au filtre des récits fantastiques.
Kai-Fu Lee , « IA, la plus grande mutation de l’histoire » : ouvrage très dense et relevant plus d’une démarche sino-centré que d’un ouvrage de prospective. Cette ouvrage a fait l’objet d’ouvrages de synthèse, ayant eux-même fait l’objet de fiches de synthétiques…
(2)Conditionné par des mécanismes de réflexes, liés au traitement de données massive par le calcul des probabilités. « Sur les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ? » de Gebru, Shmitchell, McMillan-Major et Bender.
(3)AIG – Intelligence artificielle générale planifiée pour 2040.
(4)Développée par Jean Piaget (1964) en réaction au behaviorisme, la théorie constructiviste met en avant le fait que les activités et les capacités cognitives inhérentes à chaque sujet lui permettent de comprendre et d’appréhender les réalités qui l’entourent (cairn.info).
(5)Dans les années 90, une infection dégénérative du système nerveux central des bovins trouvait son origine dans l’utilisation pour leur alimentation de farines animales, obtenues à partir de parties non consommées des carcasses bovines et de cadavres d’animaux. Cette crise symbolise parfaitement la déroute sanitaire fruit de la rupture basique des liens unissant la chaine alimentaire.
(6)Texte considéré comme réel (humain) à 99.8 % par GPT-2 Output Detector Demo. Average Perplexity Score: 1209 et Burstiness Score: 3513 sur gptzero.me. Merci aux robots de confirmer notre condition humaine !

Télécharger la tribune

La discussion sera poursuivie le 12 avril 2023 à l’occasion d’une émission « Parlons-en ! avec la SEDRAP » lors de laquelle trois nouveaux intervenants seront invités pour débattre sur l’Intelligence Artificielle et l’Éducation. Suivez notre rubrique dédiée pour écouter cet épisode.