Intelligence humaine : L’évolution au miroir de la « robolution »

Photo : Philippe Turpin/Beneluxpix/Maxppp
L’humanité veut concevoir des machines capables d’apprendre et de penser seules, mais aussi s’appuyer sur l’IA et la « neurobotique » pour se réparer, voire s’augmenter. Liaisons dangereuses ?

L’humanité ne dément jamais son ambition de dépasser la fiction par la science, repoussant les frontières de la connaissance et de la maîtrise technologique dans une odyssée sans fin. Les machines seraient en voie d’humanisation, tandis que les humains, machines biologiques imparfaites, amorceraient une mutation, devenant plus intelligents et moins altérables…

Le débat sur la nature des machines semble pour l’heure tranché par les scientifiques et les philosophes : quand les robots ont une apparence humanoïde et des comportements anthropomorphiques au point de provoquer notre empathie, c’est parce qu’ils ont été créés et programmés pour cela… par des humains. Les robots sont également loin de ressembler à des créatures mi-biologiques mi-électroniques, autonomes et désireuses de prendre le pouvoir, exprimant des pensées ou des émotions. Non, ils ne peuvent pas faire l’expérience de l’amour ni de la haine, accessibles au commun des mortels.

Depuis quelques décennies, les ordinateurs témoignent certes d’aptitudes analytiques qui les rendent capables de mémoriser et de mettre en interaction des masses de données ingérables pour un cerveau humain (le big data) en un temps record. Des machines peuvent par exemple diagnostiquer et soigner certaines maladies avec davantage de certitude et de réussite, en croisant l’ensemble des images, des protocoles, des traitements et des échecs réalisés sur d’autres patients. Cela ne veut pas dire que « prendre soin » d’un malade peut se limiter à ce type d’approche…

Deep learning : apprendre mieux qu’un humain ?

L’IA est-elle capable de devenir plus qu’un outil sophistiqué ? Toutes les grandes entreprises du secteur ont lancé des programmes dédiés au deep learning. Son pionnier, le Français Yann Le Cun, dirige par exemple les projets de Facebook. Il s’agit d’aller au-delà de l’« apprentissage machine » (automatic learning) basé sur des algorithmes accumulant les data, par renforcement (progression par essais et erreurs) ou par apprentissage supervisé (à partir d’exemples choisis et étiquetés). Le deep learning (apprentissage profond) vise à reproduire les modalités humaines de l’apprentissage.

Les développeurs, s’inspirant à l’origine du fonctionnement du cortex visuel animal, multiplient les réseaux de « neurones informatiques » qui assimilent des quantités astronomiques de données – notamment des images, dans tous leurs détails les plus infimes – et les croisent pour développer de nouveaux algorithmes, permettant à la machine d’assimiler de nouvelles données en toute autonomie et, in fine, de prendre des initiatives. Efficace, mais dans des domaines encore très ciblés : c’est ainsi que Deep Blue (Ibm) a vaincu Kasparov aux échecs et qu’AlphaGo (Google Deep Mind) a battu un champion coréen de go en 2016. Début 2017, Liberatus, conçu par une université de Pittsburgh, a pour sa part réussi à élaborer des stratégies laminant quatre champions de poker durant trois semaines !

Qu’en sera-t-il quand, en plus d’évaluer en quelques microsecondes toutes les mains possibles de ses adversaires, il pourra repérer une pupille dilatée, des battements de cœur, la température d’un corps, un geste ou une voix qui trahissent forcément l’humain !

Les algorithmes seraient aussi des artistes en herbe. Peindre un nouveau Rembrandt en se basant sur l’assimilation de ses œuvres dans le moindre détail ? Après tout, un coup de pinceau, réfléchi ou aléatoire, peut toujours être perçu comme un parti pris esthétique, voire acquérir une valeur marchande… Même chose pour un écrit littéraire « à la manière de ». Mais où résident l’intention et la créativité, si ce n’est dans un esprit humain ? Cette technologie pose aussi des questions d’éthique. Les ordinateurs feront ce qu’on leur demande ou pas – s’ils deviennent autonomes, s’ils sont victimes de bugs ou de hacking. Ils peuvent aussi reproduire des préjugés (des biais racistes, sexistes, etc.). Il semble en tout cas risqué de les laisser prendre l’initiative pour gérer – notamment de manière prédictive – la criminalité, la maladie, les marchés financiers, la guerre. Ils sont rarement paramétrés pour être compatibles avec le bien-être de l’humanité…

En 2009, le pilote de ligne américain Chesley Sullenberger se fait confiance pour se poser en catastrophe sur le fleuve Hudson, contre l’avis de toutes les simulations des ordinateurs. Il a été prouvé qu’il avait bien choisi la meilleure solution. Les ordinateurs apportent, parfois, des réponses. L’humanité continue de se poser des questions…

L’IA nourrit également les travaux sur le cerveau. Celui-ci fait l’objet d’interventions – les trépanations – depuis la Préhistoire, mais le croisement de la neurobiologie et de l’électronique ouvre de nouvelles perspectives. La médecine réussit par exemple à reconnecter le corps et l’esprit.

Des ordres venus du cerveau de personnes paraplégiques peuvent être captés et transformés en signaux électroniques, puis en impulsions électriques transmises aux muscles des bras immobilisés par des altérations de la moelle épinière. Une (nano)technologie qui va permettre de réparer des humains, et peut-être de reconnecter d’autres fonctions au cerveau : la vue, l’audition, le goût. Couplée à la génétique, elle permettra peut-être d’améliorer les organes déficients sans transplantation, voire de reprogrammer l’Adn et donc le déroulement physiologique et biologique d’une vie. Avec d’autres inconnues : les impacts de ces technologies sont-ils mesurés et discutés ? Seront-elles partagées et accessibles à tous ?

Neurosciences à l’école : une vision discutable des apprentissages

Les neurosciences estiment également disposer de nouveaux outils pour explorer les mécanismes de la pensée et des apprentissages. Le cerveau n’est-il pas la « machine apprenante » par excellence ? En France, l’enthousiasme pour les neurosciences a ainsi gagné jusqu’au sommet de l’État. Couplées aux sciences cognitives, et appliquées en particulier à la pédagogie, elles permettraient de développer des méthodes d’apprentissage plus égalitaires, relativisant les avantages des enfants riches d’un environnement culturel et social conforme à ses attendus.

Illustration : Patrick Lefevre/Belpress/Maxppp

C’est le credo du psychologue cognitif et neuroscientifique Stanislas Dehaene, nommé à la tête du Conseil scientifique de l’Éducation nationale début 2018. Il s’appuie notamment sur des expériences menées sur des bébés portant des bonnets chargés d’électrodes et soumis à des stimuli essentiellement visuels ou sonores, afin de décrypter leur fonctionnement neuronal et d’identifier, à chaque fois, quelles parties du cerveau entrent en action. De jeunes enfants sont également soumis à des protocoles d’apprentissage pour déterminer si certaines compétences – comme la logique ou les aptitudes mathématiques – préexistent aux apprentissages, et développer des méthodes pour les stimuler.

Les défenseurs des neurosciences tendent à exclure les émotions

Stanislas Dehaene rappelle que quatre facteurs facilitent les apprentissages : l’attention, l’engagement actif, le retour d’information (par la correction des erreurs et la gratification), la consolidation des connaissances (par la répétition et par le sommeil), le tout dans un environnement favorisant la curiosité et la sérénité. Célestin Freinet et Maria Montessori, morts depuis des décennies mais toujours pertinents, ne trouveraient rien à y opposer, sinon les finalités de cette pédagogie à base de neurologie.

Éduquer n’est pas formater : en voulant modéliser et systématiser des modes d’apprentissage destinés à un enfant apprenant idéal, les défenseurs des neurosciences, aux yeux de nombreux pédagogues et enseignants, tendent à exclure un certain nombre de facteurs déterminants : la dimension émotionnelle – la motivation et le plaisir, les interactions humaines et le langage, le contexte affectif – le regard bienveillant d’un enseignant, la famille, le milieu social.

Notre cerveau – et le vivant en général – reste plus complexe qu’un ordinateur, et plus réactif à l’imprévu. Un exemple mémorable ? En 2009, le pilote de ligne américain Chesley Sullenberger a fait confiance à son expérience et à son instinct pour se poser en catastrophe sur le fleuve Hudson, contre l’avis de toutes les simulations données au même moment par les ordinateurs. Durant l’enquête sur cet accident, il a été prouvé qu’il avait bien choisi la seule solution possible pour survivre et sauver ses passagers. Les ordinateurs apportent – parfois – des réponses, l’humanité continue de se poser des questions…

De l’hyperintelligence à l’immortalité

Optimiser le vivant jusqu’à le remplacer, belles perspectives pour le post-humain ?

Avenir de l’homme ou supercherie, le transhumanisme se base sur des hypothèses. Selon la « loi de Moore » (créateur d’Intel) énoncée dans les années 1960, la puissance informatique double tous les 18 mois et finira par déboucher sur une singularité : les machines dépasseront les humains dans tous les domaines. Dans cette perspective, certains humains anticipent. Quelques-uns, déjà morts, se sont fait cryogéniser dans un bain d’azote en attendant que les progrès de la science permettent de les ressusciter. D’autres conservent leurs cellules-souches ou celles de leurs enfants pour reconstruire biologiquement leurs organes défaillants ou reprogrammer leur Adn. La plupart se tiennent prêts à une hybridation avec des objets technologiques – implants, prothèses – qui leur permettrait de rester en bonne santé ou d’augmenter leurs performances intellectuelles ou physiques.

Tous y croient : on pourra reproduire les milliards de milliards de connexions neuronales sur un ordinateur, réparer les cerveaux et soigner les maladies neurodégénératives ; la science va améliorer l’humanité, vaincre le vieillissement, et pourquoi pas la mort ? Il sera possible de dématérialiser et de conserver son esprit – son âme ? – quelque part dans un disque dur, et de le transposer dans un autre corps tout neuf, ou dans une machine, et accéder ainsi à la vie éternelle. Ces visions – et ce futur forcément réservé à une élite – sont prises au sérieux, notamment dans la Silicon Valley – Ray Kurzweil, un des papes du transhumanisme est ingénieur chez Google – mais sans doute aussi dans un certain nombre de laboratoires n’ayant pas forcément pignon sur rue. Que restera-t-il de la condition humaine ? Seuls les avatars transhumains « survivront », si on peut dire : on n’aura plus de corps, ni besoin de rien, même pas d’être vivant : ce qui résout en même temps la question de la catastrophe environnementale ! V. G. (Je ne suis pas un robot)