« Apprendre ne sert à rien, c’est dangereux et ça rend idiot »
Cet article vient en réaction à l’interview, surréaliste de mon point de vue, qu’a donné Nicolas Sadirac, DG de l’école 42 cofondée avec Xavier Niel, dans laquelle il postule qu’apprendre ne sert à rien.
L’histoire retiendra peut-être que le premier acte de la défaite de l’homme face à la machine aura été une banale interview d’un directeur d’école informatique.
A ce stade là, c’est une boutade. L’idée n’étant bien entendu de ne pas se lancer dans une querelle des anciens contre les modernes.
Les ordinateurs et les machines sont amenées à faire de plus en plus de choses, de plus en plus vite. Il ne s’agit plus seulement de multiplier les calculs et leur vitesse d’exécution, mais bien de confier aux machines de tâches de plus en plus complexes, tâches qui s’éloigne de plus en plus du calcul brut en allant vers des raisonnements, de la déduction et de l’imagination créatrice. Au passage, il faut noter que ces tâches complexes reposent, quoi qu’on en dise, sur des milliards de calculs à la miliseconde.
La question n’est pas tant de savoir ce que les machines sont ou seront capables de faire ou de produire. Le débat est plutôt de savoir quel degré d’autonomie nous allons confier à ces machines. A quel moment allons nous perdre le contrôle ?
La réponse à cette question n’est pas liée aux limites que nous imposerons aux machines, mais bien aux limites que nous nous imposerons à nous même. Ainsi, quand Nicolas Sadirac postule qu’apprendre ne sert à rien et qu’il faut s’en remettre à Internet pour trouver les informations dont on a besoin, il introduit une borne, une limite face à la machine.
Apprendre ne sert-il vraiment à rien comme le postule Nicolas Sadirac ?
Distinguons trois dimensions :
- Apprendre comme outil d’apprentissage et de construction de soi
- Apprendre par curiosité ou plaisir
- Apprendre par nécessité ou commodité
Ajoutons à cela deux postulats supplémentaires :
- Tout apprendre est humainement impossible. La somme des connaissances est telle, qu’un cerveau humain est incapable de tout absorber. Chercher à tout apprendre est donc inutile, et il faut « apprendre » pour le coup, à savoir où chercher quand nécessaire. Ceci est une règle de base, immuable depuis que l’on a est passé de la tradition orale ou la tradition écrite.
- Il convient de distinguer le fait d’apprendre de celui de « retenir ». Il est tout à fait possible de survoler une information, sans chercher à l’assimiler, mais d’en conserver une empreinte diffuse quelque part dans sa mémoire.
« Mémoire ». Le terme est important. Cet outil bien plus puissant que le simple stockage sur un disque dur quelconque. Cet outil autrefois propre à l’être humain et que la machine s’approprie à travers les technologies de Deep Learning et de réseaux neuronaux.
A quoi sert la mémoire ?
La mémoire permet de construire son identité, de tirer profit de l’expérience et, à plus court terme d’être plus efficace. Quoiqu’en dise Nicolas Sadirac, certaines informations sont plus facilement mobilisable lorsqu’on les a dans un coin de sa tête que de devoir aller la chercher sur le net ou dans sa calculatrice (dédicace à tous ceux qui ne connaissent pas leurs tables de multiplications).
Mais revenons-en à la question initiale : Apprendre ne sert-il vraiment à rien ?
Compte tenu de ce que nous avons dit précédemment, la première réponse est : non, cela ne sert pas à rien. En tant qu’outil indispensable d’apprentissage, le fait d’apprendre est ce qui permet de maîtriser sa langue maternelle, entraîner sa mémoire à long mais surtout à court terme, ce qui, sur la fin de vie est d’une valeur inestimable.
Passé ce bagage, est-il inutile d’apprendre une connaissance ou un information lorsque l’on agit par curiosité ou par plaisir ? Là on a envie de dire que c’est subjectif. On a envie… ou pas. On peut très bien vivre sans apprendre une nouvelle langue étrangère (mais dans ce cas, on ne plaint pas que les voyages sont moins intéressants) ou n’avoir aucune curiosité pour en savoir d’avantage sur l’histoire secrète du tableau La vierge et l’enfant de De Vinci.
Mais force est d’admettre que notre bon Nicolas Sadirac ne parle d’aucune de ses deux « façons » d’apprendre. Lui s’en tient à la connaissance purement utilitaire. De son point de vue, il est inutile de s’encombrer l’esprit de données périssables, d’usage ponctuel, donc par essence « jetable » puisque sans utilité passé le cadre dans lequel ces connaissances étaient nécessaires.
D’une certaine façon, ce point de vue peut se défendre. Certains projet nécessites en effet que l’on doive brasser quantité d’informations dont il est inutile de conserver une trace indélébile. L’essentiel est cela est en revanche de « savoir » où trouver l’information désirée (ceci relevant pour le coup d’une compétence qu’il convient d’apprendre si l’on veut espérer la mettre en pratique de manière efficace).
Mais ceci montre vite ses limites et ce pour plusieurs raisons. Tout d’abord pour une question d’efficacité. Quand bien même les interfaces évoluent « de façon drastique » pour accéder à l’information, le temps d’accès à certaines informations, surtout si celles-ci sont redondantes, devient un frein.
Quand l’outil prend le relais de l’homme sur ces tâches pour des raisons de commodité (prédiction des méthodes à appeler dans Visual Studio, autocomplétion de formules de calculs, etc…) mais surtout que l’on ne se pose plus la question de savoir pourquoi la machine nous propose telle ou telle information ni comment cela a été conçu, alors nous entrons dans ce que nous exposions au début : quel niveau de contrôle exerçons nous sur la technologie qui nous sert ?
Apprendre doit permettre de comprendre. Comprendre le pourquoi mais aussi le comment.
Cela renvoie à une blague connue sur la différence entre un polytechnicien et un ingénieur des arts et métiers qui construisent un pont : celui du premier s’écroule mais il sait pourquoi. Le pont du second tient mais il ne sait pas pourquoi.
Même si, comme le laisse entendre Nicolas Sadirac, certains savoir et savoir-faire peuvent être confiés à la machine, ce qui reste à prouver pour le second, il appartient à l’homme d’en tirer parti. Bâtir quoi que ce soit à partir de fondations que l’on ne maîtrise ni ne comprend est le premier pas vers un monde de crétins.
Prenons un exemple simple, hors du champs de la technologie et de l’informatique : l’écriture d’un livre. Quoiqu’on en dise, ce n’est pas à la portée de n’importe qui. Non pas pour trouver matière à construire une histoire, mais encore faut-il la narrer avec talent. Mais au-delà du style, le récit implique que l’on s’appuie sur de la matière, y compris pour bâtir un univers entièrement fictionnel. Il serait toutefois inutile de se vouloir expert dans le domaine servant de contexte au récit (physique pour un roman de SF, histoire pour une fresque historique, etc…). Néanmoins, l’auteur va se documenter et pour cela rechercher des informations non pas pour les assimiler (encore que, comme je le disais précédemment, les conserver en mémoire lui fera gagner un temps précieux) mais pour comprendre et disposer d’une base cohérente (je renvoi à ce que je disais de la suspension consentie de l’incrédulité).
Le produit final va donc être le fruit d’un travail issu d’un mix de connaissances, au moins superficielles, et de création.
Ainsi, est-ce que, comme le suppose Nicolas Sadirac, apprendre encombre t-il l’esprit au point de ne plus pouvoir être créatif ?
Assurément non.
Au contraire même !
Qu’il faille encourager l’audace, la créativité, et cela dans tous les domaines, qu’ils soient artistiques ou plus terre à terre, c’est une évidence. En dehors des rentiers, personne n’a intérêts à ce que les choses se perpétuent immuablement sans renouvellement, sans créativité.
Mais penser que l’ignorance crasse et l’absence d’expérience est la condition sine qua non d’une créativité débridée et salvatrice pour le monde de l’entreprise est suicidaire, abscon et fallacieux.
Autre ineptie, et après j’arrête de tirer sur l’ambulance : envisager l’informatique comme un art. Pire : postuler que l’une des erreur majeure de notre société ait été de considérer l’informatique comme une science et que c’est une hérésie (rien que ça) de le penser.
L’informatique n’est ni l’un, ni l’autre. C’est un outil. Point. Un outil que l’on étudie, que l’on « apprend » à maîtriser, pour créer. De même d’autres domaines que l’on qualifie de « science » permettent de créer : la physique, la mathématique, la biologie, etc… On peut être créatif en maths, en biologie, en littérature, quand bien même ces domaines reposent sur des règles établies.
En définitive, Nicolas Sadirac semble avoir des idées bien arrêtées sur ce que devrait être l’apprentissage de l’informatique : être créatif et disruptif. La question étant, à partir de quand cet engrenage va t-il se retourner contre ceux qui auront contribué à le mettre en place ?
Heureusement que des gens sérieux se sont penchés sur la question de la créativité.