Boîte noire : ALGO ou CERVEAU ?

Boîte noire : ALGO ou CERVEAU ?

Depuis quelques années maintenant, les progrès de l’informatique associés à la collecte massive de données ont impulsé l’avènement de l’intelligence artificielle dans notre quotidien numérique. Dans le domaine médical, même si la collecte des données reste limitée, cette technique ouvre des horizons très prometteurs. En effet, l’utilisation de l’intelligence artificielle via notamment l’apprentissage profond a permis de dépasser les niveaux de performance et de robustesse des algorithmes standards utilisés jusqu’alors.

Cette révolution algorithmique s’est toutefois accompagnée de beaucoup d’inquiétude de la part des professionnels de santé, mais aussi de certains chercheurs et développeurs. Cette inquiétude s’est principalement exprimée par l’impression de ne pas maitriser ce que l’algorithme apprend, nourrissant un sentiment dit de la « boîte noire » [1].

Mais ce sentiment est-il réellement fondé ?

Cela fait quelques années que je me suis posé cette question, déjà confrontée à cette inquiétude de la part de certains collègues. Moi-même, alors néophyte de la technique, n’étais pas bien certaine de la façon dont on pouvait contrôler l’intérieur de ce nouveau genre d’algorithme appelé le réseau de neurones. Mais déjà, je répondais à mes collègues :

« Si le réseau de neurones est une boîte noire, alors que penses-tu du cerveau humain ? »

Aujourd’hui, et encore probablement pour de longues années, la pose d’un diagnostic se fait via une prise de décision humaine, avec ou sans l’appui d’informations pertinentes extraites à l’aide d’algorithmes de traitements de données. Ces algorithmes utilisant l’apprentissage profond ou non, ne viennent qu’en soutien au praticien pour lui donner des informations que l’œil humain n’est pas capable d’extraire. Soit parce que cela lui prendrait beaucoup trop de temps, soit parce que cela nécessite de combiner plusieurs informations extraites parallèlement de plusieurs données médicales, parfois via des équations mathématiques complexes. On les appelle OAD pour Outils d’Aide à la Décision.

Algorithme ou non, nous faisons confiance à la prise de décision humaine. Pourtant, nous sommes loin d’être capables d’expliquer comment fonctionne cette prise de décision. Quel a été le cheminement de pensée, quelles régions cérébrales ont participé au choix, quels ont été les neurones activés ou désactivés, quelles informations ont réellement été utilisées, quels souvenirs, quelles émotions ont fait partie de la balance ? Le cerveau humain est d’une complexité infinie dont nous n’avons pas encore exploré tous les recoins. Bien sûr, nous commençons à mettre en lumière les mécanismes de traitement de l’information visuelle, les réseaux neuronaux impliqués dans l’apprentissage et la mémorisation [2] qui définissent l’expérience et le niveau de spécialisation du praticien. Mais à moins de lui faire passer une IRM au moment même où il/elle analyse les données et prend une décision, nous ne saurons jamais vraiment ce qui se cache derrière cette boite crânienne obscure mais tout aussi fascinante.

En comparaison, un réseau de neurones artificiel est entièrement déterminé par des chiffres et des liens entre ces chiffres. Chaque neurone est associé à un poids, qui évolue au cours de l’apprentissage statistique, mais qui est connu. Les liens entres ces neurones numériques sont définis par des équations mathématiques. Le mécanisme d’apprentissage est programmé et traçable par des courbes. Une fois entrainé, le réseau peut être déchiffré, évalué, comparé avec un autre réseau. Nous sommes capables « d’entrer » dans les couches du réseau afin d’identifier quelles informations ont été pertinentes dans la donnée médicale pour prendre la décision finale. Nous savons que ces couches sont rangées dans un ordre croissant de niveau d’abstraction et nous pouvons choisir de réduire ou augmenter cette complexité afin de s’adapter à la complexité du problème [3]. Et avec de l’expérience, et un certain « feeling de l’IA », nous sommes même capables de comprendre pour quelles raisons le réseau s’est trompé, et ce qu’il faut changer pour qu’il s’améliore.

D’ailleurs, l’IA explicable est devenue un champ de recherche à part entière, et va pouvoir éclairer toute personne extérieure au code, sur la manière dont la décision a été prise par le réseau.

Voilà de quoi remettre un peu de perspective dans la question de la boîte noire.

Une chose est sûre : l’IA est douée pour les problèmes simples que l’Homme ne peut faire vite, l’Homme est doué pour les problèmes évidents que l’IA ne peut pas comprendre. La plus grande intelligence est sûrement l’association des deux.

Mais gardez quand même toujours un œil sur celui ou celle qui l’a codée !

LB.

Sources

[1]

Schmidt CW (2020) Into the black box: what can machine learning offer environmental health research? Environmental Health Perspectives; 128(2)

Le problème de la boîte noire : pour faire confiance aux algorithmes, faut-il les comprendre ? — Elisabeth de Castex

[2]

Huff T, Mahabadi N, Tadi P. (2021) Neuroanatomy, Visual Cortex. StatPearls. Treasure Island (FL): StatPearls Publishing

Marcello Maniglia, Aaron R Seitz (2018) Towards a whole brain model of Perceptual Learning, Current Opinion in Behavioral Sciences, 20(47-55)

Chai Wen Jia, Abd Hamid Aini Ismafairus, Abdullah Jafri Malin, (2018) Working Memory From the Psychological and Neurosciences Perspectives: A Review, Frontiers in Psychology, 9(401)

[3]

Rosenblatt, Frank (1958) The perceptron: a probabilistic model for information storage and organization in the brain, Psychological review 65.6(386)

Rumelhart, David E., Hinton, Geoffrey E. and Williams, Ronald J. (1988) Learning representations by back-propagating errors, Cognitive modeling 5.3(1)

LeCun, Yann, Bottou, Lon, Bengio, Yoshua and Haffner, Patrick (1998) Gradient-based learning applied to document recognition, Proceedings of the IEEE 86 no. 11(2278-2324)

Linardatos, P.; Papastefanopoulos, V.; Kotsiantis, S. (2021) Explainable AI: A Review of Machine Learning Interpretability Methods. Entropy 23(18)

L’Intelligence Artificielle Explicable, enjeu majeur pour ouvrir les “boîtes noires” — Alexandre Duval