Deep learning : peut-on faire confiance à cet algorithme ?


Voitures autonomes et systèmes de guidages avions sont des secteurs où l’informatique a sa place depuis de nombres années. Le deep learning et ses progrès fulgurants semblent naturellement prédestinés à ces secteurs. Alors une voiture pilotée par un réseau de neurones ? Pas si sûr à en croire ces explications…

Approche algorithmique vs. deep learning : bien comprendre la différence

Avant le deep learning, pour résoudre un problème, un algorithme plus ou moins spécifique et évolué était créé. Toutes les étapes pour résoudre un problème étaient décrites par les ingénieurs. Il était alors possible en partant d’un résultat de comprendre quelles étaient les justifications de la machine. Exemple : « j’ai freiné, car même si le feu était vert, une personne s’engageait sur le passage piéton ».

Le deep learning utilise une approche radicalement différente. Un grand nombre de neurones est simulé sur une machine (plusieurs millions) répartis en plusieurs couches. Ce réseau est « entrainé » avec un ensemble de questions et leurs bonnes réponses associées. Le réseau s’organise ainsi en interne en suivant des règles mathématiques pour maximiser ses chances de bonnes réponses. Ainsi, pour reprendre l’exemple précédent, l’action de freinage sera commandée par le système, car on lui aura « enseigné » par l’exemple qu’il est judicieux de s’arrêter si quelqu’un s’engage sur un passage piéton, quelque soit le feu. Le problème est que cette règle apprise est « diffusée » sur le grand nombre de neurones du réseau rendant impossible pour l’ingénieur de comprendre que c’est bien cette règle-là qui a commandé l’arrêt.

Ainsi en cas d’accident, si l’on est incapable d’expliquer les décisions de la machine, comment déterminer les responsabilités ? Est-on prêt à donner sa vie à un système dont on ne peut prévoir et expliquer les réactions aussi fiables soient elles dans la pratique ?

Plus d’informations sur le deep learning dans cet article (en Anglais) :
https://qz.com/865357/we-dont-understand-how-ai-make-most-decisions-so-now-algorithms-are-explaining-themselves/