Les automobiles contrôlées par l’intelligence artificielle : attention aux «hallucinations»

Depuis l’avènement des voitures électriques, le secteur du transport routier – camionnage, véhicules passagers,… – connaît une effervescence qui ne cesse de surprendre. A ce moment-ci, l’emphase est mise sur la conduite automatisée des camions et des automobiles alors que des systèmes électroniques et informatiques sophistiqués prennent le relais sur la conduite humaine. Les essais se multiplient et, déjà dans certains états américains, les autorités autorisent la conduite automobile automatisée sans intervention humaine.

Il importe de souligner le fait que, dans de tels véhicules, plusieurs systèmes électroniques et informatiques analysent constamment les conditions environnantes afin d’adopter une conduite efficace et sécuritaire. C’est ainsi que des logiciels de géolocalisation, assistés de cartes routières stockées à bord des véhicules, sont en mesure de localiser le véhicule à tout moment de façon très précise. Et ces systèmes, couplés avec des radars et autres dispositifs de détection, sont en mesure de faire face aux imprévus routiers – arrêt brusque du véhicule situé à l’avant, changement de voie d’un autre véhicule, passage d’un piéton,… – et d’adopter les actions nécessaires en vue d’assurer la sécurité de tous.

Ainsi, à ce jour, les résultats sont probants malgré des «erreurs de jugement» de certains prototypes ayant, par exemple, fait le choix de changer de voie de circulation… tout en omettant de détecter un autobus qui circulait déjà dans cette voie, tel que nous le rapporte le magazine Wired:

Google’s Self-Driving Car Caused Its First Crash – Wired – 2016-02-29

Cela étant, malgré la sophistication des logiciels et systèmes électroniques, la conduite automatisée n’est vraiment sécuritaire que si on y introduit des «logiciels intelligents» en mesure de dupliquer les capacités d’analyse et d’interprétation de l’humain. A cet égard, le domaine de l’intelligence artificielle, que l’on dénomme «apprentissage profond» («deep learning»), est un domaine en plein développement et qui s’avérera incontournable pour assurer une conduite automatisée sécuritaire.

          

Mais, tel que l’ont démontré plusieurs spécialistes dans le secteur du transport routier, les systèmes «intelligents» développés à ce jour, basés sur l’intelligence artificielle, ne sont pas infaillibles…

Les «hallucinations» des systèmes basés sur l’intelligence artificielle

C’est ainis qu’un logiciel développé par Google a interprété l’image suivante comme étant celle d’un hélicoptère – ou même un véhicule – et non pas comme étant des fusils d’assaut:

Alors, comment un système sophistiqué basé sur l’intelligence artificielle a-t-il pu errer de la sorte?

Simplement parce que des chercheurs du Massachusetts Institute of Technologie (MIT) ont juxtaposé une autre image – imperceptible à l’oeil – dans l’image d’origine avant de la soumettre à l’analyse du logiciel de Google:

 

A l’évidence, le système développé par les chercheurs de Google, quoique très sophistiqué et très «instruit», a été leurré par la juxtaposition d’une autre image qui en a faussé l’interprétation, ce qu’un humain aurait su détecter. C’est ce dont nous relate le magazine Wired dans une publication récente:

Researchers Fooled a Google AI into Thinking a Rifle was an Helicopter – Wired – 2017-12-20

Un panneau de signalisation «Arrêt» interprété comme… une limite de vitesse!

Dans un autre essai mené par le professeur Siddharth Garg de l’Université de New-York, les membres de son équipe ont apposé un «post-it» sur un panneau d’arrêt:

et leur logiciel d’interprétation des panneaux de circulation routière à reconnu le tout comme étant un panneau de limitation de vitesse:

ce qui aurait pu avoir des conséquences graves pour le piéton en train de franchir la voie de circulation.

Even Artificial Neural Networks Can Have Exploitable ‘Backdoors – Wired – 2017-08-25

De simples problèmes mineurs qu’il sera aisé de résoudre?

De l’avis des spécialistes en la matière, même si ces essais avaient été «calibrés» pour tenir compte de défaillances counues – ou appréhendées – dans les logiciels mis à l’essai, de telles situations ne seront pas résolues par de simples «ajustements» aux logiciels existants, mlagré toute «l’instruction» et la sophistication dont ils pourraient faire l’objet durant leur développement.

Ainsi, il appert qu’il sera difficile de mettre au point des systèmes de détection «intelligents» en mesure de reproduire les processus de raisonnement et d’analyse que l’on retrouve chez l’humain. Et d’amener, à terme, une sécurité inégalée dans la conduite des véhicules routiers.

AI Has a Hallucination Problem That’s Proving Tough to Fix – WIRED – 2018-03-09

Cela étant, la mise au point de «logiciels intelligents» est un impératif incontournable afin d’augmenter le niveau de sécurité dans la conduite automatisée à un niveau tel que, malgré les aléas de la circulation, les bonnes décisions soient mises en application pour garantir la sécurité de tous.

Et que, dans le domaine du diagnostic médical, des erreurs d’interprétation ne laissent pas un cancer non détecté…