Lorsque l’on évoque le sujet des “IA” de manière générale, on entend beaucoup de banalités, pas mal d’inquiétudes. Et en fait, beaucoup de méprises et d’incompréhensions. Les cas les plus visibles sont les voitures autonomes par exemple, ou bien les tentatives de systèmes semi-autonomes dont le comportement dérive très vite.
Je voudrais essayer de rendre ces problématiques un peu plus claires, en synthétisant mes lectures et recherches diverses.
Quelques bases de conversation
Tout d’abord, posons les bases. Je n’apprécie pas beaucoup le terme IA, car il est très vague. Dans l’esprit de certains, une IA est un système doué de conscience, avec des niveaux de compréhension et de raisonnement au moins similaires à un humain. Dans la réalité du quotidien, ce que l’on entend par IA s’étend depuis un système de décision automatique mais figé (comme une brosse à dents qui détecte si les dents sont assez propres) à des systèmes relativement autonomes, dans un domaine limité (comme des voitures).
Mettons que l’on s’occupe de tout ce scope-ci, les systèmes autonomes, en incluant tout ce qui permet d’automatiser tout ou partie d’un processus. Ces systèmes sont la plupart du temps très loin de l’IA et ne sont souvent que des robots capables de suivre des arbres de décision pré-établis. Mais certains sont plus complets ou autonomes.
Une fois l’incompréhension sur la terminologie posée, j’aime bien définir les différents cas d’utilisation de ces systèmes, dans le monde professionnel principalement.
Les typologies d’usages
En premier on retrouve les systèmes d’assistance, déjà très répandus. Ce sont les “robots” que l’on active à notre initiative, pour effectuer une opération complexe à notre place. Par exemple nous avons les systèmes de traduction automatique de génération précédente. Ils nous permettent de vérifier une traduction ou une compréhension de manière générale, en allant bien plus vite qu’avec un dictionnaire. Le contexte n’est pas forcément pris en compte, pas plus que les double-sens et les expressions locales (géographiquement ou liées à un jargon métier).
Ensuite nous avons les systèmes complémentaires. Ce sont des systèmes qui travaillent avec nous, en parallèle, et qui viennent nous proposer des suggestions pour nous aider dans notre travail. Leur capacité d’analyse est souvent assez large et profonde. Cela leur permet de suivre des opérations sur un spectre et une profondeur que nous ne pouvons souvent pas atteindre sans de très longs et couteux calculs. Dans le domaine de la surveillance vidéo, la reconnaissance faciale pour des systèmes de type CCTV permet de retrouver un individu dans des flux multiples, puis de reconstituer son parcours dans le temps et l’espace.
Enfin, arrivent les systèmes que je qualifie de remplacement. Dans les plus simples on retrouve les chatbots ou callbots qui permettent de traiter de nombreuses demandes de manière automatisée, sans intervention humaine. Pour les plus complexes, nos fameuses voitures autonomes sont de bons exemples.
Des inquiétudes et des réponses
Ce sont ces dernières qui inquiètent, pour plusieurs raisons:
- La sécurité des personnes et des données, et donc la fiabilité des systèmes. Cf les accidents de voitures autonomes,
- L’emploi, si ces systèmes étaient à même de remplacer des emplois,
- L’explicabilité, pour pouvoir décortiquer la chaine de décision lorsqu’une anomalie est signalée et pour détecter les biais.
Je ne vais pas pouvoir entrer dans des détails avancés pour répondre à chacune de ces inquiétudes, un livre n’y suffirait pas. Je peux néanmoins donner quelques pistes de réflexion.
En ce qui concerne la fiabilité des systèmes, il y a une chose qui me frappe dans toutes mes discussions au sujet des “IA” : tout le monde s’attend à ce que ces systèmes soient parfaits. Une voiture autonome ne devrait jamais avoir d’accident. Un système de prédiction ne devrait jamais se tromper. Un automate devrait toujours effectuer la bonne action.
Question naïve : à quoi compare-t-on ces systèmes?
Formulé autrement :
- Est-ce qu’un conducteur humain est infaillible? Quelles sont les statistiques d’accidentologie des humains? Des “IA”?
- Lorsque l’on demande à un système de traiter des formulaires de manière automatique, quelle est l’alternative? Si je demande à un modèle de reconnaître des écritures manuscrites pour faciliter mon travail, est-ce que je suis fiable à 100%?
- Si je mets en place un système de caisses intelligentes qui reconnaissent le contenu d’un plateau repas, le système pourrait être fiable à 99% (par exemple). Connaissez-vous le taux d’erreur d’un opérateur humain? Indice : il est plus élevé que 1% 🙂
Quid des erreurs?
Petite note au sujet de la gestion des erreurs, l’idéal lors de manipulation de modèles est de bien gérer les seuils d’acceptabilité. En d’autres termes, un modèle d’IA vous indiquera toujours ce qu’il pense être la bonne information (prédiction, réponse, classification etc.) accompagné d’un taux de fiabilité de sa réponse. Il faut bien penser à fixer le seuil en dessous duquel le taux de fiabilité ne doit pas descendre pour que la réponse reste acceptable.
Et idéalement, signaler, à l’utilisateur final ou à l’administrateur de la solution, lorsque des écarts se produisent, afin de pouvoir identifier les cas limites et de pouvoir améliorer le système.
Quand on touche à l’emploi, le sujet est plus délicat. Je conçois et je comprends l’inquiétude générale de se voir remplacé par des automates. Je pense que le risque est majoritairement exagéré, ce qui n’empêchera pas de voir des victimes de ce mouvement. Mon espoir est que les systèmes vont remplacer des humains pour des tâches répétitives et de très faible valeur, ou bien pour des tâches qu’un humain n’aurait pas pu faire de toute façon. Et donc les humains pourront se concentrer sur des tâches à forte valeur, qui impliqueront des vraies sensibilités et compétences, plutôt qu’une simple capacité à copier des données entre différents systèmes informatique par exemple.
Enfin, de nombreuses publications et témoignage ont été rédigés au sujet de l’explicabilité. J’en ai fait un moi-même, je vais donc vous y référer, plutôt que de me répéter : https://cloudinthealps.mandin.net/2019/10/24/de-lusage-des-datas-et-de-lia/
J’ajouterais tout de même quelques remarques sur l’explicabilité. La plupart des modèles utilisés aujourd’hui souffrent de données d’origine qui sont biaisées. Ce n’est pas volontaire, et souvent même pas conscient. Les data scientist et techniciens qui préparent ces données et ces modèles travaillent avec leur propre contexte et ne sont pas forcément conscients des limites et conditions qu’ils se fixent.
Par exemple, il est connu que la plupart des banques d’images qui servent à entraîner les modèles de reconnaissance faciale ne bénéficient pas d’une répartition suffisante par rapport à la population générale. En termes bruts : la majeure partie des données utilisées concernent des gens à la peau claire, et occidentaux. De ce fait, les modèles seront de piètre qualité pour travailler sur des populations à la peau mate, ou aux traits asiatiques. Evidemment, les modèles fournis par Tencent, pour ne citer qu’eux, souffrent probablement du biais inverse.
Et une petite anecdote pour la route : les premiers projets de voiture autonome développés en Europe ont rencontré des problèmes lors des exportations. En effet, une fois les voitures livrées à elles-mêmes sur les routes australiennes, les chercheurs se sont aperçus d’un oubli majeur : la faune est radicalement différente entre l’Europe et l’Australie. Et les voitures ne savaient pas identifier des kangourous…
De manière plus sérieuse, c’est un des plus gros écueil pour la création de voiture réellement autonomes : être capable, comme un humain, de s’adapter à toutes les circonstances, mêmes totalement inattendues.
Et c’est ce qui distinguera les humains pour encore de longues années.