L'IA en tant qu’assistant de l’humain
Le développement de l'intelligence artificielle se déroule à une vitesse fulgurante, au point même de surprendre des spécialistes comme le professeur Luc De Raedt. Voire de les effrayer quelque peu. “Nous devons bien réfléchir à la manière de lutter contre les abus et l'utilisation impropre de l'IA. C'est notamment ce que nous faisons dans notre institut Leuven.AI. En effet, l'IA est une technologie fantastique qui peut aider l’homme dans une foule de domaines.”
Luc De Raedt est professeur au département de Sciences informatiques de la KULeuven et directeur de Leuven.AI. Cet institut existe depuis trois ans environ et compte aujourd'hui une centaine de professeurs. Luc De Raedt est également professeur invité à l'université d'Örebro en Suède, où il participe à un vaste programme d'intelligence artificielle financé par une fondation de la célèbre famille Wallenberg.
L'intelligence artificielle est partout. Qu’entend-on exactement par là?
“Par ‘IA’, nous entendons toutes les machines qui présentent un quelconque comportement intelligent, comme converser dans une langue naturelle, résoudre un problème mathématique, traduire un texte, concevoir quelque chose, aider quelqu'un sur son lieu de travail, rouler en voiture, etc. Les outils d'IA aident l’homme à prendre toutes sortes de décisions.”
Il semblerait que l'IA soit une nouveauté, mais est-ce vraiment le cas?
“Alan Turing, qui est considéré comme le père de l'informatique, avait déjà perçu les possibilités d'apprentissage de l’ordinateur. John McCarthy a utilisé pour la première fois le terme intelligence artificielle en 1956. Établi à l'époque par une vingtaine de scientifiques de différentes disciplines, le document en question est toujours d'actualité. Beaucoup d’avancées qu'ils voulaient étudier à l'époque deviennent aujourd'hui réalité, comme le langage naturel, les machines d'apprentissage, les réseaux neuronaux.”
Pourquoi l'IA s’est-elle fait attendre si longtemps? S'agissait-il principalement d'une affaire de technologie?
“Au début, c'était certainement un problème, ce n'est qu’aujourd’hui que les données et la puissance de calcul sont disponibles à grande échelle. Mais la base mathématique et algorithmique de ces techniques a aussi été affinée considérablement au cours des décennies. L'idée de départ était d'imiter le cerveau humain. Nous y avons renoncé aujourd'hui. La différence entre l'intelligence humaine et l'intelligence artificielle peut se comparer à la distinction entre un oiseau et un avion. Ils volent tous les deux, mais d'une manière différente, l'un vole par nature, l'autre est le fruit de l'ingénierie. Il en va de même pour le cerveau humain et l'IA. Il existe une analogie, mais les principes de base sont différents. L'IA est une question de modules algorithmiques et mathématiques, pas de biologie.”
Pourquoi la décision de constituer Leuven.AI a-t-elle été prise il y a trois ans?
“L'IA est en plein essor et nous sommes de plus en plus nombreux à nous y intéresser. Au sein de l'université, nous souhaitions renforcer la coopération interdisciplinaire et mettre en place une action commune. L'institut comprend des philosophes, des éthiciens, des juristes, des psychologues, des astronomes, des spécialistes médicaux, des ingénieurs, des mathématiciens et des informaticiens. Donc des personnes qui développent les techniques d'IA, d'autres qui créent des applications et d'autres encore qui réfléchissent à l'intérêt sociétal. C'est une bonne chose. Le débat éthique, par exemple, est récent car les possibilités de l'IA sont beaucoup plus claires aujourd'hui qu'il y a, disons, dix ans.”
Comprenez-vous la crainte, la réticence chez les personnes qui craignent que l'IA nous supplante?
“Certainement, on a peur de ce que l'on ne comprend pas. Mais il faut plutôt considérer l'IA comme une technologie qui aidera l’homme à accomplir des tâches routinières ou chronophages. Toutes les recherches vont dans le sens de la nécessité pour l'homme de garder le contrôle.
Cela n’empêche pas qu’il y ait des problèmes. Les nouveaux modèles linguistiques tels que ChatGPT sont si complexes et utilisent tant de données et de paramètres qu'il est impossible pour un être humain de comprendre pourquoi la machine donne précisément une réponse déterminée. Le système est dûment formé pour donner des réponses correctes et socialement acceptables, et il a beaucoup été amélioré sur ce plan, mais il n'y a aucune garantie qu'il le fasse toujours.
Pas plus qu’il n'y a de garantie que les réponses qu'il génère sont correctes. D’autant qu'il n’indique pas sur quelles sources il se base à cet effet. C'est assez angoissant, pour l'enseignement par exemple. Des collègues ont déjà demandé à ChatGPT d'écrire un programme informatique, comme ils le font aux étudiants de première année. Eh bien, ChatGPT a réussi. Dans le monde de l'IA, nombreux sont ceux qui sont surpris, voire choqués, que ChatGPT soit tout bonnement mis à la disposition du public. Il s'agit d'un outil très puissant dont vous pouvez abuser ou faire un usage impropre. C'est pourquoi les éthiciens et les juristes s'intéressent beaucoup à cette question.”
Le fait que même les spécialistes ne sachent pas comment un système arrive à une conclusion donnée est en effet assez effrayant. Cela signifie quand même que vous ne pouvez pas laisser des décisions importantes à l'IA?
“Pour les décisions ayant un impact personnel important, telles que l'octroi d'un prêt ou l'admission ou non d'un candidat à une étude, il convient en effet d'expliquer pourquoi le système parvient à cette conclusion. L’homme doit rester aux côtés de l'IA, car celle-ci ne décide pas mais assiste.
C'est déjà souvent le cas dans le monde médical. Les systèmes d'IA qui analysent une image médicale ne sont pas censés prendre la décision ou poser un diagnostic, mais ils peuvent indiquer les endroits auxquels les médecins doivent être particulièrement attentifs. L'IA endosse de plus en plus le rôle d'un assistant.
Il y a quelques années, l'un des pères fondateurs avait déclaré que les radiologues seraient moins nécessaires à l'avenir. Aujourd'hui, nous voyons les choses différemment. Si la technologie fonctionne bien et devient meilleur marché, elle sera utilisée davantage. Le radiologue peut ainsi être débarrassé d'une grande partie du travail de routine et consacrer plus de temps à des tâches qui comptent vraiment.”
Outre les applications médicales, quelles sont les autres applications de l'IA?
“Pour les tâches routinières qui ne nécessitent pas de manipulation et pour lesquelles le processus est toujours le même. Les tâches d'un plombier ou d'un électricien, par exemple, sont très difficiles à automatiser parce que chaque maison, chaque travail est différent et qu'il y a donc beaucoup de variabilité. À l'avenir, le travail manuel pourrait probablement résister mieux que certains types de travail de bureau. Les applications plus créatives sont également dans le collimateur de l'IA : la rédaction de rapports ou d'articles, par exemple.”
Les scénaristes en grève à Hollywood sont-ils inquiets à juste titre?
“Je pense que oui. Le développement et l'amélioration fulgurante des modèles linguistiques se poursuivent. Voyez par exemple, les jeunes sont beaucoup moins bons en calcul mental que les générations plus âgées à cause de la calculatrice ; il risque d’en aller de même avec l'écriture. Pourquoi faudrait-il encore apprendre à écrire correctement si un texte est généré en alignant simplement quelques idées? La production d'images et de vidéos sera également améliorée. L'IA peut déjà créer des logos assez facilement, même si l'on peut s'interroger sur l'originalité du résultat. Le dessinateur de BD et ingénieur Nix est doctorant chez nous. Il veut voir si et comment on peut générer automatiquement des bandes dessinées.”
L'IA peut donc être créative?
“Si vous demandez à ChatGPT d'écrire quelque chose en style rap, il faut admettre quand même qu'il y a une part de créativité. Naturellement, ce n’est pas génial. Le cadre de réflexion des génies et artistes vraiment créatifs est tellement unique qu'ils repoussent les limites. Mais l'imitation et la combinaison d'idées sont désormais à la portée de l'IA pour les textes et les images. La vidéo sera la prochaine étape.”
L’évolution est rapide mais, d'un autre côté, qui aurait pu penser que la voiture autonome, par exemple, serait déjà parmi nous.
“Dans les années 60, le lauréat du prix Nobel Herbert Simon pensait qu'un système d'IA serait champion du monde d'échecs dix ans plus tard. Il aura finalement fallu attendre beaucoup plus longtemps. Même chose pour les logiciels de traduction. Le froid et le chaud se succèdent pour l’IA, ce sont les fameux Hype Cycles de Gartner.
Au début, une percée induit des attentes énormes et suscite des investissements massifs. Les attentes culminent à un niveau tel qu'elles ne peuvent être satisfaites. Tout s’écroule, c’est le creux de la vague. Au cours de cette période, vous apprenez à comprendre comment exploiter pleinement la technologie et vous entrez alors dans la partie productive dont la courbe affiche une croissance graduelle.
Il en va précisément ainsi pour la voiture autonome. Elle a connu un grand engouement, puis l'intérêt est retombé et elle refait surface aujourd'hui. À San Francisco, elle circule déjà.”
Quel est le problème majeur qui fait obstacle à une véritable percée?
“L'imprévisible. Vous ne pouvez pas avoir des données sur tout. Un collègue m'a parlé d'un projet à Fribourg visant à faire circuler un robot du campus dans le centre-ville. Il a demandé trois ans de travail. La démonstration se passait bien jusqu'à ce que des pigeons s'envolent sur un pont. Le robot s'est arrêté et n'a plus prétendu redémarrer.
Les mêmes problèmes sont constatés avec les voitures autonomes à San Francisco. La caméra est aveuglée, il y a trop peu d'images, des situations imprévisibles surgissent et la voiture s'arrête. Il serait beaucoup plus facile de n'autoriser que des voitures autonomes dans une nouvelle ville. En y réfléchissant, nous sommes peut-être plus le problème que la voiture autonome.
En outre, la prise en compte du contexte constitue également une difficulté. Il faudra du temps pour rendre les systèmes encore beaucoup plus robustes. Nous devons également prendre conscience qu'il ne sera peut-être jamais possible d'obtenir une voiture autonome robuste à 100 %. Mais nous ne sommes pas non plus des conducteurs fiables à 100 %, comme en témoignent les nombreux accidents. La question est donc aussi de savoir quel doit être le degré de fiabilité de la voiture autonome.”
Les données sont à la base de systèmes IA et des thèmes tels que les droits d'auteur et la protection de la vie privée surgissent automatiquement.
“C'est en effet la grande difficulté de l'IA générative, comme les modèles linguistiques et les générateurs d'images. Ils sont basés sur tellement de données qu'ils vont en chercher partout. Cela pose des problèmes de droits d'auteur et de licences. Les données personnelles sont déjà protégées par la réglementation européenne du RGPD, mais pour les citoyens, l'application est trop complexe. Moi aussi, il m’arrive trop souvent de cliquer “oui” aux annonces de cookies pour m'en débarrasser.
L'IA et les grands acteurs en savent beaucoup sur nous, ils possèdent parfois même des informations que nous ne possédons pas ou ne percevons pas encore. Autant de problèmes auxquels nous devons encore trouver des solutions. Une autre question est souvent posée en ce qui concerne les données. Si un modèle a besoin de plus en plus de données, à long terme, vous allez le former à terme avec des données qu'il a lui-même générées et il n'apprendra plus grand-chose de neuf. Même dans le domaine des données, les ressources sont finies; en fait, je pense que nous nous rapprochons déjà de cette limite.”
L'accélération que nous observons aujourd’hui va donc ralentir?
“Non, parce que les techniques pour générer des textes, des images et des vidéos s'améliorent, ce qui permet de repousser encore les limites avec les mêmes données.
L'une des frontières sur lesquelles nous travaillons beaucoup à Louvain est l'apprentissage à partir de données. L'intelligence se résumait autrefois à des processus de raisonnement et à une réflexion progressive. Vous abordiez la résolution d'un problème mathématique ou la rédaction d'une dissertation de la même manière que, lors de la préparation d'un voyage, vous arrêtez d'abord votre destination avant de vous pencher sur le voyage. Nous avons quelque peu perdu de vue ce raisonnement dans l'IA en mettant l’accent sur les données et le machine learning.
Ce travail purement axé sur les données produit parfois des résultats erronés ou indésirables. Il y a quelques années, j'ai acheté une nouvelle voiture qui m'indiquait à quelle vitesse je pouvais rouler. Elle pouvait lire les panneaux de signalisation, mais se trompait souvent parce qu'elle ne pouvait pas évaluer correctement le contexte. Dans la recherche sur l'intelligence artificielle, nous accordons beaucoup plus d’attention aux processus de raisonnement et au contexte. Ces éléments sont très importants pour mettre en place des systèmes opérationnels.”
Les citoyens profanes doivent-ils savoir comment fonctionne l'IA?
“Ce serait une très bonne chose que tout le monde reçoive des connaissances de base sur l'IA dans l'enseignement primaire ou secondaire, afin de savoir comment les données sont traitées, comment fonctionne l’IA, quels sont les opportunités et les dangers. Il existe un module de formation de niveau universitaire intitulé “L'IA pour tous”, qui s'adresse spécifiquement aux étudiants non techniques et s'appuie également sur le cours en ligne intitulé “Éléments de l'IA“, de libre accès. Cela conviendrait aussi parfaitement aux élèves de dernière année de l'enseignement secondaire. Quoi qu'il en soit, les connaissances en matière d'IA doivent être intégrées bien davantage dans l'enseignement.”
Photo: Lieven Van Assche