Interview de Katleen Gabriëls
Katleen Gabriels est germaniste et philosophe. Elle travaille à l'université de Maastricht depuis 2019, où elle dirige le bachelor interdisciplinaire Digital Society, qui réunit les sciences sociales, sciences humaines et sciences des données.
En 2016, elle publie son livre Onlife: Hoe de digitale wereld je leven bepaalt (How digitalisation shapes your life), qui traite des aspects éthiques de l'Internet of Things. Trois ans plus tard, la suite paraît sous le titre Regels voor robots. Ethiek in tijden van AI (Conscientious AI. Machines Learning Morals). Elle est également coauteure, avec la mathématicienne Ann Dooms, de From Galaxy to Morality, paru en 2020.
La technologie n'est pas neutre
La technologie a considérablement changé nos vies au cours des vingt dernières années. Nos opinions sur le partage des informations ne sont plus les mêmes, les limites de notre vie privée ont été repoussées.
Katleen Gabriels: "Les concepteurs de technologies ont énormément de pouvoir. Il est donc important de concevoir leur travail sous différents angles, en faisant appel à plusieurs disciplines. L'équipe
de conception ne doit pas se limiter aux sciences exacts. Les spécialistes des sciences humaines et sociales ont aussi un rôle essentiel à jouer."
Vous avez peut-être vu sur YouTube la vidéo d'un distributeur de savon dans des toilettes publiques. Un homme noir passe sa main sous la machine, rien ne sort. S'il pose une serviette blanche en papier sur sa main, il reçoit du savon. Le distributeur "raciste" a sans doute été conçu par une équipe de collaborateurs blancs, qui n’ont pas pris en compte le fait qu'il serait utilisé aussi par des personnes de couleur. Cela prouve que la conception n'est pas seulement une question de technologie. Des questions éthiques se posent également. Et c'est là qu’intervient Katleen Gabriels.
Technologie et éthique: une combinaison improbable?
Dans notre pays, le rapport entre ces deux domaines n’est apparu que depuis peu. L'éthique commence tout juste à poindre dans la formation des étudiants en ingénierie. Dans ce domaine, les Pays-Bas sont nettement plus avancés.
Comment s'est développé votre intérêt pour cette matière?
Je suis germaniste et philosophe de formation. A l’époque de ma formation en sciences morales à l'université de Gand, Second Life, le monde virtuel tridimensionnel, faisait fureur. J'ai été tout de suite intriguée. Je me suis posé la question de savoir ce que vous devenez dans ce monde virtuel, si cela se rapproche de votre identité et comment la moralité est réglementée dans ce type d’environnement. J'ai écrit une thèse de master sur les émotions morales dans Second Life. J’ai poursuivi des études de doctorat à la VUB sur la moralité dans les mondes virtuels sociaux. Lorsque j’ai découvert que de nombreux travaux et recherches avaient déjà été menés sur l'éthique informatique et sur l'éthique et la philosophie de l’intelligence artificielle, c’est tout un univers qui s'est ouvert à moi.
On part du principe que l'ingénierie et la technologie sont neutres. Cette hypothèse serait-elle fausse?
Oui. Pour illustrer mon propos, je prends souvent l’exemple des “repentis”, ces personnes dont les inventions ont radicalement changé la société et qui s’en repentent à présent. Je cite en particulier l’interview de Tony Fadell, l'homme qui a participé à la conception de l'iPod et de l'iPhone, "Je me réveille parfois tout en sueur". Il affirme que lorsque les ingénieurs ont conçu l'iPhone, ils ont commis la grossière erreur de le développer pour eux-mêmes. Pour des jeunes d’une vingtaine d’années sans enfants. En tant que quadragénaire marié et père de trois adolescents, il voit à présent les choses très différemment. L'utilisation de l'iPhone est un sujet de discorde avec ses enfants. Il se sent en partie responsable des tensions qui existent dans tant de familles. Il plaide aujourd'hui, avec d'autres, en faveur d'un serment d'Hippocrate pour les développeurs: je ne ferai pas de mal. ”
Ou encore Tim Berners-Lee, l'homme qui, avec le Belge Robert Cailliau, a contribué lors de ses travaux au CERN à développer le World Wide Web. Il estime que les grands acteurs ont trop de pouvoir sur les données et il travaille désormais sur la plateforme Solid, un autre type d'internet où les utilisateurs ont beaucoup plus de contrôle sur leurs données. Ce qui ressort des récits des repentis, c'est que les concepteurs de la technologie ont énormément de pouvoir.
Et qu’ils peuvent réellement changer la société?
Absolument! On constate que la technologie fait évoluer les normes et les valeurs. Nos opinions sur le partage de l'information, par exemple, ont radicalement changé au cours des vingt dernières années. La limite entre la sphère privée et publique a changé. Les gens se connectent sur les réseaux sociaux lors de funérailles ou aux urgences d'un hôpital, par exemple, pour faire savoir qu'ils sont là.
Notre comportement à l’égard des autres n'est plus le même qu'il y a vingt ans. Nous sommes constamment distraits par nos téléphones. Eh bien non, la technologie n'est pas neutre. Aujourd'hui, de nombreuses applications sont conçues de façon à focaliser notre attention, c'est ce qu'on appelle la distraction by design.
Dans cette “économie de l'attention”, nous payons avec notre temps et notre attention. Plus nous passons de temps sur ce type de plateforme, plus les données sont collectées.
Les gens ne prêtent même plus attention aux pièges cognitifs. Sur YouTube, une vidéo se termine et la suivante commence immédiatement, vous n'avez pas le temps de réfléchir. Sur Facebook, il y a les notifications surlignées en rouge ou la timeline que l'on peut faire défiler à l'infini.
La responsabilité n'incombe-t-elle pas en partie à l'utilisateur de la technologie?
Il y a bien sûr une part de responsabilité individuelle, mais il faut surtout considérer tout le contexte. Je compare souvent cela à l'obésité. Ce n'est pas seulement un problème individuel; il faut aussi prendre en considération la famille et le lieu de résidence, l'industrie qui ajoute du sucre dans toutes sortes de produits alimentaires, la commercialisation de produits malsains… Il en va de même pour l'utilisation de la technologie.
De nombreuses plateformes et applications sont conçues pour retenir notre attention. Sur la base des connaissances scientifiques et psychologiques, les entreprises réfléchissent à la manière d'inciter les gens à rester sur la plateforme le plus longtemps possible; c'est un choix structurelle de conception. Les grands acteurs devraient être contraintes de rendre des comptes très stricts sur ce plan. Une fonctionnalité Temps d'écran comme sur l'iPhone ne signifie rien; c’est la conception même des applications et des plateformes en ligne qui doit changer. La responsabilité morale du concepteur a été éludée trop longtemps.
Comment parvenir à une bonne ou à une meilleure technologie?
La technologie doit être conçue en interdisciplinarité, en intégrant différents angles de vue. Ce n'est pas seulement une question de philosophie; on touche aussi très vite à la politique et à la réglementation. L'autorégulation sur laquelle les politiciens ont tablé trop longtemps ne fonctionne pas car, en fin de compte, les décisions des grands acteurs sont gouvernées par le profit et les actionnaires.
Il y a beaucoup à dire sur les algorithmes, comme la boîte noire qui prend des décisions sans que personne ne sachent sur quoi celles-ci reposent. Comment expliquez-vous le pouvoir que nous leur attribuons?
On constate un certain désengagement moral. Nous recourons tous quotidiennement à des mécanismes qui visent à décliner notre responsabilité morale, du genre "tout le monde le fait": si tout le monde est responsable, alors on ne se sent plus responsable individuellement. Nous déléguons aussi volontiers nos responsabilités. Nous tombons facilement dans le piège des algorithmes: l'ordinateur a décidé, on ne peut rien y faire. Si, par exemple, je ne veux pas louer ma maison à une personne de couleur, vous pouvez à juste titre m'accuser de racisme. Par contre, si je confie ce choix à un algorithme par le biais d'une construction complexe, je peux prétendre que c’est l'ordinateur qui a pris la décision et me décharger de cette responsabilité.
Comment pouvons-nous agir?
Nous devons considérer les algorithmes d'un œil très critique. Beaucoup d’entre nous pensent que les algorithmes sont des mathématiques, mais ce n'est pas le cas. Cathy O'Neil l’exprime parfaitement en disant que les algorithmes sont des opinions intégrées à du code. Ils ont un énorme pouvoir d’influence. Le minimum que l'on puisse exiger, c'est la transparence. Si un algorithme fait un choix qui a un impact important sur votre vie, vous avez le droit de savoir comment il est arrivé à ce résultat. Ainsi, si votre prêt est refusé, cette décision a des conséquences importantes et l’on doit vous expliquer pourquoi l'algorithme a fait ce choix et sur quelles données il se base.
Ceci suppose que les entreprises donnent un droit d’accès…
C’est effectivement un problème. Nous ne savons toujours pas comment fonctionne le moteur de recherche de Google ou la timeline de Facebook. Aux Pays-Bas, les algorithmes ont joué un rôle important dans l’affaire du emboursement des allocations familiales. Cette décision du fisc allait à l'encontre du règlement européen sur la protection des données (RGPD) et reposait en partie sur l'utilisation non transparente d'un algorithme. Il faut donc faire preuve d’une plus grande transparence.
Pour ce qui concerne le développement de la technologie, la clé se trouve sans nul doute dans l'interdisciplinarité. La discrimination dans les algorithmes est souvent causée par des développeurs qui ne sortent pas de leur milieu ou qui entraînent leurs algorithmes au moyen de données trop restreintes. Ils faut veiller par exemple à ce que certaines catégories de personnes ne soient pas laissées pour compte en raison de leur sexe ou de leur couleur de peau. Il est donc essentiel de faire intervenir des personnes qui regardent les choses sous différents angles.
L’aspect politique est un autre problème. De nombreux décideurs politiques ont une formation en sciences humaines et sociales et connaissent mal le fonctionnement de la technologie. Ils font trop confiance aux entreprises et à leur machine de marketing. Il faut aussi porter un regard très critique sur la volet politique.
Vous préconisez un code de conduite pour les professionnels et les chefs d'entreprise?
Des codes existent déjà, mais ils ne s’attachent pas assez aux conséquences et au sanctions en cas de mauvais conduite. Une charte comme le Contrat pour le Web de Tim Berners-Lee ne nous mènera nulle part. Facebook et Google ont été les premiers à le signer, tout heureux de faire un joli window dressing. Un code de conduite doit absolument briser cette culture de non-respect des normes éthiques.
Que peuvent faire les citoyens pour mieux comprendre les pièges de la technologie?
L'éducation aux médias est très importante. Le Vlaams Kenniscentrum Mediawijsheid (Centre d’éducation aux médias) fait un travail fantastique, mais il est encore trop peu connu. L'enseignement est l’une des clés. Je suis favorable de l'éducation aux médias dès l’école maternelle. Les tout-petits ne savent pas encore lire ou écrire, mais sur YouTube, ils sont déjà confrontés à la publicité.
Plus généralement, notre enseignement doit devenir interdisciplinaire, de l'école primaire à l'université. En Belgique, il y a trop de cloisonnement entre les sciences humaines, sociales et exactes, alors que la force réside précisément dans l'interdisciplinarité et l'apprentissage mutuel.