Julien De Sanctis nous livre ici son analyse sur la place de l'IA dans le travail, son impact et les opportunités qu'elle offre.
Julien De Sanctis, Docteur en philosophie, conférencier et formateur chez Thaé
Peut-on parler d’une « révolution de l’IA » ?
L’IA est un outil au service d’un système normatif préexistant. Les outils technologiques sont les instruments de normes, de valeurs, d’intérêts qui leur préexistent et qui légitiment leur conception. Un outil vient s’insérer dans un environnement déjà normé. Il va possiblement les modifier, les amplifier…Même marginalement, l’introduction d’une technologie a toujours un impact. Par exemple, ChatGPT est censé nous rendre plus performants, plus créatifs, plus efficaces. Rien de nouveau ici : on cherche simplement à amplifier un socle de valeurs déjà constitutives du travail actuel.
Nous pouvons également remettre en question les modes de production de cette technologie que ce soit sur le volet social avec cette nouvelle forme d’aliénation qu’est le travail du clic ou sur le volet écologique (extraction de métaux, énergie dédiée aux serveurs…). Là aussi, rien de nouveau : nous restons dans une logique d’extraction/exploitation propre au capitalisme dont la valeur dominante est l’accumulation, le « toujours plus » qu’il s’agisse de croissance, de confort, d’innovation etc.
Pour ces deux raisons il faut se méfier de l’idée selon laquelle il y aurait une « révolution anthropologique » liée à l’IA. A titre personnel, c’est la dimension morale des révolutions anthropologiques qui m’intéressent et, pour le moment, je vois surtout une amplification du système de valeurs technocapitalistes plutôt qu’une « révolution ».
Qu’est-ce que l’éthique et pourquoi est-ce important de prendre en compte cet aspect dès lors qu’on aborde le sujet de l’IA ?
Le mot éthique vient du grec êthikos, dérivé d’ethos qui signifie « habitude », « moeurs » et, par extension, « comportement ». L’éthique s’intéresse à la question
fondamentale en philosophie grecque : qu’est-ce qu’une vie digne d’être vécue ? C’est-à-dire une vie qui nous permet de cultiver nos facultés morales. Le défi est alors de définir comment agir éthiquement dans le monde pour vivre dignement à l’échelle individuelle et collective. L’éthique, c’est avant tout la nécessité de se demander pourquoi nous faisons les choses tout en ménageant, j’insiste, la possibilité d’un renoncement à telle ou telle technique, tel ou tel projet. L’intégration de l’IA peut devenir la chambre d’écho des forces, mais aussi des faiblesses de nos systèmes, notamment managériaux. Il est donc crucial d’interroger notre environnement normatif : que définissons nous comme essentiel ? Quel sens donnons-nous à l’idée de progrès ? Que signifie travailler dans un monde en crise généralisée ?
Puisque cette technologie est censée nous faire gagner du temps, saisissons cette occasion de réfléchir à ce que signifierait de travailler non pas toujours plus, mais sobrement. La sobriété, c’est l’inverse de l’ébriété. Elle n’est donc pas antagoniste à l’efficacité, au contraire ! Il s’agit de mieux travailler en prenant soin du travail. Cela implique notamment de ne jamais séparer le travail de ses conditions de réalisation.
Faut-il absolument « gagner du temps » ?
Oui, l’IA peut nous faire gagner du temps – mais pour quoi faire ? Allons-nous mobiliser ce temps pour garnir encore plus notre agenda professionnel au risque d’accroitre les phénomènes d’aliénation déjà trop présents au travail ? L’aliénation, c’est le fait de devenir étranger·e à soim-même, de voir sa subjectivité malmenée notamment par l’accélération permanente qui nous dépossède de nous-mêmes et de cette faculté qui nous fait prendre du recul pour interroger nos désirs, nos besoins, ce que l’on aime faire, ce qui a du sens pour nous. Prenons au sérieux la transformation de nos manières de travailler et faisons de ces nouveaux outils une opportunité d’interroger ce qui compte vraiment pour nous et ce qui serait souhaitable pour le collectif comme pour les individus.
L’IA est-elle au service de la dignité humaine, ou va-t-elle au contraire contribuer à la dégrader ?
Il est nécessaire de concevoir des algorithmes et des politiques d’intégration de l’IA respectueux de la dignité humaine ou, autrement dit, de créer des outils technologiques qui respectent notre condition de sujet et de citoyen. Cela passe notamment par le fait de consulter les personnes que la mise en place de cette technologie va concerner. Par exemple, il est fondamental de déterminer ensemble les tâches et les compétences qu’elles veulent conserver et/ou développer pour des raisons d’identification – je suis en partie ce que je fais et comment je le fais – et d’épanouissement.
Un exemple très simple d’IA allant dans ce sens : dans un article de 20191 le chercheur à l’Inria Yann Ferguson évoque le développement d’un chatbot au sein d’une grande organisation. L’objectif : répondre en interne à des questions juridiques de base que le service juridique ne pouvait prendre en charge faute de temps. Dans ce cas, la technologie autonomise les collaborateurs en répondant à un besoin légitime qui était jusqu’ici ignoré (ou traité de façon très aléatoire) et ce sans remettre en question le travail et les compétences du service juridique. Cet exemple illustre le rôle fondamental du management pour maintenir une logique de « care » dans le cadre du déploiement des outils d’IA.
1 https://www.cairn.info/les-mutations-du-travail--9782348037498-page-23.htm