La révolution des machines a beaucoup plus de sept ans, mais la maturité tarde à venir. Pourtant, si l’espèce humaine ne veut pas renoncer à ses nouveaux jouets préférés, Big data et IA en tête, il va falloir se montrer responsable. Consommer moins, mieux et en réfléchissant : comment n’y a-t-on pas pensé avant ? La nouvelle génération numérique doit désormais faire rimer technologie et éthique, sous peine de créer un monde aseptisé dont personne n’a vraiment rêvé…
Une révolution totale… mais en suivant les règles
A la fin du XVIIIe siècle, en Angleterre, en France, puis partout dans le reste du monde, la révolution industrielle modifie toutes les structures existantes. Avec des points bénéfiques (augmentation de la production, progrès technique, bénéfices financiers), mais aussi de terribles contreparties : pollution massive et spectre, déjà, de remplacer l’homme par la machine.
Trois siècles qui ressemblent à 100.000 ans plus tard, une nouvelle révolution arrive, celle du numérique, qui se propage encore plus rapidement sur la (quasi) totalité de la planète. Si la fibre optique tâche moins que le charbon, les risques sont, en grande partie, les mêmes, avec en premier lieu le risque de donner un nouveau coup, peut-être cette fois fatal, à la planète. Mais l’être humain, qui ne répète pas sans cesse les mêmes erreurs (il en invente de nouvelles), a cette fois décidé de s’organiser un peu en avance.
Car les patrons d’aujourd’hui ne sont pas ceux d’hier, et les usines à forçats se sont transformées en entreprises à missions, dont l’objectif n’est pas (que) de faire de l’argent, mais aussi d’apporter l’égalité, la justice sociale, et de préserver l’environnement. Ces beaux sentiments ont pris une forme légale en 2019 avec la loi Pacte et les normes RSE, pour responsabilité sociale et économique. Mais 2019, à l’ère du numérique, c’est la préhistoire, et des modifications sont déjà nécessaires. C’est l’objet du travail de France Stratégie, une institution rattachée au Premier ministre, qui a décidé de réguler le développement du monde professionnel à travers un nouvel acronyme, la RNE, pour Responsabilité Numérique des Entreprises. Avec l’ajout d’un facteur nouveau et inattendu dans nos rapports aux machines : l’éthique, ou le fait, dans un monde où tout est possible, de ne pas faire n’importe quoi.
La sobriété, ou l’art de faire plus avec moins
Renoncer au numérique, sûrement pas. Que Papa continue d’impressionner (croit-il) la banquette arrière de la voiture en utilisant la carte routière plutôt que le GPS, d’accord, mais qu’il impose qu’on arrête les téléphones parce que « vous n’en aurez pas toujours un », non : on voudra désormais TOUJOURS en avoir un et, n’en déplaise aux amateurs de vinyles, certaines avancées technologiques sont irréversibles. A condition de ne pas abuser. Mais comment savoir si la limite est dépassée ?
Le particulier qui souhaite se rassurer peut aujourd’hui aisément calculer, logiciel à l’appui, son bilan carbone, et agir en fonction : si on est allé au Vietnam en avion pour les vacances d’hiver, on prendra le train pour aller à Nice cet été. Qu’en est-il du bilan numérique ? D’après une étude de I’IDC (international Data Corporation), chaque être humain crée en moyenne 1,7 mégaoctet de données par seconde. Des informations stockées dans des data centers de plus en plus grands, de plus en plus chauds, et qui risquent de fortement contribuer au réchauffement de la planète à force de vouloir faire refroidir leurs circuits.
La solution : la sobriété, ou frugalité, qui consiste à limiter autant que possible sa consommation numérique. Au niveau de l’entreprise, la Responsabilité Numérique des Entreprises propose plusieurs axes pour limiter les dégâts, au niveau matériel comme immatériel. Les équipements devront ainsi être éco-conçus, c’est à dire que chaque maillon de la chaîne de production doit être réfléchi en fonction de son impact environnemental. Ils seront, si possible recyclés, au minimum recyclables, et prévus pour durer longtemps. Le service IT prend lui aussi sa part en construisant des réseaux globaux cohérents, pour éviter les doublons, les systèmes inutiles et énergivores, et réguler le flux de données. Et en s’assurant, par la formation et la communication, que ces données, si elles ne nuisent pas à la planète par leur poids, ne nuisent pas non plus aux salariés par leur utilisation.
L’éthique, valeur clé du traitement des données
Attention : les amateurs de romans d’anticipation apocalyptiques doivent mettre leurs cauchemars à jour. S’il est toujours prévu que la machine remplace l’homme (en commençant par celui qui travaille, sur sa machine ou son ordinateur), son identité se résume aujourd’hui en deux lettres : IA, l’Intelligence Artificielle. Une technologie à la fois nouvelle et déjà présente depuis un moment, follement novatrice et finalement pas si maline que ça, et qui n’en finit pas de diviser. D’après un sondage réalisé par Harris Interactive en juin 2023, 48% des salariés souhaitent en effet travailler avec l’IA, générative notamment, alors même que 51% la considère comme une menace ! Faute de la comprendre ? L’IA telle que nous la connaissons actuellement repose sur trois points : la collecte massive de données, leur traitement par de puissants algorithmes, puis la création de contenus nouveaux en se basant sur de l’existant . Les trois posent problème.
Le recueil des données, par exemple, est aujourd’hui quasiment permanent. Il s’agit, ainsi, de tous les questionnaires remplis, sur des logiciels d’entreprise par exemple (date de naissance, situation familiale, études,…), mais aussi des données GPS de votre portable, voire tout simplement de votre image, captée (et reconnue !) par des caméras installées dans la rue, au bureau, et pas toujours accompagnée de la signalétique obligatoire. A moins de se couper de tout objet connecté, de revenir au stylo plume et d’envoyer des courriers postaux, impossible d’échapper à la collecte de données. Se pose alors la question de leur utilisation.
Des exemples terrifiants existent déjà de par le monde : en Iran, des caméras « intelligentes » ont été installées pour reconnaître et sanctionner les femmes ne portant pas de voile. Mais les dérives ne sont pas réservées aux régimes autoritaires. En entreprise, les clients sont, dans un but que l’on peut comprendre, souvent soumis à de nombreuses études, parfois sans s’en rendre compte : les réseaux sociaux ne sont pas regardés que par les fans, mais aussi par les services marketing souhaitant avoir un retour direct sur leurs produits… Les enquêtes se font, pour d’autres raisons, à l’intérieur des entreprises : sondage sur les risques psycho sociaux, sur l’aménagement des locaux, sur la politique vacances du groupe… Des questionnaires sont ainsi régulièrement envoyées aux salariés qui y répondent de façon anonyme. Mais comment garantir cet anonymat ? Si un salarié indique, croyant répondre à un simple sondage, qu’il se sent en désaccord avec sa hiérarchie, comment être sûr que cette hiérarchie n’en sera pas alertée ? Comment être sûr que les absences et arrêts maladie, renseignés sur un logiciel d’entreprise, ne seront pas comptabilisés par un algorithme interne qui, sans prendre en compte la situation humaine, se contentera d’indiquer sur la fiche du salarié une « alerte » qui pourra lui être préjudiciable ? Et comment, enfin, être sûr que cette fiche interne ne sera pas piratée (ou pire, vendue) à d’autres groupes ? Si un recruteur peut, au moment d’étudier une candidature, consulter les données recueillies sur lui par son ancienne entreprise, il ne part peut-être pas les mêmes chances que ses concurrents…
Afin d’éviter les dérives, les entreprises doivent donc mettre en place des principes clairs sur ce qui relève du privé et du professionnel, sur ce qu’il est éthiquement acceptable de demander et de conserver, et de quelle façon. Pour que les salariés se sentent protégés, il est également indispensable d’informer, d’expliquer, de ne pas tricher. La base est de ne collecter que les données nécessaires à l’activité. A l’heure du tout numérique, les algorithmes « secrets » ne sont plus à la mode : impossible de se servir des données d’un usager sans l’en prévenir et sans lui préciser le but exact de l’étude.
Les entreprises doivent également disposer d’outils numériques permettant de s’assurer de l’inviolabilité de leurs bases de données. Les pourvoyeurs de systèmes informatiques doivent se montrer prudents : si une entreprise se fait voler les données de ses salariés, ils seront en droit de lui en tenir rigueur. Dès lors qu’une entreprise dispose d’une base contenant des données privées, elle doit faire tout son possible afin de se prévaloir des risques de cyberattaques. Là encore, c’est le service IT qui sera en première ligne.
L’IA générative, ou la fuite des cerveaux
Derrière le nom un peu pompeux d’IA Générative se cachent tous les logiciels de création automatique de contenus (textes, musiques, images…) qui ont amusé un temps avant de faire peur. Ils sont désormais de plus en plus utilisés au travail, pour rédiger des mails ou compléter des présentations. Un outil pratique, mais pas encore assumé : d’après un sondage IFOP – Talan, 68% des salariés utilisant l’IA générative le cachent à leur supérieur ! Par peur d’être traité de fainéant? Le risque n’est pourtant pas dans le fait de faire gagner quelques minutes à ceux qui n’aiment pas passer trop de temps à écrire des formules de politesse…
Le premier risque, pas toujours conscient, de l’IA générative, est la fuite de données. Pour faire un rapport, une présentation, pour répondre à une question, l’utilisateur doit fournir des données. Si, dans sa tête, tout se passe entre lui et sa machine, ses données sont, forcément, à un moment, traîtées par l’algorithme d’une compagnie privée… que rien n’empêche de les mémoriser, de les stocker, et de s’en servir quand cela sera nécessaire. On imagine aisément l’impact d’une requête servant à créer la présentation des spécifications techniques du prochain iPhone si elle est faite sur un outil Google, qui prépare lui-même sa prochaine génération de mobile…
La deuxième problématique est la dépendance que crée ces IA. D’abord simples aides, elles peuvent vite devenir indispensable à des salariés qui ne seraient plus habitués à travailler sans. Et, contrairement au vélo, certaines capacités se perdent rapidement si on ne les utilise pas. Un salarié qui confie tout son travail à un robot risque de perdre ses compétences… et peut-être même finalement être remplacé par ce robot… Ce qui est impossible tant qu’il parvient à s’en démarquer. Comment ? En travaillant de façon humaine.
Car le risque que l’IA générative fait peser sur les salariés, il le fait, dans le fond, peser sur la civilisation en général. Il s’explique par son fonctionnement : l’IA a avalé des milliards de données et les recrache dans le bon ordre, mais c’est tout. Aucune originalité, aucune personnalité, aucune nouveauté : bienvenue dans un monde parfait mais tout à fait aseptisé. Les nouvelles toiles de Van Gogh générées en IA peuvent impressionner, mais elles ne font que rabâcher du travail déjà fait. Vous voulez vous faire peur ? Demandez à une AI de créer une image dans le style AI pour voir. Au mieux ce sera le bug, au pire la vision effrayante d’un grand vide… Une IA peut créer un nouvel album dans le style de John Lennon, mais elle ne peut pas créer un nouvel John Lennon.
L’intelligence artificielle, en relai mais sans doute pas en remplacement
Autre problème de l’IA : elle n’assume jamais ses responsabilités ! Le temps où l’erreur n’était qu’humaine est révolu, les machines aussi se trompent, lorsqu’elles annoncent par exemple, en se basant sur les précédentes compétitions, le vainqueur de la future coupe du monde… Les erreurs peuvent être plus graves : l’IA est ainsi maintenant utilisée pour donner des avis juridiques, voire même faire des diagnostics médicaux. En plus des conséquences directes des erreurs, parfois dramatiques, se posent alors la question de la responsabilité. Lorsqu’un avocat ou un médecin se trompe, il doit répondre de ses actes. L’IA pourra elle facilement plaider responsable mais pas coupable. Reprochera-t-on aux programmeurs les erreurs de leur création ?
Le fonctionnement même de l’IA peut aussi devenir une source de discrimination. Elle peut par exemple être utilisé au niveau RH pour faire un premier tri parmi des CV. Si ce tri se fait sur un critère précis, renseigné par un responsable, cela peut être utile. Mais l’IA, pour faire son choix, peut aussi se baser sur l’existant. Si une entreprise a, à un certain type de poste, beaucoup plus d’hommes que de femmes, l’IA peut considérer cela comme une normalité… et écarter, de fait, les CV envoyées par des femmes. Une discrimination basée sur la répétition, une aberration intellectuelle causée par une logique uniquement comptable.
Pour s’en prémunir, la solution est simple. L’IA doit être cadrée, utilisée uniquement lorsque cela est nécessaire, en maintenant une vérification humaine et en ne lui laissant aucun rôle de décision. Une gestion raisonnable et éthique, fruit d’une réflexion humaine. Car il en va finalement de l’IA comme du numérique, et de l’ensemble des outils créés par l’homme : ils lui sont utiles et bénéfiques tant qu’il en reste le maître. Dans ses engagements pour un responsable numérique, le groupe Thalès garantit ainsi « que l’humain pourra conserver la capacité de reprendre le contrôle des systèmes ». Sachant que le groupe Thalès construit notamment des équipements militaires, on le remerciera de tenir sa promesse.