La science de l’IA devenue science politique

Katja Rausch, ex-professeur à la Sorbonne et fondatrice de La Maison de l’éthique, un groupe de réflexions défendant le brassage d’idées et de cultures face aux dérives de l’IA réagit à la multiplication d’initiatives politiques, de Rome à Washington, autour de l’éthique de l’I.A.

Quatre ans après la signature de Microsoft et d’IBM, Cisco vient de rejoindre le club élitiste de l’appel de Rome piloté par le Vatican pour promouvoir une intelligence artificielle à la fois responsable et sûre.

« Cette séance au Saint-Siège, comme d’ailleurs les invitations de Google, Microsoft, OpenAI, Anthropic, Amazon, Meta et Inflection à la Maison Blanche pour former le Frontier Model Forum, ne peuvent que faire hausser les sourcils éthiques, » objecte-t-elle.

Katja Rausch, fondatrice du groupe de réflexions La Maison de l’éthique

Selon la chercheuse Luxembourgeoise, les références à une IA éthique prônant l’inclusion, la générosité, le partage, et l’égalité ne sont autres qu’un écran de fumée : « Nous savons tous que ce sont des cercles d’influence et de pouvoirs ultra-puissants. Sur le terrain, les éthiciens et les régulateurs se livrent des combats de taille. Quand j’entends Meta subventionner les débats sur les Droits de l’Homme, l’éthique y est réduite à une tokenization syntactique.»

Dev Stahlkopf, directrice juridique de Cisco

Pour sa part, la directrice juridique de Cisco Dev Stahlkopf pointe l’étendue des risques majeurs de l’IA, de la collecte à l’utilisation de données personnelles, ainsi qu’au niveau de la protection de la vie privée. « Les autres dérives possibles englobent la propriété intellectuelle, le respect des droits de l’homme, la précision et la fiabilité, ou encore la partialité.»

Le contrepoint de l’Universitaire Katja Rausch est direct :

« Là où je rejoins Dev Stahlkopf, c’est que les risques de l’IA dépassent de loin la protection de la vie privée. Mais elle ne touche pas au problème de fond qui est systémique. Et Cisco en fait partie.»

Nos données entraînent des IA immatures

Elle met en garde les développeurs influençables et les chercheurs trop dociles : « Le véritable danger pour nos démocraties, nos valeurs sociétales d’inclusion, de diversité et de dignité, c’est le pouvoir politique et idéologique écrasant des big tech. Les Altman, Musk, Nadella & Co ne sont plus considérés comme des ingénieurs, des scientifiques ou des hommes d’affaires, mais comme des hommes d’État. Et sont reçus comme tels.»

La science de l’IA s’est politisée. Elle est devenue une science politique, constate Katja Rausch. « Le business s’est transformé en politique. Et le vrai scandale est que les gens, les utilisateurs, nous tous, nos données sont aspirées partout où nous nous connectons.»

« Nous sommes – via nos données – devenus une monnaie courante. Nous sommes devenus des cobayes, en temps réel, dans un laboratoire planétaire pour «entraîner» des technologies immatures comme ChatGPT. Et l’éthique est devenu le blister du produit. Voilà le véritable danger. Le discours éthique, dans ces cas, sert d’anesthésiant collectif dans une communication chloroformée. »

Auteur de l’article : la Rédaction

Journaliste et fondateur de l'agence éditoriale PulsEdit, Olivier Bouzereau coordonne la communauté open source OW2, conçoit des services et contenus en ligne, des conférences et formations pour les professionnels du numérique, des médias et de la santé. Profil LinkedIn.