Une nouvelle idée mathématique freine l’IA pour faire des choix commerciaux contraires à l’éthique et coûteux


intelligence artificielle

Crédits: CC0 Public Domain

Des chercheurs de l’Université de Warwick, de l’Imperial College de Londres, de l’EPFL (Lausanne) et de Sciteb Ltd ont trouvé un moyen mathématique d’aider les régulateurs et les entreprises à gérer et à contrôler les préjugés des systèmes d’intelligence artificielle pour faire des choix commerciaux contraires à l’éthique et potentiellement très coûteux et dommageables – un regard éthique sur l’IA.

L’intelligence artificielle (IA) est de plus en plus déployée dans des situations commerciales. Pensez par exemple à utiliser l’IA pour fixer les prix des produits d’assurance à vendre à un client particulier. Il existe des raisons légitimes de fixer des prix différents pour différentes personnes, mais il peut également être rentable de “ jouer ” leur psychologie ou leur volonté de faire le tour.

L’IA a un grand nombre de stratégies potentielles parmi lesquelles choisir, mais certaines sont contraires à l’éthique et entraîneront non seulement un coût moral, mais une pénalité économique potentielle importante, car les parties prenantes appliqueront une certaine pénalité si elles constatent qu’une telle stratégie a été utilisée – les régulateurs peuvent prélever des amendes importantes de milliards de dollars, de livres ou d’euros et les clients peuvent vous boycotter, ou les deux.

Ainsi, dans un environnement où les décisions sont de plus en plus prises sans intervention humaine, il y a donc une très forte incitation à savoir dans quelles circonstances les systèmes d’IA pourraient adopter une stratégie contraire à l’éthique et réduire ce risque ou l’éliminer complètement si possible.

Des mathématiciens et des statisticiens de l’Université de Warwick, de l’Imperial, de l’EPFL et de Sciteb Ltd se sont réunis pour aider les entreprises et les régulateurs à créer un nouveau “principe d’optimisation contraire à l’éthique” et fournir une formule simple pour estimer son impact. Ils ont exposé tous les détails dans un document intitulé “Un principe d’optimisation contraire à l’éthique”, publié dans Royal Society Open Science le mercredi 1er juillet 2020.

Les quatre auteurs de l’article sont Nicholas Beale de Sciteb Ltd; Heather Battey du Département de mathématiques de l’Imperial College de Londres; Anthony C. Davison de l’Institut de mathématiques, Ecole Polytechnique Fédérale de Lausanne; et le professeur Robert MacKay de l’Institut de mathématiques de l’Université de Warwick.

Le professeur Robert MacKay de l’Institut de mathématiques de l’Université de Warwick a déclaré:

“Notre” principe d’optimisation contraire à l’éthique “suggéré peut être utilisé pour aider les régulateurs, le personnel chargé de la conformité et d’autres à trouver des stratégies problématiques qui pourraient être cachées dans un vaste espace stratégique. On peut s’attendre à ce que l’optimisation choisisse de manière disproportionnée de nombreuses stratégies contraires à l’éthique, dont l’inspection devrait montrer où des problèmes sont susceptibles de survenir et suggèrent donc comment l’algorithme de recherche de l’IA devrait être modifié pour les éviter à l’avenir.

“Le Principe suggère également qu’il peut être nécessaire de repenser la façon dont l’IA fonctionne dans de très grands espaces stratégiques, de sorte que les résultats contraires à l’éthique soient explicitement rejetés dans le processus d’optimisation / d’apprentissage.”


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*