L’importance de l’évaluation d’impact algorithmique pour une IA universelle

jeudi 28 avril 2022, par Bruno Benque

L’intelligence artificielle de Santé se montre gourmande en données personnelles pour alimenter et entrainer leurs algorithmes. Mais des biais algorithmiques sont dénoncés ça et là, sur les champs des préjugés sociaux, du racisme, ou du manque de transparence, qu’il faut à traiter en amont avant de faire tourner ces petits programmes informatiques. Au Royaume-Uni, le NHS a initié un travail de recherche pour généraliser l’utilisation d’un processus nouveau d’évaluation d’impact algorithmique (AIA). Explications...

Des diagnostics automatisés à la médecine personnalisée, le secteur de la santé intègre, depuis quelques années, un nombre significatif d’applications liées au Big Data. Et pour alimenter les algorithmes d’Intelligence Artificielle (IA) afin qu’ils puissent s’entraîner à partir de données nombreuses et issues de la vraie vie, les chercheurs du secteur ont besoin d’accéder à ce Big Data de Santé.

Une intelligence artificielle de Santé gourmande en données personnelles

C’est pour répondre à ce besoin que les organismes de tutelles, soucieux d’augmenter le taux d’innovation dans ce domaine, cherchent à rendre les données de santé qu’elles contrôlent plus accessibles aux chercheurs et aux entreprises de la spécialité, qui émanent le plus souvent du secteur privé. Mais si les technologies basées sur les données de Santé présentent un fort potentiel pour une meilleure prise en charge des patients, mais également dans le cadre d’une meilleure prévention des risques sanitaires, elles sont susceptibles d’être à l’origine de graves risques de préjudice pour les patients, leur environnement et la collectivité notamment, à cause de biais algorithmiques.

Des biais algorithmiques à traiter en amont de l’alimentation en données

Les acteurs du secteur travaillent aujourd’hui sur cette problématique afin que ces biais algorithmiques ne puissent pas nuire et, au final, avoir l’effet inverse de ce pourquoi les algorithmes d’IA ont été créés. C’est dans ce contexte que le National Health Service (NHS) du Royaume-Uni, l’équivalent de notre Haute Autorité de Santé (HAS), vient de lancer un projet pilote de grande ampleur sur les évaluations d’impact algorithmique (AIA) dans le domaine de la santé afin d’éliminer ces fameux biais dans les algorithmes. Ce travail est sensé faire un focus sur quelques fonctionnalités et caractéristiques de ces algorithmes et parvenir à l’élaboration d’un nouveau processus qui garantira que les biais algorithmiques seront traités avant qu’ils ne puissent accéder aux données de Santé du NHS.

Préjugés sociaux, racisme, manque de transparence

Mais de quoi parle-t-on, concrètement, lorsque l’on évoque de tels biais ? Certains spécialistes se montrent circonspects notamment quant à la manipulation des données lorsqu’elles sont introduites dans l’algorithme et certains « préjugés algorithmiques » sont ainsi diffusés à propos de l’IA, qui, dans ce cadre, favoriserait les inégalités de Santé en reproduisant, par exemple, les préjugés sociaux et le racisme enracinés dans les systèmes existants. D’autre part, ces petits programmes informatiques comportent un langage inaccessible ou manquent d’explications transparentes pour que les cliniciens, les patients et le public puissent en comprendre les finalités. L’AIA devrait permettre enfin de suivre et de surveiller la collecte de données personnelles, afin de limiter les risques pour la vie privée des individus.

Un travail de recherche en cours pour généraliser l’évaluation d’impact algorithmique

C’est le Groupe Éthique du NHS AI Lab qui s’assure que les ensembles de données pour l’élaboration et l’entrainement des systèmes d’IA sont diversifiés et inclusifs. Pour concevoir l’AIA, il a fait appel à l’Ada Lovelace Institute, qui a publié, le 8 février 2022, ses recherches un mémorandum dans lequel les chercheurs décrivent le processus détaillé, étape par étape, pour l’utilisation des AIA dans le monde réel. Il est conçu pour aider les développeurs et les chercheurs à prendre en compte et à respecter les impacts potentiels de ces technologies sur les personnes, la société et l’environnement. Les chercheurs espèrent que cela se traduira par de meilleurs résultats de santé pour tout le monde, et en particulier pour les groupes minoritaires.

Bruno Benque
Rédacteur en chef www.cadredesante.com
bruno.benque@cadredesante.com
@bbenk34


Partager cet article

Vous recrutez ?

Publiez vos annonces, et consultez la cvthèque du site EMPLOI Soignant : des milliers de profils de soignants partout en France.

En savoir plus