Aller au contenu principal
post thumb
13 avril 2020 - 17:55

Quelle intelligence artificielle pour lutter contre le Covid-19? Les réponses de l'experte Amal El Fallah Seghrouchni

Partout dans le monde, la crise sanitaire induite par la pandémie COVID-19 a accéléré la transformation digitale. Le recours aux technologies notamment l'intelligence artificielle suscite beaucoup d'interrogations et d'inquiétudes notamment sur le plan éthique. Qu'en est-il du Maroc? Dans cette conversation, Amal El Fallah Seghrouchni, Professeure à la Faculté des Sciences et d'Ingénierie à Sorbonne Université, chercheuse au LIP6 CNRS (France) et membre d'honneur du think tank Digital Act, apporte son éclairage et attire l'attention sur la nécessité de l'équité des solutions à adopter.


Digital Act : Vous venez d’être nommée à la Commission mondiale d'éthique des connaissances scientifiques et des technologies de l'Unesco. En quoi l’éthique en matière d’usage du numérique et plus particulièrement de l’intelligence artificielle est un enjeu majeur dans la gestion de crise de la pandémie COVID19 ?
 

Amal El Fallah Seghrouchni : Dans le contexte de la pandémie du COVID-19, après les premières mesures, il est urgent d’élaborer et de renforcer des solutions sanitaires pour endiguer la pandémie, continuer à soigner les personnes atteintes et poursuivre la mise en œuvre des solutions économiques rapides et concrètes aux populations. C’est dans ce climat d’alerte mondiale et de crise multi-facettes, que plusieurs pistes de solutions technologiques s’offrent à nous, comme les technologies numériques (applications mobiles sur téléphones portables, les médias sociaux) sublimés par l'intelligence artificielle qui peuvent jouer un rôle important dans la lutte contre les pandémies, en permettant de surveiller, de prédire et d’infléchir la propagation de la maladie et d'influencer le comportement des individus.

Nous sommes face à des choix multi-critères ; et nous devons rechercher un équilibre utilitariste en examinant les options avec responsabilité et éthique. Les critères à optimiser doivent être choisis avec méthodologie et pondérés selon un prisme éthique tout en respectant le principe de la responsabilité individuelle. De mon point de vue, plusieurs critères sont à considérer simultanément :

-Le critère de l’intérêt effectif des solutions préconisées en termes d’opportunités qu’elles offrent dans ce cadre de crise particulier. A-t-on des garanties sur les apports réels de ces solutions ? peut-on prouver ne serait-ce que théoriquement et de préférence en amont qu’elles vont réellement solutionner les problèmes pour lesquelles elles seront conçues ? peut-on établir des preuves scientifiques ?  Peut-on garantir que ces solutions ne seront pas biaisées ?

-Le critère des limites intrinsèques de ces solutions. En l’absence de recul par rapport à ces solutions technologiques, sur leur faisabilité technique et leur fiabilité (situation de hacking de ces solutions, comme c’est le cas actuellement en France pour les dérogations de sorties) mais aussi de la possibilité effective de leur déploiement social, il est nécessaire d’être vigilant pour ne pas engager négativement l’avenir. Par exemple, en prenant des décisions sur la base de données peu fiables, on crée des effets de bord irrévocables ou des jurisprudences fâcheuses. Les débats actuels sur la dangerosité des passeports immunitaires soulignent bien le besoin de données fiables difficiles à obtenir du fait de leur évolution permanente en cas de pandémie.

-Le critère du respect des droits des humains et de la vie privée des citoyens. Il est d'une importance cruciale de s'assurer que les questions éthiques, sociales et politiques liées à l'utilisation de ces technologies soient traitées de manière adéquate. Par exemple, une solution ne doit pas constituer une menace pour les droits des personnes et elle ne doit pas engendrer des discriminations. Une solution ne doit pas laisser de côté les personnes fragiles qui n’ont pas accès à l’usage de ces technologies, etc. Dans un Etat Américain, 70% des morts du Coronavirus sont noirs alors qu’ils représentent 30% de la population de l’état. Mais ils sont pauvres. La gestion du confinement en Inde est également un exemple criant de l’injustice sociale.

Les précautions à prendre si le recours à l'intelligence artificielle est nécessaire ?

Ne pas s’affranchir du cadre éthique et prendre en considération tous ces critères permettrait d’asseoir la confiance et de créer les conditions d’une acceptabilité sociale en particulier lorsqu’il agit de technologies potentiellement intrusives comme celles à base d’IA. C’est pour cela que la déclaration sur le COVID-19 « Considérations éthiques selon une perspective mondiale » commune au Comité international de bioéthique de l’UNESCO (CIB) et de la Commission mondiale d’éthique des connaissances scientifiques et des technologies de l’UNESCO (COMEST), stipule que « les droits de l'homme devraient toujours être respectés, et les valeurs de vie privée et d'autonomie devraient être soigneusement équilibrées avec les valeurs de sûreté et de sécurité ». 

Quelle est votre appréciation de l’usage massif des moyens technologiques permettant notamment le traçage numérique par des pays asiatiques notamment la Chine et Taiwan pour faire face à la propagation du COVID-19?

Le traçage numérique dans le contexte du COVID-19 signifie la mise en œuvre de solutions de suivi numérique, individualisé ou collectif, pour la protection de la santé publique. Ce suivi numérique implique la collecte d’informations relatives aux citoyens et à la pandémie du COVID-19.  C’est une question importante qui a soulevé de nombreux débats dans les pays soucieux de la vie privée et des droits de l’homme et beaucoup de citoyens redoutent le retour de la doctrine du choc.

La culture asiatique est différente en ce sens qu’elle est encline à accepter la surveillance de masse et à reléguer la protection de la vie privée au second plan et cela ne date pas de la pandémie du COVID-19. La Chine qui n’est pas un idéal démocratique a déjà déployé des services à l’échelle nationale qui utilisent des algorithmes de reconnaissance faciale. Mais l'Asie n’est pas monolithique. Le Japon par exemple a adopté des solutions différentes respectant le droit à la vie privée. Contrairement à la Chine et à la Corée, le gouvernement Japonais se concentre sur la prévention des clusters, plutôt que le suivi individuel. Le gouvernement n'a pas introduit de suivi des citoyens pour COVID-19 mais la situation peut évoluer si la situation sanitaire empire. Cependant, des débats en cours montrent que le suivi des citoyens ne serait pas facile à faire accepter.

A l’opposé, Hongkong déploie des technologies très intrusives pour lutter contre le virus. Des bracelets électroniques et des téléphones signalent où vous vous trouvez, vous recevez des messages texte si vous vous éloignez trop de la quarantaine et des détectives numériques qui suivent où vous vous êtes rendu – Ce dispositif permet aux autorités de vérifier votre emplacement à tout moment. C’est Big Brother 5.0 dans toute sa splendeur.

L’Europe a longuement hésité. Si certaines barrières tombent, le débat de la société civile est très soutenu. Pour les citoyens, il s’agit essentiellement de vie privée et de données personnelles qu’il est nécessaire de protéger. Comme ces solutions de suivi numérique sont particulièrement intrusives, leur acceptabilité sociale nécessitera des garanties fortes quant au respect de la vie privée et des données personnelles des citoyens. Enfin, la durée de ces pratiques de suivi numérique doit être limitée à la période de la crise sanitaire même si la tournure que prend le casse-tête du dé-confinement rend cette durée difficile à prédire.

Comment le Maroc peut recourir à l’intelligence artificielle dans sa gestion de la pandémie tout en prenant en compte les enjeux liés à l’éthique ?

D'abord, on peut recourir à ce que j'appelle la Digitalia, cette nouvelle façon de concevoir des systèmes intelligents où l'IA vient sublimer le digital qui fournit les couches basses alors que l’IA apporte les capacités intelligentes (capacités de perception, de dialogue, de planification, de décision automatique et d’adaptation, etc.). Souvent, la Digitalia est aussi une convergence entre le monde physique (ex. les infrastructures, le hardware, les dispositifs matériels) quand on intègre le logiciel intelligent au sein de systèmes embarqués et en interaction avec l'Humain. Des robots domestiques, des drones, des objets connectés comme les assistants vocaux (ex. les chatbots) ou encore les smartphones sont des dispositifs qui aident l'Humain à accomplir des tâches et à se divertir (déterminer un itinéraire ou préparer une playlist).

Pendant cette crise sanitaire, la Digitalia aide déjà à créer des applications mobiles bénéficiant d'interfaces multimodales pour aider les populations à s'informer, à rester connectées ; des services dématérialisés (B2B ou B2C) et des plateformes d'échange pour pallier le confinement et assurer la continuité de service ; déployer des drones pour informer et protéger des citoyens (en France, en Inde et en Chine) ; ou faire des consultations en télémédecine.

Avec des méthodes d'IA cognitive, il est possible d'automatiser la prise de décision, de guider des ambulances à atteindre les hôpitaux au plus vite possible, de planifier dans l'incertain la prise en charge d'un patient en cas d'urgence. Par le passé, j’ai eu l’occasion de diriger le développement d’un système d'IA facilitant des négociations multi-critères (état des patients, besoins en infrastructures médicales, disponibilité des lits en urgence) entre divers acteurs de la santé (hôpitaux, médecins, SAMU..) pour  automatiser le dispatch des patients dans le cadre de l'attentat de Valencia, en Espagne. 

D'autres méthodes statistiques basées sur l'apprentissage automatique, notamment les réseaux de neurones et l'apprentissage profond, peuvent prédire la propagation de l'épidémie en fonction des données recueillies ; prédire un phénomène de consommation, etc. Précautions à prendre, si l’IA est incontournable, les solutions qu’elle apporte doivent être développées dans la sérénité et reposer sur des données bien calibrées.

Les modèles prédictifs par exemple peuvent amener des solutions incomplètes voire erronées si on ne fait pas attention aux biais potentiels et désormais reconnus pour ces modèles. En effet, les procédures d’apprentissage statistique, aussi automatisables qu’elles soient, ne sont valides que dans un cadre spécifique. Cette validité dépend de deux choses :  d’une part, les hypothèses faites sur les mécanismes aléatoires inhérents à l’observation des données (mécanismes parfois difficiles à contrôler surtout en situation de pandémie) et d’autre part, l’ensemble des règles de décision, jugées potentiellement performantes, qui est utilisé.  

Pour prendre des décisions robustes dans le cas de cette lutte contre le COVID-19, il faut éviter au moins les trois biais suivants :

-Les biais cognitifs génèrent une distorsion par rapport à une réalité ou une rationalité. Pour reprendre une expression de la mathématicienne Cathy O’Neil (2016), un algorithme n’est en réalité qu’une opinion intégrée aux programmes, et nous savons que les opinions peuvent conduire à des pratiques discriminatoires à l’encontre des personnes. Il faut créer des groupes pluridisciplinaires et travailler en collaboration pour cerner les différentes facettes de cette crise, mieux comprendre la situation et fiabiliser les interprétations et par conséquent les décisions.

-Les biais statistiques ou les biais de données génèrent de fausses analyses qui engendrent, fatalement, des mauvaises décisions. A titre d’exemple, les biais de sélection apparaissent lorsque les caractéristiques de la population étudiée sont différentes de celles de la population générale. Dans le cas du COVID-19, les données collectées ne seraient pas représentatives du fait du volontariat car un seuil de l’ordre de 60% des individus à se porter volontaires est nécessaire ; ou du fait du faible maillage des connexions réseaux. Le biais d’endogénéité quant à lui consiste à prédire à partir des données recueillies et donc du passé et peut conduire fâcheusement à ne pas intégrer les évolutions futures des données. La prise en compte des projections dans le futur est nécessaire du fait de la mutation du virus.

-Les biais économiques, volontaires ou pas, les solutions peuvent être biaisés si l’IA ne cible que des segments de la population. Par exemple, des offres de dépistage ciblant les  « personnes âgées versus les jeunes ». Le « Search engine manipulation » est également un biais à éviter. Dans le contexte de l’e-commerce, la commission européenne a par exemple condamné Google en 2017 à une amende de 2,4 milliards d’euros pour avoir favorisé ses propres produits dans les résultats de recherche de Google Shopping au détriment de ses concurrents. Nous ne sommes pas à l’abri de ce type manipulations liées à des lobbies de l’industrie pharmaceutique, des GAFAM ou de certains opérateurs. D’ailleurs, on voit déjà fleurir des conflits d’intérêt ici et là ainsi que des coalitions au sein des GAFAM pour proposer ou recycler des solutions au pistage des individus.

Enfin, l’équité des solutions est un concept éthique qu’il faut respecter. La difficulté est de prendre en compte à la fois l’équité horizontale qui signifie que les individus sont égaux indépendamment de leur origine ethnique, de leur couleur ou de leur richesse alors que l’équité verticale porte sur une hiérarchisation sociale. Par exemple, les plus riches cotisent plus que les moins riches, ceux qui sont très malades sont soignés en priorité, etc.  La résultante de ces dimensions est un compromis délicat et pour porter leurs fruits, les solutions Digitalia à mettre en œuvre doivent respecter un équilibre réfléchi entre les dimensions horizontale et verticale et mobiliser des équipes pluridisciplinaires pour appréhender cette crise multi-facettes nécessitant des solutions multi-critères en période de crise et après en régime de croisière.