l’Utilisation de l’Intelligence Artificielle : Enjeux et Ethiques liés au respect des droits des utilisateurs
La deuxième de journée de MaliSIG a débuté par le module 4 portant sur « l’Utilisation de l’Intelligence Artificielle : Enjeux et Ethiques liés au respect des droits des utilisateurs ». Ce module est animé par Youssouf Sakaly, Directeur General de ISERV.
Le formateur a débuté par des remerciements à l’endroit de l’ISOC-Mali pour cette initiative car les participants ainsi que lui-même sortiront de cette salle avec une masse de connaissance. Même s’il n’évolue pas dans ce domaine, il affirme s’y intéresser depuis 2 ans. D’après lui, ces 3 jours de formations thématiques leur permettront d’accroître leur connaissance sur la thématique de l’IA qui est le thème de cette année.
C’est ainsi que le module a débuté avec l’historique d’une IA du nom de TAI qui apprenait avec les internautes avec lesquelles il conversait, TAI n’a eu qu’une durée de vie de 8 h avec 83000 twist. Mais le programme n’a pas abouti car l’application imitait les comportements de ces followers en devenant raciste, vulgaire et nuisible envers ceux-ci etc… Au point que Microsoft avait demandé pardon aux utilisateurs.
L’histoire d’une autre IA s’en ai suivi, CAMBRIDGE ANALYTICA qui est une application de Data Science ayant permis à extorquer des millions de données à caractères personnels à Facebook pour une plus grande manipulation de masses de tout le temps. Cette attaque touche de plein fouillet à l’utilisation analytique des données. Le formateur a mis l’accent sur un point « Si j’avais l’occasion d’écrire d’un livre, je relaterai cette affaire de CAMBRIDGE ANALYTICA pour sensibiliser les enfants et la jeune génération sur les enjeux de l’IA ».
Ces échanges ont servi d’entrée en matières pour le sous-thème enjeux clés de l’IA qui sont entre-autres :
- Automatisation à outrance et suppression d’emploi
- Pronostics erronés et prise de décision automatisées
- Biais algorithmique et éthiques
- Cyber criminalité
Ces différents points de l’enjeux liés à l’utilisation de l’IA ont chacun servi de sujet de discussion entre le formateur et les participants. Ils ont tous utilisé des exemples de la vie courante afin d’appuyer leurs dits.
L’exposé portant sur les enjeux a été conclu par le résumé ci-dessous :
« L’IA peut être biaisée, imprévisible, discriminatoire, nuisible et dangereux. Quel que soit son intelligence il lui manque l’aspect humain car le biais algorithmique fait qu’il se comporte conformément aux dits du créateur ».
A l’exemple de « ASAM-Mali qui a été victime d’une attaque de Cheval de Troie et en une journée ils ont perdu accès à tous leurs données et l’hackeur leur réclamaient des millions d’Euros comme moyen d’échange ». Raison pour laquelle l’IA est extrêmement dangereuse car le cyber criminalité fait parti des attaques de données les plus dangereuses qui portent atteintes à la vie privée.
Concernant les défis de l’éthique de l’IA, le formateur a mis l’accent sur la responsabilisation des entreprises (économique, politique ou scientifique) dans l’utilisation efficiente de l’IA. Cette responsabilisation permettra à l’IA d’être sensible par rapport la valeur humaine.
L’un des outils essentiels pour mettre en place l’IA serait aussi la mise en place de réglementation pour balancer les avantages et les inconvénients. Ces lois seront mises en place à différents niveaux pour une utilisation consciencieuse de l’éthique de l’IA. A titre d’exemple, les Européens sont en train de mettre en place des lois pour encadrer l’IA tout en restant dans le domaine de l’innovation. Car le problème majeur de l’IA est que la notion d’encadrement et d’innovation se chevauchent.
Le Canada a également mis en place 10 principes pour l’utilisation de l’IA, le bien-être, le respect de l’autonomie, la protection de l’intimité et la vie humaine, le principe de prudence, la démocratie etc… afin de garantir le respect et la protection des utilisateurs.
Les réseaux sociaux ont également mis en place des réglementations pour l’utilisation éthique de l’IA. Ce processus est le fait de marquer clairement que le contenu provennant de l’IA lorsqu’une publication est générée par l’IA. A l’exemple de YouTube, Tik tok, twitter etc….
Quelques conseils pratiques ont été énoncés pour une bonne pratique de l’utilisation éthique de l’IA :
- Protection dès la conception et par défaut
- Limitation de la finalité
- Minimisation des données
- Contrôle humain
- Explicabilité
- Equité et non-discrimination
- Redevabilité
Le formateur a ainsi incité les participants vers la culture de la recherche dans le domaine de la technologie à travers un débat sur l’ISTONIE qui est une application de base de données biométrique. Le modèle ISTONIEN est devenu une référence mondiale qui est basé sur le e-citoyen tout en assurant le respect de l’intégrité des données humaines.
Le module a été conclu par un raisonnement portant sur le fait que l’IA est au cœur de l’information. En effet, cette information est la seule chose qui quand on le partage se démultiplie.
Enfin, la recommandation du formateur pour l’application de l’IA au Mali est la mise en place de lois pour son utilisation responsable mais avant cela il faut la mise en place et l’adoption des lois (sur le code numérique de façon générale et aussi sur l’urbanisation des systèmes informatique).