Un rapport indépendant, mené par le Citizen Lab de l’Université de Toronto, met en garde le gouvernement canadien en raison de son utilisation d’une nouvelle génération de logiciels intelligents pour filtrer et traiter les dossiers de personnes qui font des demandes pour immigrer au Canada.
Le Citizen Lab estime que les risques de dérapages aux conséquences très graves naîtraient d’une utilisation insensible ou abusive en plus de mener à de la discrimination, à l’atteinte à la vie privée et aux droits de la personne des candidats à l’immigration.
Ces nouveaux outils dits intelligents pourraient, dit-on, entraîner des « conséquences mortelles » pour les immigrants et les réfugiés.
« Nous savons que le gouvernement expérimente l’utilisation de ces technologies […] mais il est clair que sans garanties et mécanismes de surveillance appropriés, utiliser l’IA pour déterminer l’immigration et le statut de réfugié est très risqué », explique Pétra Molnar, l’une des auteures du rapport.
« L’IA n’est pas neutre. C’est un peu comme une recette. Et si votre recette est biaisée, la décision prise par l’algorithme est également biaisée et difficile à contester », poursuit-elle.
Un outil qui aide au triage, affirme-t-on au gouvernement, mais qui ne prend pas les décisions
Au début de l’année, des fonctionnaires fédéraux ont lancé deux projets pilotes pour qu’un système d’intelligence artificielle trie des demandes de visa de résident temporaire en provenance de la Chine et de l’Inde.
Mathieu Genest, un porte-parole du ministre de l’Immigration Ahmed Hussen, a déclaré que le programme d’analyse aide les agents à trier les demandes de visas en ligne pour « traiter plus efficacement les dossiers courants ».
Il dit que la technologie est utilisée exclusivement comme un mécanisme de tri pour aider les agents d’immigration à traiter un nombre toujours croissant de demandes de visas de visiteurs de ces pays en déterminant rapidement les applications normales et en signalant les dossiers plus complexes à examiner.
« L’intention est de soutenir les décideurs dans leur travail et non de les remplacer, a dit M. Genest. Nous surveillons et évaluons les résultats et le succès de ces projets pilotes avant de les lancer ou d’envisager de les étendre à d’autres pays et secteurs d’activité. »
Quoi faire pour éviter les pièges de l’intelligence artificielle en immigration?
Les auteurs du rapport du Citizen Lab publient une liste de sept recommandations pour une plus grande transparence, la publication et la surveillance publiques de l’utilisation de l’intelligence artificielle et l’analyse prédictive par le gouvernement pour automatiser certaines activités qui visent des applications d’immigrants et de visiteurs.
Ils s’inquiètent particulièrement du sort des réfugiés dans les mains de l’intelligence artificielle. Puisque la loi sur l’immigration est discrétionnaire, ce groupe devrait vraiment être le dernier groupe soumis à des expériences technologiques sans surveillance.
Le Citizen Lab se dit en faveur de la création d’un organisme de surveillance indépendant chargé de surveiller et d’examiner l’utilisation de l’intelligence artificielle pour la prise de décision.
Recommandé pour vous :
L’intelligence artificielle dans les entreprises canadiennes : Arriérée ou retardée?
RCI avec La Presse canadienne et la contribution de Radio-Canada
En complément
L’intelligence artificielle au service de la radiologie – RCI
Montréal confirmée comme cerveau mondial de l’intelligence artificielle et profonde – RCI
Pour des raisons indépendantes de notre volonté et, pour une période indéterminée, l'espace des commentaires est fermé. Cependant, nos réseaux sociaux restent ouverts à vos contributions.