Nicolas Papernot

Headshot of Nicolas Papernot, winner of 2022 Sloan Research Fellowship in electrical and computer engineering

Un chercheur décèle des erreurs en intelligence artificielle afin de renforcer la confiance du public

Pour que l’intelligence artificielle (IA) atteigne son plein potentiel en matière de bienfaits pour la société, elle doit gagner la confiance du public. Le renforcement de cette confiance est l’objet de recherche du chercheur en informatique Nicolas Papernot, lauréat d’une Bourse de recherche Sloan en 2022.

« Je m’intéresse essentiellement aux liens entre l’IA, ou l’apprentissage automatique, et la sécurité informatique, la confidentialité et la confiance en général, explique le professeur de la University of Toronto. Mon équipe et moi tentons d’élucider les raisons pour lesquelles les algorithmes d’apprentissage automatique échouent dans le but d’améliorer la confiance des humains et de la société en général envers ces algorithmes lorsqu’ils sont déployés et qu’on doit se fier à leurs prévisions. »

Par exemple, l’apprentissage automatique permet de reconnaître la voix humaine lorsque l’on s’adresse à une assistance virtuelle au téléphone, ou encore à des haut-parleurs intelligents. « Dans l’une de nos études, nous avons découvert que si vous vous adressez à une assistance vocale en parlant à travers un tube, cette dernière associera votre voix à celle d’une autre personne. Vous pouvez même ajuster la longueur du tube pour faire croire au modèle d’apprentissage que vous êtes une personne précise. »

« Voilà qui démontre que les algorithmes d’apprentissage ont des façons bien différentes de déchiffrer les modèles perçus dans les données traitées, comparativement à l’être humain. Il y a donc une sorte d’écart sémantique entre la manière dont ils formulent leurs prévisions et la manière dont des entités malveillantes peuvent exploiter le tout. »

L’équipe de M. Papernot a également été en mesure de démontrer que, dans certaines circonstances, un classificateur d’images pourrait confondre un panneau d’arrêt avec un panneau de cession de passage.

Les activités de recherche du chercheur visent à cibler ce qui doit être corrigé dans les algorithmes afin de pallier les problèmes de sécurité et de confidentialité qui minent la confiance des gens à l’égard de l’IA. Les réserves du public en ce qui a trait à la technologie peuvent restreindre sa mise à contribution dans des domaines comme la médecine ou les services publics.

« À l’heure actuelle, nous ne savons pas vraiment à quel moment on peut avoir confiance en la véracité des prévisions générées par l’apprentissage automatique. C’est donc l’une des principales raisons qui motivent nos travaux de recherche, notamment pour se doter de mécanismes à sécurité intégrée fiables permettant de déterminer lorsqu’une prévision sera inexacte ou exacte. »

M. Papernot se dit « très touché » par l’obtention de la Bourse de recherche Sloan.

« Cette distinction me confirme que nous pouvons continuer de cibler des problèmes présentant un haut risque en matière de recherche, explique-t-il, car c’est ainsi que l’on réalise les plus grandes percées. Cette validation externe qui confirme que l’on s’intéresse aux bons problèmes est toujours la bienvenue lorsque l’on prend davantage de risques. »

En savoir plus sur les bourses de recherche Sloan

Universités Canada