Faire en sorte que l'intelligence artificielle soit à l'hauteur des attentes

Faculté de génie
Science informatique et génie électrique
Intelligence artificielle
Technologie
Groupe de spécialistes en informatique dans un laboratoire de l'Université d'Ottawa.
Des ingénieurs et des ingénieures de l'Université d'Ottawa jettent les bases de la transformation numérique de la société.

Pour beaucoup de gens, l’intelligence artificielle est une sorte de boîte noire magique. On entre des données, des algorithmes font leur travail et on obtient un résultat.

Mais ce résultat est-il fiable? Peut-on s’y appuyer pour prendre une décision d’affaires ou de politique publique cruciale qui risque de décider du sort d’une entreprise ou d’avoir un impact sur des millions de vies?

C’est le genre de questions que l’on se pose à l’École de science informatique et de génie électrique de la Faculté de génie de l’Université d’Ottawa.

Tout est dans les données

La professeure Herna L. Viktor examine la question dans le contexte du chevauchement des bases de données et de l’intelligence artificielle.

« Un algorithme d’apprentissage automatique n’est bon que si vos données sont bonnes, dit-elle. Nous ne pouvons pas simplement laisser s’exécuter aveuglément des algorithmes et accepter le résultat tel quel. Il est très important d’examiner les caractéristiques des données et de tenir compte de questions comme le bruit, la sous-représentation et les tendances. Tout cela a une influence sur les résultats finaux. »

À titre d’exemple, un récent moteur de recrutement de talents technologiques utilisé par Amazon a dû être abandonné, car la sous-représentation des femmes dans le domaine faisait en sorte que l’algorithme d’apprentissage automatique ciblait uniquement des candidats masculins. Un autre exemple : l’utilisation des techniques d’apprentissage automatique pour détecter des maladies rares ou orphelines est entravée par le petit nombre de patients, ce qui peut conduire à négliger leurs symptômes.

Les données évoluent et augmentent continuellement. On estime que d’ici 2020, 1,7 Mo de données seront créés chaque seconde pour chaque personne sur Terre. Le défi consiste à créer des algorithmes suffisamment évolués pour pouvoir non seulement assimiler des quantités aussi ahurissantes de données, mais aussi reconnaître et trier les bonnes et les mauvaises données, et être en mesure d’expliquer comment une conclusion ou un résultat a été obtenu. Permettre ce type de transparence et de responsabilité a toujours été un défi majeur pour l’apprentissage automatique.

« Puisque l’intelligence artificielle commence à jouer un rôle très important dans la prise de décisions, il faut que l’on puisse interpréter les résultats de l’apprentissage et expliquer aux spécialistes du domaine exactement comment nous en sommes arrivés à une décision », précise la professeure Viktor.

« Nous ne pouvons pas simplement laisser s’exécuter aveuglément des algorithmes et accepter le résultat tel quel. » – La professeure Herna L. Viktor

Ces spécialistes peuvent travailler dans le domaine des soins de santé, de la protection civile ou dans un secteur vertical des TI comme les services infonuagiques.

La professeure Viktor et son équipe ont déjà travaillé avec des partenaires des secteurs public et privé à des projets tels que l’évolution des tendances dans le traitement des maladies pour une planification plus proactive des soins de santé, la prévision des événements météorologiques extrêmes et la détection des cybermenaces.

5G et au-delà

La professeure Melike Erol-Kantarci, directrice et fondatrice du Laboratoire de recherche sur les systèmes et les communications en réseau (NETCORE) de l’Université d’Ottawa, fait des recherches sur l’apprentissage profond et l’apprentissage automatique dans le contexte de l’exploitation efficace des réseaux sans fil 5G.

La 5G, c’est du lourd. Le taux de transfert des données sur un appareil 5G peut être jusqu’à 1 000 fois plus rapide que sur les appareils 4G (LTE) actuels. Les films Ultra-HD, que la plupart des gens ne tentent même pas télécharger tellement cela est frustrant, pourraient être prêts à être visionnés en quelques secondes seulement.

Ce type de connectivité et de vitesse entraîne aussi une augmentation spectaculaire de la complexité du réseau.

« Là où il y a des centaines de stations cellulaires aujourd’hui, il en faudra des milliers », déclare la professeure Erol-Kantarci. « Celles-ci devront compenser l’interférence causée par d’autres stations et utilisateurs. Les modèles actuels d’intelligence artificielle ne sont pas en mesure d’assurer une attribution efficace des ressources et de gérer un accès initial et équitable pour les appareils sans fil. »

Les premiers produits 5G seront mis sur le marché en 2019 et les déploiements de réseaux complets suivront. Pouvoir habiliter l’intelligence artificielle est essentiel. La professeure Erol-Kantarci précise que les applications ne se limitent pas aux seuls téléphones intelligents : la 5G est une norme cruciale pour soutenir la connectivité croissante de la société dans son ensemble, l’Internet des objets.

« Le Canada investit beaucoup dans la conduite autonome, et pour cela, il aura besoin de la connectivité qui viendra avec la 5G », ajoute-t-elle. « C’est aussi le cas pour toutes les initiatives dites “intelligentes” : les soins de santé intelligents, les réseaux électriques intelligents, les villes intelligentes… Ce que nous faisons à l’Université d’Ottawa aidera à intégrer l’intelligence artificielle dans les futurs réseaux partout où il y a une demande pour une connectivité sans fil à plus haute vitesse et un temps d’attente ultra-faible. »

Cet article a été publié, en version originale anglaise, dans l’Ottawa Business Journal.