Publié le 16 février 2018
Recherche
Intelligence artificielle

L’intelligence artificielle (IA), voilà un nom qui suscite tout à tour inquiétudes, fantasmes, appétits industriels et vocations académiques. Pour tenter d’y voir plus clair, voici un panorama non exhaustif des activités de recherche en IA au sein de l’Université Paris-Saclay.

Qu'est-ce que l'intelligence artificielle ?

Les déclarations d’Elon Musk ou de Stephen Hawking alimentent les débats à l’international ; Cédric Villani est chargé d’une mission parlementaire sur le sujet ; quasiment tous les géants du web et des technologies (Microsoft, IBM, Facebook, Alphabet, Apple, Fujitsu, Huawei,…) construisent des laboratoires et des centres de recherche dédiés ; et des instituts entièrement voués à la recherche en intelligence artificielle se créent partout dans le monde (LCFI à Cambridge, Swiss AI Lab à Lugano, Vector Institute for AI à Toronto, IAI à Brême...). L'intelligence artificielle est donc en évolution rapide.

L'intelligence artificielle est un terme général qui recouvre des sujets très variés et véritablement pluridisciplinaires. Son champ d'étude va de la philosophie aux mathématiques appliquées. Des applications émergent dans un grand nombre de domaines: médecine, robotique, traduction automatique, conduite autonome, reconnaissance d'image ou de sons, jeux vidéo, assistance à la décision… Zoom sur quatres activités de recherche en intelligence artificielle.

Apprentissage et optimisation

Marc Schönauer et Michèle Sebag font office de précurseurs lorsqu’ils fondent en 2004 l’équipe-projet TAO (Thème apprentissage et optimisation) qui regroupe des chercheurs et des chercheuses du Laboratoire de recherche en informatique (LRI, Université-Paris-Sud), du CNRS et de l’Inria Saclay. Cette équipe cherche alors à lier les problématiques de l’apprentissage machine avec celles de l’optimisation, et donne naissance en 2017 à deux nouvelles équipes, RandOpt (Randomized Optimization) et TAU (Tackling the Underspecified).

L’équipe RandOpt de l’Inria Saclay est dirigée par Anne Auger, et se concentre sur les problématiques d’optimisation, sous tous ses aspects. Ce sont des questions très générales, qui peuvent s’appliquer à de nombreux cas comme dans le choix d’un trajet complexe, dans le design de panneaux photovoltaïques, ou dans la gestion des lignes ferroviaires.

Cette équipe développe des outils mathématiques et algorithmiques permettant de l’optimisation en grande dimension (incluant un grand nombre de variables), de l’optimisation sous contraintes, et de l’optimisation multiobjectif (cas où les variables sont à optimiser dans des sens et des directions contraires) comme chercher à minimiser le coût d’un produit tout en maximisant sa qualité.

De plus, les membres de l’équipe RandOpt ont mis au point la plateforme Coco (Comparing Continuous Optimisers) qui permet de standardiser et d’automatiser les tests comparatifs des différents algorithmes d’optimisation. Ainsi, il devient plus simple d’évaluer les performances d’un algorithme d’optimisation, ou de choisir l’algorithme le plus adéquat à une application.

Après les échecs et le go, le bridge ?

La recherche en intelligence artificielle est dès ses débuts liée aux jeux, car ils représentent des modèles simples de règles et d’objectifs permettant de tester l’efficacité d’une méthode ou d’un algorithme. De plus, les jeux permettent de comparer directement la machine à l’humain.

Depuis que les algorithmes de DeepMind surpassent les capacités humaines au jeu de go, le regard des chercheurs en IA se tourne vers d’autres jeux où la machine est encore inférieure à l’humain, comme le bridge. Ainsi, des chercheurs du LRI et du Laboratoire de mathématique d’Orsay (LMO) ont amélioré un programme de bridge déjà existant en optimisant sa part d'aléatoire. En effet, les programmes de bridge actuels fonctionnent en tirant des nombres aléatoires à partir desquels ils évaluent la qualité d'une situation, d'un choix. Ce tirage aléatoire est fait à partir d'un autre nombre, la graine.

L’idée des chercheurs pour optimiser le programme est de tester différentes graines au préalable et de garder la graine qui donne les meilleurs résultats. Une méthodologie déjà appliqué sur d’autres jeux mais qui n’avait pas encore prouvé son efficacité pour le jeu de bridge.

Ce programme reste encore inférieur aux joueurs humains mais a tout de même réussi à se hisser à la tête des programmes de jeu en devenant champion du monde de la catégorie en 2016.

L’ère du big data

L’émergence du big data est une thématique forte de l’intelligence artificielle, en particulier pour l’équipe TAU du LRI. qui mêle à son programme de recherche tous les problèmes posés par le paradigme du big data. Ce programme est composé de trois points majeures.

Le premier problème est celui de la pertinence pour l’humain de l’interprétation et du traitement par une intelligence artificielle. La deuxième question est celle des difficultés à contrôler, administrer et utiliser efficacement un système (comme une base de données ou une IA) en constant changement. Enfin, les problèmes éthiques posés par le big data qui nécessitent de bien connaître et de bien définir l’équilibre entre sécurité, liberté et efficacité.

Cette question de l’éthique est au cœur du travail d’Antonio A. Casilli (Télécom-ParisTech) et Paola Tubaro (LRI). Ils considèrent que les quantités de données enregistrées et les nouvelles capacités de traitement de données apportent aux gouvernements, ou aux entreprises privées, la possibilité technique des pratiques de surveillance généralisée, de stigmatisation et de censure.

Ils mettent en garde contre l’exploitation de travailleurs précaires que cachent bien souvent la création des grandes bases de données nécessaires à l’apprentissage des intelligences artificielles, et la possibilité de l’apparition d’un « Big Brother » étatique ou même privé.

Donner la vue aux machines

Créé en 2011, le Centre de la vision numérique (CVN) de CentraleSupélec a pour objectif de développer un équivalent de la vision pour les ordinateurs, c’est à dire leur donner la capacité de structurer, traiter, interpréter et comprendre des données visuelles massives. Les applications sont évidemment très nombreuses, du robot dans l’industrie à la voiture autonome en passant par la détection automatique de tumeurs sur des images médicales.

Amélioration graduelle de la qualité d’images d’archive par le déconvolution du bruit

(Application de la méthode pour améliorer la qualité d'image d'une vidéo d'archive)

L’une des difficultés du traitement automatique de vidéos vient de la qualité de la vidéo elle-même, qui peut être floue pour de multiples raisons (mouvement de la caméra ou du sujet, mauvaise mise au point, mauvaise compression lors de l’enregistrement…).

Des chercheurs du CVN viennent de mettre au point une nouvelle technique permettant de déconvoluer le bruit d’une vidéo : séparer les images d’origines des bruits divers qui ont pu s’y ajouter. Ceci permet donc d’améliorer la netteté d’une image vidéo, de manière à faciliter ensuite son traitement et son interprétation par une machine.

En d’autres termes, lorsqu’une machine voit flou, il est désormais possible de lui installer une paire de lunettes !

 

En savoir plus :

« COCO: A Platform for Comparing Continuous Optimizers in a Black-Box Setting »

Nikolaus Hansen, Anne Auger, Olaf Mersmann, Tea Tusar, Dimo Brockhoff

 

« Boosting a Bridge Artificial Intelligence »

Veronique Ventos, Yves Costel, Olivier Teytaud, Solène Thépaut Ventos

 

« An Alternating Proximal Approach for Blind Video Deconvolution »

Feriel Abboud, Emilie Chouzenoux, Jean-Christophe Pesquet, Jean-Hugues Chenot, Louis Laborelli

 

« Enjeux sociaux des Big Data »

Paola Tubaro, Antonio Casilli