L’Université Paris-Saclay est un des berceaux des méthodes d'apprentissage neuronales en France. Le site reste un des pôles d'excellence au meilleur niveau mondial dans les domaines de l'intelligence artificielle (IA) et de l'apprentissage profond. Avec le soutien de la Région Ile-de-France, la plate-forme Saclay-IA vise à doter la communauté scientifique et l’écosystème industriel d’Ile-de-France de moyens de calcul indispensables dans la compétition internationale en Intelligence Artificielle. Il permet de mener des recherches aux meilleurs niveaux scientifiques et d’accompagner les entreprises de la région, qu’elles soient start-ups, PME, ETI ou grand-groupes, dans leur transition numérique. L’équipement de recherche SACLAY-IA s’inscrit dans les objectifs « recherche » et « industrialisation et transfert » soulignés dans le rapport de synthèse France Intelligence Artificielle publié en mars 2017.


Saclay-IA: une plateforme pour l’apprentissage automatique « profond »
 

Cet équipement de recherche est destiné à tous les acteurs de la région Ile-de-France, qu’ils soient étudiants, chercheurs ou industriels. Il a pour objectif d’offrir un environnement de conception, de validation et d’expérimentation de systèmes à base d’intelligence artificielle : depuis la recherche de pointe sur les architectures de calcul parallèle, les langages de programmation et les systèmes d’acquisition et de traitement de l’information, jusqu’aux applications industrielles. Il vise en premier lieu à rendre accessibles pour les différentes populations d’utilisateurs concernées un ensemble de ressources matérielles (espaces d’échange et de stockage, nœuds de calculs) et de logiciels bien adaptés aux besoins spécifiques des algorithmes d’intelligence artificielle et munis d’accélérateurs graphiques (GPU).

La plateforme Saclay-IA comprend deux machines complémentaires: Lab-IA et Factory-IA. Lab-IA est destinée aux laboratoires de recherche du site paris-Saclay et doit permettre de développer de nouvelles architectures et de nouveaux algorithmes d’apprentissage, ainsi que d’évaluer leurs performances sur les architectures matérielles GPU. Factory-IA s'adresse à un public plus vaste et ambitionne de fiabiliser, d’intégrer les algorithmes dans un environnement complet en vue d’expérimenter leurs performances; Factory-IAse positionne comme une solution adaptée aux besoins des industriels d’Ile-de-France.

Le contexte: des techniques d’apprentissage automatique de plus en plus performantes

Depuis une quinzaine d’années, l’utilisation techniques d'apprentissage automatique exploitant des données de plus en plus massives a permis :

  • des améliorations rapides des performances des algorithmes
  • une application à un vaste ensemble de tâches de reconnaissance des formes : vision artificielle, traitement du signal, des images et des données multimédia, reconnaissance de l’écriture manuscrite ou de la parole, traitement automatique des langues naturelles et fouille de textes, génération de comportements pour des agents animés, systèmes de recommandation automatique, jeux, robotique interactive, etc.

Grâce à l'avènement de l'apprentissage profond, des systèmes de traitement automatisés atteignent aujourd’hui des performances proches de celles de l’humain, voire les surpassent, en donnant parfois l’impression que les algorithmes sont dotés d’une forme d’Intelligence Artificielle (IA).
photo-intelligence-artificielle
L’événement le plus frappant pour le grand public a certainement été la défaite en 2015 du champion du monde de Go, battu par une machine s’appuyant sur ces nouveaux algorithmes et architectures de calcul. Une seconde confrontation entre ces deux protagonistes a été organisée en mai 2017 et s’est conclue sur le même résultat ; la victoire d’Alpha Go, le logiciel d’intelligence artificielle développé par la société Deep Mind (Acquisition de Google en 2014 pour un montant avoisinant les 400 M$). Mais de telles avancées se produisent dans de nombreux domaines : annonce d’un système de reconnaissance de parole « superhumain » par Microsoft, course des acteurs du numérique et des constructeurs automobiles traditionnels à la conception d’un véhicule autonome de niveau 5 (cf. barème européen imaginé par l’Organisation Internationale des Constructeurs Automobiles), promesse d’une traduction automatique de qualité humaine par Google et Facebook, informatique affective ou « affective computing », etc.

Les réseaux de neurones profonds ont permis d’obtenir de résultats impressionnants dans le domaine du traitement des images. Des tâches que l'on pensait très difficiles il y a moins de 10 ans, comme la classification d'images, la détection d'objets ou leur segmentation, sont maintenant considérées comme essentiellement résolues dans les cas simples. D'autres tâches, impensables à l'époque, comme la génération d'images réalistes sans aucun modèle de leur structure ou des objets qu'elles contiennent, ou le transfert de style d'une peinture à une photographie, font maintenant l’objet d’une large littérature scientifique, voire d’applications grand public. Entraîner des réseaux de neurones capables de telles prouesses n'est cependant pas chose aisée: les réseaux profonds de l'état de l'art, comme ResNet, contiennent des centaines de couches de neurones, totalisant jusqu'à 60 millions de paramètres, dont l'optimisation ne peut se faire sans l'utilisation massive de cartes GPU. De surcroît, dans le cas de l'imagerie médicale ou satellitaire, où la résolution est primordiale, ainsi que dans le cas de l'analyse de vidéos, les données à traiter sont particulièrement volumineuses (typiquement, 1Gigabyte par scan) et décuplent d'autant les capacités de calcul requises.

Les défis scientifiques de l'apprentissage profond

Tout un pan de la recherche actuelle repose ainsi sur la conception, le design et l’évaluation d’architectures neuronales de complexité croissante, dont la validité se mesure à l’aune des performances obtenues lors des grands challenges internationaux qui se multiplient dans tous les domaines de la reconnaissance des formes et de l’apprentissage machine. L'Université Paris-Saclay, à travers en particulier son Center for Data Science (CDS), est un des principaux promoteurs de ce type de recherche à l’échelle nationale : Le CDS Paris-Saclay a ainsi organisé en 2015 le Higgs Boson Machine Learning Challenge consacré à l’exploitation statistique de données issues des expériences conduites au CERN. 

L’Université Paris-Saclay, historiquement l’un des berceaux des méthodes neuronales en France, dispose dans ses laboratoires des équipes extrêmement compétitives ayant un long historique de participations, souvent réussies, à ces challenges.  Cette compétence reconnue, associée au potentiel interdisciplinaire large de l’Université Paris-Saclay est également un élément clé du projet d’Institut de convergence DATA-IA sélectionné en mars 2017 (en seconde vague de l’appel PIA « Instituts de convergence »).

Dans ce contexte, l’accès à des plateformes (matériels, logiciels) de calcul capables de prendre en charge efficacement l’apprentissage de réseaux de neurones profonds, en les parallélisant sur des cartes graphiques haute performance (GPU) devient indispensable pour rester dans la course internationale.

Des enjeux pour les acteurs industriels d'ile-de-france, notamment PME / ETI

Les récents progrès de l’Intelligence Artificielle ouvrent des perspectives immenses de création de valeur pour l’avenir. Véritable brique générique, l'IA diffuse dans tous les secteurs de l’économie et se déploie rapidement dans tous les systèmes, qu’ils soient « embarqués » (véhicule autonome, etc.), « distribués » et/ou «centralisés » (services « cloud », etc.). L’accélération de la diffusion des techniques d’Intelligence Artificielle constitue donc un très fort enjeu, au niveau national mais plus particulièrement au niveau de la région Île-de-France. Celle-ci concentre en effet une forte proportion des entreprises innovantes du secteur « numérique » présente sur le territoire national. La plate-forme Saclay-IA associera un large spectre d’industriels, notamment les start-ups, les PME / ETI,dans tous les secteurs d’activités, traditionnelles ou de hautes technologies. Ces dernières trouvent en effet un intérêt fort pour expérimenter à moindre coûts (mutualisation des investissements, accessibilité aux actifs - données et algorithmes - présents sur la plateforme, proximité et concentration des acteurs de la recherche académique et technologique leurs assurant une expertise au meilleur niveau international) leurs solutions ou modèles d’affaires, mais aussi être en lien avec les différents acteurs de la chaîne de la valeur.

C'est en particuliler le cas dans le domaine des transports, qui est une des priorités en matière de développement de l’Intelligence Artificielle. Le traitement de données de capteurs répartis dans les différents composants du véhicule, leur enrichissement grâce à des méthodes d’apprentissage automatique, mais aussi la garantie de fonctionnement du système à base d’Intelligence Artificielle embarqué dans le véhicule, sont autant de challenges scientifiques et technologiques auxquels la communauté de recherche est confrontée. La santé est également un enjeu important avec le développement de méthodes de traitement d’images et de signaux pour le diagnostic, ou encore de recherches dans le domaine du patient numérique, véritable avatar numérique construit par des algorithmes complexes à partir de l’ensemble des données patient. On peut également citer les applications en robotique, avec des systèmes de plus en plus évolués et développant des interactions multimodales (par le geste, le mouvement et la parole) de plus en plus complexes avec les individus qui les contrôlent, ou encore en traitement des informations multimédia à grande échelle. 

Saclay-IA : un projet, deux plateformes

Saclay-IA comprend deux machines interconnectées et offrant des services complémentaires. Une machine pour la recherche (Lab-IA), cofinancée par la Région Ile-de-France, le CNRS, l'Université Paris-Sud et l'Institut-Mines-Télécom,  et également soutenue par l'IdEx Paris-Saclay; une machine de production (Factory-IA), cofinancée par la Région Ile-de-France et le CEA.

La machine Lab-IA

La machine Lab-IA un ensemble hétérogène d’une trentaine de noeuds de calcul embarquant de 2 à 4 cartes GPU par noeud (avec la possibilité d’interconnections très haut débit ( infiniband) entre cartes au sein d’un même noeud afin d’assurer un temps de latence minimum) et des tailles variables de mémoire CPU et GPU afin de répondre à des besoins de recherche variés : calcul mono ou multi-GPU, traitements de données statiques ou en flux etc.

Cet ensemble de noeuds est contrôlée par des machines de service qui offrent des passerelles sécurisées avec l’extérieur: partages de données entre partenaires d’un projet de recherche, réalisations de tests d’intégration d’algorithmes, par exemple par des doctorants, sur la plateforme Factory-IA.Elle permet également le contrôle des équipements de stockage de données utilisées pour l’apprentissage machine. Un espace de stockage temporaire d’environ 300 TeraOctets est mis à disposition pour permettre le traitement de gros volumes de données (images, vidéos, données de capteurs, etc.)

Cette machine est hébergée à l’Institut du développement et des ressources en informatique scientifique (IDRIS-CNRS), qui dispose des surfaces, de la puissance électrique et des capacités de refroidissement nécessaires au bon fonctionnement de cet équipement. L’IDRIS, centre de calcul national du CNRS, fournit également des garanties en termes de fiabilité des services réseaux et de sécurité physique des équipements. Cette machine prend la suite de la machine DSP-CDS, financée en 2016 par le CNRS.

La machine Factory-IA

La machine Factory-IA comprend une infrastructure de stockage de données non structurées (environ 1 PetaOctets), adaptée aux besoins : volume de stockage, duplicabilité pour assurer par sauvegardes une indispensable accessibilité des données, rapidité d’accès notamment au travers di recours à des interconnexions très haut débit (infiniband), versatilité pour la compatibilité avec un ensemble de solutions ou d’architectures de calcul distribuées. Ce dernier point est essentiel afin de disposer de la flexibilité nécessaire pour couvrir les larges besoins et cas d’usages en Intelligence Artificielle des industriels et des acteurs de la recherche.

Elle comprend également une infrastructure de calcul répartie entre CPU, GPU et multi-coeurs ; la majorité des capacités se portant sur l’acquisition (entre 50 et 100 noeuds) de cartes GPU, ainsi qu'une infrastructure logicielle à partir d’outils en open source » permettant de constituer une chaîne de conception, de validation des algorithmes d’IA, c’est-à-dire les plateformes d’environnement, les outils de créations d’applications ou de gestion des entrepôts de données (hadoop, spark, hive, etc.), les outils pour la programmation des réseaux de neurones (tensorflow, cafe, etc.), ainsi que pour la virtualisation (au travers d’une approche de type « dockers »). Les solutions développés par les équipes de recherche seront alors intégrées à cet environnement afin d’enrichir Factory-IA avec un ensemble d’actifs ou de modules logiciels disponibles pour la communauté des utilisateurs ;

Elle comprend enfin infrastructure constituée de machines de service permettant de provisionner à la demande les ressources matérielles et logiciels nécessaires pour la réalisation des projets de recherche en intelligence artificielle. Elles permettent également d’assurer au travers de protocoles spécifiques et sécurisés la collecte ou l’échange de données en provenance de partenaires.

La plateforme est hébergée au TGCC du CEA qui dispose des locaux indispensables pour l’accueillir. Hébergée sur le réseau du CEA, la plateforme bénéficie de l’accompagnement des services de la Directions de Sécurité des Systèmes d’Information. A ce titre, elle fait donc l’objet d’une surveillance constante ce qui garantit ainsi un haut niveau de sécurité des données et algorithmes qu’elle héberge.

Complémentarité avec les moyens de recherche existants en Ile-de-France

Cet équipement est complémentaire des plateformes disponibles sur le territoire d’Île-de-France, telles que les méso-centres de calcul « Fusion » (Centrale Supélec, ENS Paris-Saclay) et « Virtual Data » (Université Paris-Sud). Ces derniers sont en effet orientés vers la mise en commun de ressources de calcul scientifique haute performance et ne proposent pas de plateforme GPU. Il est également complémentaire de la plateforme nationale « TeraLab » (IMT, GENES) destinée à l’expérimentation d’architectures « Big Data », là où l’équipement proposé se positionne en réponse aux besoins spécifiques de l’Intelligence Artificielle (en environnement de calcul, de conception, de validation et d’expérimentation).

Laboratoires et équipes partenaires

Tous les laboratoires partenaires de ce projet sont affiliés au Département « Sciences et Technologies de l’Information et de la Communication » (STIC) de l’Université Paris-Saclay. Le premier cercle des porteurs contient le CEA-LIST, trois grands laboratoires associant le CNRS et l’Université Paris-Sud, ainsi que deux laboratoires des écoles de l’Institut Mine-Télécom. Il s’agit des laboratoires suivants: