Conférence 2016

Les systèmes répartis

La conférence MiNET a eu lieu le 19 mai 2016 sur le campus de Télécom SudParis et Télécom École de Management.

Elle s’est composée de 4 interventions de 1 heure chacune, portant sur les systèmes répartis.

Programme

RetransmissionTitre de l’interventionConférencier(s)DébutFin
IntroductionMiNET14h0014h10
YoutubeCassandra data structures & algorithmsDuyHai Doan14h1515h15
YoutubeSystèmes distribués : Synchroniser les données et les étatsDhia Moakhar15h3016h30
Collation
YoutubeTensorFlowMartin Gorner17h18h
YoutubeCaches collaboratifs noyau adaptés aux environnements virtualisésMaxime Lorrillere18h1519h15
Buffet

Les conférences

Cassandra data structures & algorithms

Cassandra est un système de base de données de type NoSQL réparti libre qui est conçu pour gérer des quantités massives de données. C’est un projet porté par la fondation Apache et reconnu partout pour sa scalabilité et ses performances. Dans son intervention, DuyHai nous présentera le l’architecture de Cassandra, des structures de données utilisées : CRDT, filtre de Bloom, arbre de Merkle, ainsi que de l’algorithme HyperLogLog.

Logo de DataStax

DuyHai Doan

Développeur Java depuis 9 ans, Duyhai est passionné par le domaine du Big Data et plus particulièrement pour Cassandra depuis quelques années. Il travaille aujourd’hui en tant que Technical Advocate chez DataStax qui est l’un des leaders mondiaux sur le marché des systèmes de gestion de bases de données NoSQL.

Systèmes distribués : synchroniser les données et les états

Dans un système distribué la synchronisation des données est essentielle pour le bon fonctionnement des applications. Il faut assurer que chaque noeud a une vision cohérente et suffisamment à jour de l’état du Cluster. Plusieurs techniques (multicast, full-mesh,peer-to-peer,…) seront discutées avec leurs avantages et leurs inconvénients.

Logo d'Orness

Dhia Moakhar

Ancien de MiNET, Dhia est ingénieur système à ORNESS. Il travaille depuis plusieurs années dans le monde bancaire et financier: BNP, Société Générale, Natixis et est habitué à maintenir et concevoir des architectures scalables et à hautes disponibilités.

Tensorflow

Tensorflow est le système de Machine Learning open source de Google et successeur de DistBelief qui est, en particulier, le support de Youtube, Google Voice Search, Google Translate et Google maps.

Logo de Google

Martin Gorner

Martin a débuté sa carrière dans le groupe “computer architecture” chez ST Microelectronics. ll a ensuite passé 11 années dans le domaine naissant des ebook, avec la start-up mobipocket.com, qui est ensuite devenue la partie logicielle du Kindle d’Amazon. Il rejoint Google en 2011 et est aujourd’hui en charge des relations développeurs et start-ups chez Google France.

Caches collaboratifs noyau adaptés aux environnements virtualisés

Avec l’avènement du cloud computing, la virtualisation est devenue aujourd’hui incontournable. Elle offre isolation et flexibilité, mais implique une fragmentation des ressources, notamment de la mémoire. Les performances des applications qui effectuent beaucoup d’entrées/sorties (E/S) en sont particulièrement impactées. En effet, celles-ci reposent en grande partie sur la présence de mémoire libre, utilisée par le système pour faire du cache et ainsi accélérer les E/S. Ajuster dynamiquement les ressources d’une machine virtuelle devient donc un enjeu majeur. Cette thèse propose PUMA, un cache réparti permettant de mutualiser la mémoire inutilisée des machines virtuelles pour améliorer les performances des applications qui effectuent beaucoup d’E/S (source).

Logo de l’UPMC

Maxime Lorrillere

Après avoir obtenu son doctorat à l’Université Pierre-et-Marie-Curie (UMPC) en février 2016, Maxime a rejoint l’équipe de recherche REGAL commune à L’INRIA, le CNRS et l’UPMC au sein du Laboratoire d’Informatique de Paris 6 (LIP6). REGAL a pour thématique de recherche l’adaptation des systèmes aux nouvelles infrastructures réparties.