La conférence MiNET a eu lieu le 19 mai 2016 sur le campus de Télécom SudParis et Télécom École de Management.

Elle s’est composée de 4 interventions de 1 heure chacune, portant sur les systèmes répartis.

Programme

Retransmission Titre Conférencier Début Fin
Introduction
14h00 14h10
YouTube Cassandra data structures & algorithms DuyHai Doan 14h15 15h15
YouTube Systèmes distribués : Synchroniser les données et les états Dhia Moakhar 15h30 16h30
Collation
YouTube TensorFlow Martin Gorner 17h 18h
YouTube Caches collaboratifs noyau adaptés aux environnements virtualisés Maxime Lorrillere 18h15 19h15
Buffet

Les conférences

Cassandra data structures & algorithms

Cassandra est un système de base de données de type NoSQL réparti libre qui est conçu pour gérer des quantités massives de données. C’est un projet porté par la fondation Apache et reconnu partout pour sa scalabilité et ses performances. Dans son intervention, DuyHai nous présentera le l’architecture de Cassandra, des structures de données utilisées : CRDT, filtre de Bloom, arbre de Merkle, ainsi que de l’algorithme HyperLogLog.

DuyHai Doan

Développeur Java depuis 9 ans, Duyhai est passionné par le domaine du Big Data et plus particulièrement pour Cassandra depuis quelques années.
Il travaille aujourd’hui en tant que Technical Advocate chez DataStax qui est l’un des leaders mondiaux sur le marché des systèmes de gestion de bases de données NoSQL.

Systèmes distribués : synchroniser les données et les états

Dans un système distribué la synchronisation des données est essentielle pour le bon fonctionnement des applications. Il faut assurer que chaque noeud a une vision cohérente et suffisamment à jour de l’état du Cluster. Plusieurs techniques (multicast, full-mesh,peer-to-peer,…) seront discutées avec leurs avantages et leurs inconvénients.

Dhia Moakhar

Ancien de MiNET, Dhia est ingénieur système à ORNESS. Il travaille depuis plusieurs années dans le monde bancaire et financier: BNP, Société Générale, Natixis et est habitué à maintenir et concevoir des architectures scalables et à hautes disponibilités.

Tensorflow

Tensorflow est le système de Machine Learning open source de Google et successeur de DistBelief qui est, en particulier, le support de Youtube, Google Voice Search, Google Translate et Google maps.

Martin Gorner

Martin a débuté sa carrière dans le groupe “computer architecture” chez ST Microelectronics. ll a ensuite passé 11 années dans le domaine naissant des ebook, avec la start-up mobipocket.com, qui est ensuite devenue la partie logicielle du Kindle d’Amazon. Il rejoint Google en 2011 et est aujourd’hui en charge des relations développeurs et start-ups chez Google France.

Caches collaboratifs noyau adaptés aux environnements virtualisés

Avec l’avènement du cloud computing, la virtualisation est devenue aujourd’hui incontournable. Elle offre isolation et flexibilité, mais implique une fragmentation des ressources, notamment de la mémoire. Les performances des applications qui effectuent beaucoup d’entrées/sorties (E/S) en sont particulièrement impactées. En effet, celles-ci reposent en grande partie sur la présence de mémoire libre, utilisée par le système pour faire du cache et ainsi accélérer les E/S. Ajuster dynamiquement les ressources d’une machine virtuelle devient donc un enjeu majeur. Cette thèse propose PUMA, un cache réparti permettant de mutualiser la mémoire inutilisée des machines virtuelles pour améliorer les performances des applications qui effectuent beaucoup d’E/S. [source : https://hal.inria.fr/tel-01273367/ ]

Maxime Lorrillere

Après avoir obtenu son doctorat à l’Université Pierre-et-Marie-Curie (UMPC) en février 2016, Maxime a rejoint l’équipe de recherche REGAL commune à L’INRIA, le CNRS et l’UPMC au sein du Laboratoire d’Informatique de Paris 6 (LIP6). REGAL a pour thématique de recherche l’adaptation des systèmes aux nouvelles infrastructures réparties.