Résultats de la recherche: 376

Projet 3A facultatif sur les deux périodes

Les projets seuls ou en binôme feront l'objet de discussions élèves-enseignants et seront associés l'un des modules suivis.

Les projets proposés par le Département de Biologie seront accessibles dans le PA BioInformatique.

Le projet pourra se dérouler selon une des trois options suivantes avec les enseignants lors de l’amphi de démarrage du PA : P1 ou P1 et P2

- BIO511 :
Projet de recherche : La première option consiste en une activité de recherche dans un labora- toire. Dans la plupart des projets de cette option, une partie production de données sera suivie d’une partie d’ana- lyses et de modélisation.

Il s’agit d’une première initiation et prise de contact personnelle avec le monde de la recherche.

- Projet bibliographique : Cette option consiste à élaborer une recherche bibliographique approfondie sur un sujet précis en rapport avec un des cours de troisième année.

L’objectif est d’être capable de présenter cette thématique de façon synthétique, accessible et pédagogique sous forme d’une présentation de type cours asso- cié à un document écrit.

- Elaboration de projet : Cette option consiste à élaborer une demande de financement pour un pro- jet de recherche. L’objectif sera de définir, sur une des thématiques proposées en troisième année, un projet scientifique novateur et ambitieux, de le rédiger et l’exposer à l’oral.

Pour toutes les options, les échanges entre enseignants du département et entre départements sont fortement souhaités. Toutes ces thématiques pourront aussi être développées dans des perspectives d’ingénieries allant de la mise au point de méthodes, d’outils, de logiciels, de bases de données, ou d’organismes génétiquement modifiés.

Le but du projet de 3e année est de démar- rer un projet personnel autour d’une thématique de recherche en biologie en mêlant réflexion, analyse bibliographique et/ou expériences et analyses de données. Le projet sera à réaliser seul ou en binôme (éventuellement plus mais il faudra alors une répartition très explicite des différentes tâches). Il sera à rattacher à un des enseignements de 3e année que vous avez choisis afin que vous puissiez parler régulièrement de vos progrès et interroga- tions avec vos enseignants. Pour que ces projets soient couronnés de succès, il est nécessaire qu’il y ait un réel engagement de votre part, tant dans le temps de travail qui devra y être consacré dès les premières semaines, que dans l’ouverture d’esprit et la maturité dont vous devrez faire preuve, pour récupérer des sources d’informa- tions diverses auprès de vos enseignants mais aussi des enseignants d’autres dépar- tements ou de chercheurs de la région. C’est en faisant vivre votre projet que vous apprendrez le plus.

Calendrier :
Une liste de projets et de sujets vous seront présentés lors de l'amphi 0 en septembre.

A l’issue de cette journée, chaque étudiant devra avoir défini un projet, un sujet et/ou choisi un enseignant référent. Les projets et sujets présentés restent ouverts, ils ont pour objectif de vous donner des points de départ et de vous exposer les différents champs d’expertise des enseignants du département de biologie. Libre à vous de faire évoluer ces projets ou de discuter avec les enseignants pour en faire émerger de nouveaux qui vous tiennent à cœur, notre seul objectif étant de nous assurer que ces projets soient cohérents et réalisables pour que vous puissiez vous y épanouir pleine- ment. Vous aurez également la possibilité de choisir une analyse d’article couplée à un module de P1, en particulier BIO571.

Modalités d'évaluation :
•septembre à fin février : déroulement du projet, une demi-journée par semaine en coordination avec votre tuteur.
• mi-décembre  soutenance intermédiaire organisée en fin de première période.
• mi-mars/fin mars: rédaction d'un bref rapport et d’une soutenance orale.
Une présentation orale de 10 mn  (15 mn pour un binôme) sera suivie dune discussion de 15mn avec les coordinateurs et tuteurs du projet. Nous ne demandons pas de rapport écrit mais nous vous incitons à transmettre un rapport à votre référent afin qu’il puisse garder une trace de votre travail. Voyez avec elle/lui pour a forme attendue.

Langue du cours : Français

Biodiversité et fonctionnement des écosystèmes

La perte de biodiversité, le changement climatique et l’altération du fonctionnement des écosystèmes représentent des enjeux majeurs pour la société et les responsables politiques. Ce module de cours a pour objectif de fournir des éléments théoriques et méthodologiques nécessaires à la compréhension des causes et des conséquences de ces défis imposés par ces changements globaux. Les notions abordées et les exemples donnés illustreront les relations complexes entre biodiversité, processus écologiques et sociétés humaines, et la nécessite d’adopter une approche interdisciplinaire (modélisation mathématique d’une population, propriétés physico-chimiques des sols et dynamique de végétation, santé humaine et qualité de l’air, etc.) pour aborder les défis environnementaux actuels.

Étude quantitative et modélisation de la croissance chez la levure S. pombe

L'interdisciplinarité prend de plus en plus de place dans les sciences du vivant, et les mathématiques appliquées, l'informatique ou la physique sont associées aux méthodes biologiques et biochimiques pour aller étudier de manière quantitative une question biologique. En particulier, l'imagerie optique et l'analyse d'image jouent un rôle de plus en plus prépondérant dans l’étude in vivo de phénomènes dynamiques. Dans cet esprit, on se propose ici d'étudier la croissance chez la levure S. pombe en alliant génie génétique pour préparer les souches à étudier, vidéo-microscopie pour les imager in vivo, analyse d'image pour quantifier les données acquises et modélisation pour les confronter à un modèle quantitatif.

Note: Ce module est constitué pour partie de travaux expérimentaux de biologie et microscopie, et pour partie de travaux pratique informatique en Python.
Langue du cours : Français

Crédits ECTS : 4

EA en première période, optionnel en 2ème période

Personalized Reconstitution of the Tumoral Process

Reconstitution Personnalisée du Processus Tumoral

Ce cours est entièrement réalisé dans le laboratoire d’Alexis Gautreau sur le campus. Vous serez supervisé par un chercheur post-doctorant très qualifié pour effectuer des expériences. Le sujet consiste à utiliser les données de Next Generation Sequencing de tumeurs de patients qui ont un cancer du sein invasif afin de transformer progressivement des cellules épithéliales mammaires normales en cellules cancéreuses pleinement invasives. L'originalité de cette approche est de n'utiliser que les gènes driver présents chez un unique patient pour tenter de récapituler le chemin de transformation et les caractéristiques de la tumeur de ce patient. Le projet implique de prédire les gènes driver à l'aide de la bioinformatique, de distinguer les mutations oncogéniques de l'inactivation des gènes de suppresseur de tumeur, de cloner et d’exprimer les oncogènes mutés et d’éliminer les gènes suppresseurs de tumeur à l'aide de l'édition du génome (CRISPR-Cas9).

BIO572 (Reconstitution personnalisée du processus tumoral): activité de recherche en laboratoire financée par le Mécénat Enseignement et Recherche Servier avec un nombre de places limité. Il faut avoir suivi le cours BIO432 (Pathologies et stratégies thérapeutiques) et déclarer son intérêt auprès d'Alexis Gautreau.

Langue du cours : Anglais

Crédits ECTS : 4

La biologie est de plus en plus quantitative. Cette évolution passe par des jeux de donnée toujours plus grand à analyser et les méthodes issue des 'sciences des données' au sens large prennent une place de plus en plus grande dans la biologie. Dans cet EA nous verront les méthodes les plus importantes des sciences des données et les appliqueront dans le contexte du phénotypage par microscopie haut débit/haut contenu.

Déroulement du cours: 6 séance cours/TP durant lesquelles sera ré-analysé un jeu de donnée issu d'une publication de recherche nous permettant de voir les méthodes correspondant à toutes les étapes d'un workflow de phénotypage haut contenu: traitement et analyse d'image, calcul de caractéristiques quantitatives, analyses statistiques, apprentissage statistique et 'deep learning' et lien à la biologie computationel au sens large via ontologies et base de donnée partagé en ligne. Suivront 3 séances projets pour aller plus loin sur une problématique particulière, sur ce jeu de donnée ou un autre. Évaluation: oral devant jury sur le projet.

Pré-requis: Formellement aucun, pour permettre à tout élève intéressé de suivre l'EA, même en dehors des PA bio/bioinfo. Un réel intérêt pour la biologie et un minimum d'aisance en programmation en python sont néanmoins nécessaire.

Langue du cours : Anglais

 

Bio591-Biologie et Ecologie

Le stage de Recherche ouvre les laboratoires de recherche fondamentale, biomédicale, ou appliquée (industrie pharmaceutique, biotechnologie) aux élèves tentés par un approfondissement en Sciences de la vie, que ce soit en microbiologie, en virologie, en immunologie, en neurobiologie, en embryologie, en biologie structurale, en biologie moléculaire, en biologie cellulaire, en bioinformatique, en écologie...

Les sujets de stages des années précédentes sont disponibles sur un espace de partage sécurisé sur le site internet de l’Ecole Polytechnique :
-Sujets de stages de recherche des années précédentes : (historique des X04 à X12) 
https://gargantua.polytechnique.fr/siatel-web/app/auth/login?auth=1/
Dossiers Mes documents/Rapports/Contenu général Rapports/SOI/X2004.....X2012

-Sujets et Rapports de stage de recherche (historique des X15 à X19)
https://enex.polytechnique.fr/res3/fopers/stage/cataloguestages.php
Tapez votre nom d'utilisateur et votre mot de passe. 

L'élève pourra, avec les conseils du coordinateur et de l’équipe enseignante, dessiner les contours thématiques de son stage, puis participer activement, grâce à la visite de laboratoires, à la définition ultime de son sujet de stage de Recherche.
Le stage de recherche scientifique en Biologie consiste en un travail de 16 semaines minimum en laboratoire. Ce stage peut avoir lieu dans un laboratoire du milieu académique ou dans un laboratoire d’entreprise. Les stages se déroulent en Province, à Paris ou en région Parisienne (CNRS, INSERM, Institut Pasteur, Institut Curie, INRA, CEA, Universités, ...) et à l'Etranger (Etats-Unis, Allemagne, Canada, Italie, Espagne, Japon, Portgal etc...)
En Sciences de la Vie, la recherche fait largement appel à la Physique, à la Chimie, aux Mathématiques Appliquées et à l'Informatique. Par conséquent, grâce à sa formation généraliste, même s'il n'a suivi qu'un seul des modules offerts par le département de Biologie en année 2, un élève sera apte à profiter d'un stage de Recherche en Biologie ou en Ecologie.

- Rapport Final : 
Nous aurons besoin d’une version électronique (au format pdf uniquement) de votre microthèse (trente pages maximum tout compris) à transmettre par email. 
Les rapports peuvent être rendus en français ou en anglais, comme vous préférez. 
Vous ferez en sorte que ces documents  parviennent à Catherine MORAIS catherine.morais@polytechnique.edu, aux membres du jury, à l’enseignant référent de votre stage IMPERATIVEMENT cinq jours minimum avant votre soutenance.
Cela ne pose aucun problème si l’un ou l’autre des documents transmis à l’X est rédigé en Anglais (rapport final et fiche d’évaluation transmise par votre directeur de stage). 
A part la limite de 30 pages, annexes incluses,  nous n’avons pas d’exigences particulières. Il s’agit d’un rapport scientifique classique, et votre laboratoire d’accueil vous conseillera utilement à ce sujet. En bref, le rapport doit introduire le sujet en le situant dans son contexte, page de garde du rapport voir règlement du bureau SOIE,  le résumé en français et en anglais (OBLIGATOIRE), puis développer les résultats obtenus, et enfin les discuter.
Les références bibliographiques doivent également être indiquées suivant les normes courantes des articles de recherche.
Les matériels et méthodes utilisés doivent en outre être décrits.

Nous vous rappelons que le respect des échéances sera pris en compte dans la notation. 
PAS DE VERSION PAPIER DEMANDÉE

- Soutenance : La soutenance orale doit s’effectuer en présentiel

Internship topics from previous years are available on a secure sharing space on the Ecole Polytechnique website:
-Subjects of research internships from previous years: (history of X04 to X12)
https://gargantua.polytechnique.fr/siatel-web/app/auth/login?auth=1/
Folders My documents/Reports/General content Reports/SOI/X2004.....X2012

- Research internship subjects and reports (history from X15 to X19)
https://enex.polytechnique.fr/res3/fopers/stage/cataloguestages.php
Type your username and password.

The student will be able, with the advice of the coordinator and the teaching team, to draw the thematic outlines of their internship, then actively participate, thanks to laboratory visits, in the ultimate definition of their Research internship subject.
The scientific research internship in Biology consists of a minimum of 16 weeks of work in the laboratory. This internship can take place in an academic laboratory or in a company laboratory. Internships take place in the Province, in Paris or in the Paris region (CNRS, INSERM, Institut Pasteur, Institut Curie, INRA, CEA, Universities, etc.) and abroad (United States, Germany, Canada, Italy, Spain, Japan, Portugal etc...)
In Life Sciences, research largely draws on Physics, Chemistry, Applied Mathematics and Computer Science. Consequently, thanks to their general training, even if they have only followed one of the modules offered by the Biology department in year 2, a student will be able to benefit from a Research internship in Biology or Ecology.

- Final report :
We will need an electronic version (in PDF format only) of your microthesis (maximum thirty pages all inclusive) to send by email.
Reports can be delivered in French or English, as you prefer.
You will ensure that these documents reach Catherine MORAIS catherine.morais@polytechnique.edu, the members of the jury, the reference teacher for your internship IMPERATIVELY five days minimum before your defense. This poses no problem if one or other of the documents sent to X is written in English (final report and evaluation sheet sent by your internship director). Apart from the limit of 30 pages, annexes included, we have no particular requirements. This is a classic scientific report, and your host laboratory will provide you with useful advice on this subject. In short, the report must introduce the subject by placing it in its context, cover page of the report see regulations of the SOIE office, the summary in French and English (MANDATORY), then develop the results obtained, and finally discuss them. Bibliographic references must also be indicated following current standards for research articles.
The materials and methods used must also be described.
We remind you that compliance with deadlines will be taken into account in the rating.
NO PAPER VERSION REQUESTED

- Internship director invitation:
Your internship director will be invited to participate in the defense. However, his presence at the defense is not obligatory. Your internship director must IMPERATIVELY send us his/her assessment of the work carried out and the way in which it was carried out, by completing the evaluation form sent by the Department. This assessment must be sent IMPERATIVELY two days before the defense, by e-mail to: catherine.morais@polytechnique.edu
-----------------

Joint internships:
For students entering a double degree engineering course in the fourth year, the subject, the location of the internship, the terms of the intermediate follow-up and the defense jury are, in certain cases, defined jointly by those responsible for the internship. research of l'X and by teachers of additional diploma training. Joint internships allow the student to implement, in a real setting, an experimental or theoretical scientific approach, while discovering one of the sectors covered by the additional training.

- Coordinator : Yves MECHULAM - Tel: 4885 - yves.mechulam@polytechnique.edu
- Department assistant: Catherine Morais - Tel: 4025 - catherine.morais@polytechnique.edu

- Teachers: all members of the department

Course language: French
Credits ECTS : 20

 

 

 

 

Dans ce cours, nous explorerons les fondamentaux de la chimie moléculaire en récapitulant les notions de base en chimie organique et inorganique.

Nous commencerons par les principes de la chimie organique, et décrirons en particulier la réactivité  des dérivés carbonylés et aromatiques. Les transformations oxydantes et réductrices en chimie organique seront étudiées ainsi que les stratégies de protection des groupes fonctionnels usuels. .

Nous aborderons également les liaisons chimiques et aux propriétés périodiques des éléments inorganiques. Nous étudierons ensuite les composés inorganiques et leur réactivité, ainsi que les réactions chimiques fondamentales.

En plus de ces sujets fondamentaux, nous étudierons la théorie des groupes et son application à la chimie moléculaire, ainsi que les spectres électroniques et la luminescence. Nous verrons comment la théorie des groupes permet de comprendre la symétrie des molécules et de prédire leurs propriétés, et comment les spectres électroniques et la luminescence peuvent être utilisés pour étudier les propriétés électroniques des molécules.

Ce cours est conçu pour fournir aux étudiants une solide compréhension des concepts clés de la chimie moléculaire, ainsi que des compétences pratiques en résolution de problèmes et en analyse de données.

Les composés chimiques ou les molécules sont avant tout de la matière, née de l'énergie du Big Bang, du boson de Higgs qui l’a rassemblée,  et des immenses compressions et augmentations de température successives, ce qui a permis de remplir le tableau de Mendeleïev pendant des milliards d'années. La vie s'est maintenue grâce aux molécules d'ADN, constituées des éléments chimiques H O C N. Malgré plusieurs extinctions importantes, la Vie est parvenue à stocker du dioxyde de carbone, à s’alimenter en oxygène, à venir sur la terre ferme et inventer les polymères bien avant nous.

De nos jours, en raison de l'utilisation intensive des énergies fossiles, de l'hydroélectricité, des énergies photovoltaïques et des parcs éoliens, les processus industriels sont capables de nous fournir des produits chimiques comme des médicaments, des fertilisants, des colorants, des polymères, des vecteurs énergétiques, mais aussi de l'eau potable, de la nourriture, des produits cosmétiques, des piles... et des smartphones.

La formation d'un nouveau produit inorganique ou organique, un médicament par exemple, commence la plupart du temps à l'échelle du laboratoire : il s'agit de l'étape de "synthèse". Une fois sa propriété d'utilisation finale et son marché déterminés, le génie chimique apparaît au stade de l'élaboration et de la gestion des usines qui vont le produire en quantité adaptée à partir de matières premières et d'énergie, avec un minimum de cout de production et une empreinte environnementale réduite. Pour les industries de procédés, la veille technologique et la R&I sont indispensables pour réagir le plus rapidement possible aux demandes sociétales et environnementales, comme aux modifications d’approvisionnements. Le management dans ce secteur industriel ne peut ignorer les démarches d’Analyse de Cycle de Vie (ACV) et de bilan carbone, d'économie circulaire, la maîtrise des risques industriels et le traitement, voire la valorisation de ses effluents, la Responsabilité Sociétale de l’Entreprise (RSE): on peut citer les procédés de capture des COV, de recyclage de polymères, de production et stockage d’énergie renouvelable (méthanisation de déchets organiques, conception et recyclage de batteries et smartphones, hydrogène « vert »).

Connaissances attendues : être capable de faire l'inventaire des données nécessaires à la conception d'une opération unitaire, d'établir son équation de performance et de calculer son rendement.

 

Langue du cours : anglais ou français, à la demande

Cette option de stage vise à faire découvrir le domaine de la recherche en Sciences des Matériaux, en lien avec des problématiques d’ élaboration, de propriétés remarquables, et d’applications innovantes. Abordés sous des aspects fondamentaux ou appliqués, les sujets proposés visent notamment à com- prendre et contrôler les propriétés des matériaux en relation avec leur structure à plusieurs échelles (cristallinité, microstructure, mise en forme). La nature des matériaux concernés peut être très variable : polymères de spécialité, verres, cristaux, oxyde à propriétés remarquables, semi-conducteurs, catalyseurs, surfaces fonctionnelles, biomatériaux... Leur forme est également variée : dispersions, poudres, couches minces, surfaces, matériaux massifs...

Les thématiques abordées peuvent concerner la chimie des matériaux (nouvelles stratégies d’élaboration, procédés), leur caractérisation structurale, l’étude de propriétés physiques dans différents domaines (optique, transport, magnétisme...).

Les sujets abordés sont en général à l’interface entre plusieurs disciplines : chimie, électrochimie, chimie des procédés, physique du solide, mécanique, science des surfaces, biologie... Souvent, les recherches sont faites en lien avec des applications potentielles ciblées avec des perspectives de mise au point de matériaux innovants.

Exemples de techniques utilisées

  • Chimie des matériaux : chimie des colloïdes, chimie inorganique, dépôt de couches minces, CVD, PVD, procédés céramiques, électrochimie.
  • Caractérisations structurales avancées : Résonnance Magnétique Nucléaire, spectroscopies infra-rouge, Raman, diffraction des rayons X, diffusion des rayons X, études sur grands instruments (synchrotrons), microscopie électronique.
  • Modélisation des matériaux, des procédés d’élaboration, des propriétés physiques.
  • Caractérisation de propriétés physiques ou physico-chimiques : mesures optiques (absorption, luminescence, optique non-linéaire), conduction ionique ou électronique, supraconductivité, piezoélectricité, magnétisme...

 

Types de stages

Les stages peuvent se dérouler en France ou à l’étranger, dans un contexte académique ou industriel.

Par exemple :

  • dans le centre de recherche à l’École polytechnique : LPMC, LPICM, LSI, LMS, CPHT, LOB
  • dans d’autres institutions académiques : Université Paris-Saclay, College de France, Institut Curie...
  • dans des sites de R&D industrielle en France : Saint-Gobain, Solvay, Arkema, Michelin, Essilor, Thalès, L’Oréal...
  • Dans des universités étrangères : MIT, Harvard, UC Santa-Barbara, NIMS (Tsukuba)...
  • Dans des centres de R&D industriels à l’étranger : Solvay (USA), Saint-Gobain

(USA, Inde, Chine)...

  • Dans des start-ups ou dans le cadre d’opérations de maturations.

Hydrology

Water is a vital resource, providing various amenities such as drinking, irrigation, navigation and sustenance in the form of fluvial fauna and flora. Water quality is a crucial component of integrated water resources management. The environmental consequences caused by the increase of pollutant loads discharged into natural water bodies are now admitted, pushing the environmental management beyond “laissez-faire” tolerance. The aim of the Hydrology course is to provide an overview of the fundamental surface and subsurface hydrological processes related to water. The course will introduce hydrologic materials and methods: fluid mechanics (including open channel flow), probability and statistics, ground water, sediment transport, numerical modelling.

 

 

Teaching staff

Maria-Helena Ramos, Research Director, INRAE

Vazken Andreassian, Deputy Scientific Director, INRAE

Kamal El Kadi Abderrezzak, Engineer Researcher Expert, HDR, EDF R&D

 

Course outline

  • Global hydrological cycle

- Watershed Management

- Water and energy balance, radiation, precipitation formation, infiltration, evaporation, vegetation transpiration, groundwater flow, storm runoff, and flood processes

- Hydrologic analysis and design: collection, compilation, and interpretation of data for quantification of the components of the hydrologic cycle

- Use of hydrologic variables and parameters for development, construction, and application of analytical models for selected problems in hydrology

- Flood estimation

  • Hydrologic modeling

- Introduction to hydrologic modeling concepts, including rainfall-runoff analysis, input data, uncertainty analysis, lumped and distributed modeling, parameter estimation and sensitivity analysis

- Application of models for flood forecasting and prediction of stream flows in water resource applications

  • Groundwater Hydrology

- Fundamental concepts of groundwater flow, transport and contamination

- Confined and unconfined aquifers

- Application and evaluation of methods to determine groundwater flow through Darcy’s law and pollutant transport using the advection-dispersion equation

- Determination of dispersion parameters by laboratory and field experiments

- Groundwater monitoring and sampling technology

  • Urban flood modelling

- Flow in urban areas

- Numerical modelling of urban flood inundations

 

This module includes 20 hours of courses, 10 hours of tutorial classes and 10 hours of practical work.

 --------------------------------------------------------------------------------------------------------------------------

Level required: no prerequisite or basic knowledge of hydrology

Language: English

Credits ECTS: 5

Supervisor: Said Kinani, EDF

Catégorie: Master 2 / MScT 2A

Microbial ecology for environmental sciences

Microorganisms are the backbone of all ecosystems. They play fundamental roles in the functioning of natural ecosystems and in biogeochemical cycles. They are also essential in various industrial bioprocesses used for depollution. In most cases, they do not live as single species but form microbial ecosystems composed of various microorganisms. The study of these intricate microbial communities is complex and requires specific tools. Numerous molecular techniques have been developed for this purpose. The aim of the “microbial ecology for environmental science” course is to present the importance of microbial communities in the environment and in bioprocesses as well as the methods classically used for their analysis. 16S ribosomal RNA based techniques will be presented as well as recent metaomics methodologies. It will provide the fundamental notions necessary to set-up and analyze a microbial ecology experiment for environmental samples. A particular focus will be given to depollution bioprocesses.

 

Teaching staff

Ariane Bize, Researcher, IRSTEA

Lise Fechner, Program Officer, IFREMER

Olivier Chapleur, Researcher, IRSTEA

Sébastien Lacroix, Researcher, Veolia

Jean-Jacques Pernelle, Research Director, IRSTEA

 

Course outline

● Microbial ecology of natural ecosystems

- What is a microorganism? What is microbial diversity?

- Role of microorganisms in the functioning of natural ecosystems and biogeochemical cycles.

● Microbial resource management

- Use of complex microbial communities for industrial processes

- Focus on biotechnologies for waste and wastewater management and valorization: activated sludge, anaerobic digestion and microbial fuel cells

● Molecular microbial ecology

- 16S ribosomal RNA based techniques

- Introduction to metaomics methodologies (metagenomics, metatranscriptomics, metaproteomics)

● Analyzing microbial dynamics in environmental samples

- Setting-up a microbial ecology experiment, experimental planning and follow-up.

- How to track changes in microbial communities over time or assess their biodiversity? Example of ARISA fingerprinting and fluorescent in-situ hybridization

- Analytical tools for big microbial ecology data sets. Hypotheses and biological interpretation.

 

This module includes 20 hours of courses, 8 hours of tutorial classes and 12 hours of practical work.

 --------------------------------------------

Level required: Basic knowledge in biology

Language: English

Credits ECTS: 5

Supervisor: Laurent Mazéas

Les composés chimiques ou les molécules sont avant tout de la matinère, par l'énergie du Big Bang, du boson de Higgs et des immenses compressions et augmentations de température successives, ce qui a permis de remplir le tableau de Mendeleïev pendant des milliards d'années. La vie s'est maintenue grâce aux molécules d'ADN, constituées des éléments chimiques H O C N. Malgré de plusieurs extinctions importantes, la Vie est parvenue à stocker du dioxyde de carbone, à alimenter en oxygène, à venir sur la terre ferme et inventer les polymères bien avant nous.

De nos jours, en raison de l'utilisation intensive des énergies fossiles (), de l'hydroélectricité, des énergies photovoltaïques et des parcs éoliens, le processus industriel est capable de nous fournir des produits chimiques comme des médicaments, des fertilisants, des colorants, des polymères, des vecteurs énergétiques, mais aussi de l'eau potable, de la nourriture, des produits cosmétiques, des piles... et des smartphones.

La formation d'un nouveau produit inorganique ou organique, un médicament par exemple, commence la plupart du temps à l'échelle du laboratoire : il s'agit de l'étape de "synthèse". Une fois sa proprité d'utilisation finale estimé, le génie chimique apparaît au stade de l'élaboration et de gestion des usines qui vont la produire à partir de matières premières et d'énergie et l'amèneront sur le marché, avec un minimum de cout de production et une empreinte environnementale réduite. De plus, la R&I dans le génie chimique est nécessaire pour développer le plus rapidement possible des techniques respectueuses de l'envrionnement, de l'économie circulaire et de la production, de l'utilisation de stockage : capture de COV, recyclage de polymères, méthanisation ou voitures fonctionnant à l'hydrogène, par exemple.

Connaissances attendues : être capable de faire l'inventaire des données nécessaire à la conception d'une opération unitaire, d'établir son équation de performance et de calculer son rendement.

 

Langue du cours : anglais ou français, à la demande

Cette option de stage vise à faire découvrir le domaine de la recherche en Sciences des Matériaux, en lien avec des problématiques d’ élaboration, de propriétés remarquables, et d’applications innovantes. Abordés sous des aspects fondamentaux ou appliqués, les sujets proposés visent notamment à com- prendre et contrôler les propriétés des matériaux en relation avec leur structure à plusieurs échelles (cristallinité, microstructure, mise en forme). La nature des matériaux concernés peut être très variable : polymères de spécialité, verres, cristaux, oxyde à propriétés remarquables, semi-conducteurs, catalyseurs, surfaces fonctionnelles, biomatériaux... Leur forme est également variée : dispersions, poudres, couches minces, surfaces, matériaux massifs...

Les thématiques abordées peuvent concerner la chimie des matériaux (nouvelles stratégies d’élaboration, procédés), leur caractérisation structurale, l’étude de propriétés physiques dans différents domaines (optique, transport, magnétisme...).

Les sujets abordés sont en général à l’interface entre plusieurs disciplines : chimie, électrochimie, chimie des procédés, physique du solide, mécanique, science des surfaces, biologie... Souvent, les recherches sont faites en lien avec des applications potentielles ciblées avec des perspectives de mise au point de matériaux innovants.

Exemples de techniques utilisées

  • Chimie des matériaux : chimie des colloïdes, chimie inorganique, dépôt de couches minces, CVD, PVD, procédés céramiques, électrochimie.
  • Caractérisations structurales avancées : Résonnance Magnétique Nucléaire, spectroscopies infra-rouge, Raman, diffraction des rayons X, diffusion des rayons X, études sur grands instruments (synchrotrons), microscopie électronique.
  • Modélisation des matériaux, des procédés d’élaboration, des propriétés physiques.
  • Caractérisation de propriétés physiques ou physico-chimiques : mesures optiques (absorption, luminescence, optique non-linéaire), conduction ionique ou électronique, supraconductivité, piezoélectricité, magnétisme...

 

Types de stages

Les stages peuvent se dérouler en France ou à l’étranger, dans un contexte académique ou industriel.

Par exemple :

  • dans le centre de recherche à l’École polytechnique : LPMC, LPICM, LSI, LMS, CPHT, LOB
  • dans d’autres institutions académiques : Université Paris-Saclay, College de France, Institut Curie...
  • dans des sites de R&D industrielle en France : Saint-Gobain, Solvay, Arkema, Michelin, Essilor, Thalès, L’Oréal...
  • Dans des universités étrangères : MIT, Harvard, UC Santa-Barbara, NIMS (Tsukuba)...
  • Dans des centres de R&D industriels à l’étranger : Solvay (USA), Saint-Gobain

(USA, Inde, Chine)...

  • Dans des start-ups ou dans le cadre d’opérations de maturations.

Hydrology

Water is a vital resource, providing various amenities such as drinking, irrigation, navigation and sustenance in the form of fluvial fauna and flora. Water quality is a crucial component of integrated water resources management. The environmental consequences caused by the increase of pollutant loads discharged into natural water bodies are now admitted, pushing the environmental management beyond “laissez-faire” tolerance. The aim of the Hydrology course is to provide an overview of the fundamental surface and subsurface hydrological processes related to water. The course will introduce hydrologic materials and methods: fluid mechanics (including open channel flow), probability and statistics, ground water, sediment transport, numerical modelling.

 

 

Teaching staff

Maria-Helena Ramos, Research Director, INRAE

Vazken Andreassian, Deputy Scientific Director, INRAE

Kamal El Kadi Abderrezzak, Engineer Researcher Expert, HDR, EDF R&D

 

Course outline

  • Global hydrological cycle

- Watershed Management

- Water and energy balance, radiation, precipitation formation, infiltration, evaporation, vegetation transpiration, groundwater flow, storm runoff, and flood processes

- Hydrologic analysis and design: collection, compilation, and interpretation of data for quantification of the components of the hydrologic cycle

- Use of hydrologic variables and parameters for development, construction, and application of analytical models for selected problems in hydrology

- Flood estimation

  • Hydrologic modeling

- Introduction to hydrologic modeling concepts, including rainfall-runoff analysis, input data, uncertainty analysis, lumped and distributed modeling, parameter estimation and sensitivity analysis

- Application of models for flood forecasting and prediction of stream flows in water resource applications

  • Groundwater Hydrology

- Fundamental concepts of groundwater flow, transport and contamination

- Confined and unconfined aquifers

- Application and evaluation of methods to determine groundwater flow through Darcy’s law and pollutant transport using the advection-dispersion equation

- Determination of dispersion parameters by laboratory and field experiments

- Groundwater monitoring and sampling technology

  • Urban flood modelling

- Flow in urban areas

- Numerical modelling of urban flood inundations

 

This module includes 20 hours of courses, 10 hours of tutorial classes and 10 hours of practical work.

 --------------------------------------------------------------------------------------------------------------------------

Level required: no prerequisite or basic knowledge of hydrology

Language: English

Credits ECTS: 5

Supervisor: Said Kinani, EDF

Catégorie: Master 2

Water treatment: drinking water

This module aims both at presenting an overview of current technologies for producing potable water, and at getting students acquainted with modeling techniques enabling them to optimize industrial processes. Fundamental notions in terms of present legislation, chemical engineering, technologies will be given in the first part of the module. The second part will focus on modeling techniques applied to water production or distribution. Software tools widely used in the industry will be presented and used for specific case-studies. Finally, two site visits of full-scale water works are planned.

 

Teaching staff

- Pierre Mandel, Research engineer, VEDIF

- Marie Maurel, Project Manager, Birdz

- Guillaume Lellouche, Data scientist, Eau de Paris

- Fabien Vergnolle, Process Engineer, Sidem Desalination

 

Course outline

Drinking water production: generalities and current approaches (16 h: 14h lectures; 2h tutorial)

  • Water: issues and challenges – The water crisis in Barcelona (lecture 4h)
  1. Contextual elements
    • Water resources
    • Water needs
    • Notions on the legal framework for water management
    • The water-energy nexus
  2. The water crisis in Barcelona
    • Sequence of events (2007-2008)
    • Resources and needs
    • Present and future water management policy
    • Processes for potable water production (lecture 4h)
  3. Generalities
    • Measured parameters and legal framework
    • Different resources
  4. Processes for potable water production
    • Pretreatment, filtration
    • Coagulation, Flocculation
    • Disinfection
    • Membrane-based processes for potable water production (lecture 4h)

 

  • Practical case-study: sizing of emergency water treatment units (tutorial 2h)
  1. Hypothesis and constraints
  2. Flowchart
  3. Sizing of the equipments
  4. Discussion
  • Water distribution networks: asset management (lecture 2h)
  1. Definitions & concepts
  2. Actions to be taken
  3. Predictive approaches

 

Modeling tools for the water industry (16h: 8h lecture; 8h tutorial)

  • Modeling water treatment processes: basics (lecture 4h)
  1. Definitions and generalities
    • What is a model?
    • Different types of models
  2. Basic modelling skills
    • Chemical kinetics
    • Hydraulics
  3. Modelling methodologies
    • Systemic approach
    • CFD approach
    • Water distribution networks: generalities & modeling (lecture 4h)
  4. Water distribution systems
    • Historical perspective
    • Definitions
    • Characteristics
    • Legal framework
  5. Modelling water distribution systems
    • Hydraulic modelling
    • Water quality modelling
  6. Setting up a new model: Data gathering, GIS data
  7. Presentation of some software tools : Porteau, Epanet
  • Practical case-study on water distribution modeling: coupling Epanet and a third party software (tutorial 4h)
  • Practical case-study on potable water production modeling using Matlab/Simulink (tutorial 4h)

Site visits

  • One of the largest nanofiltration plant worldwide: SEDIF’s water works at Méry-sur-Oise
  • An Eau de Paris site

 

The module includes 22 hours of lectures, 10 hours of tutorials and 8 hours of site visits.

 --------------------------------------------

Level required: Basic knowledge of chemical engineering and biology

Language: English

Credits ECTS: 6

Supervisor: Pierre Mandel

Catégorie: Master 2

Advanced LCA

The aim of Life Cycle Assessment (LCA) course option is to describe why and how to practice LCA thanks to some advanced methodologies. It provides the fundamental notions required to explore the functionality issues, to use spatialization and data visualisation tools and to improve the appropriation of LCA results (simplified modelling and multi-criteria analysis) in decision-making process. Students will have to carry out a specific question concerning the use of advanced methodologies to perform LCA.

 

Teaching staff

- Lynda Aissani, Research Engineer, INRAE

- Pierre Thiriet, Research Engineer, INRAE

- Samuel Le Féon, Research Engineer, INRAE

Catégorie: Master 2

Course description:

Molecular biogeochemistry explores the interplay between the molecular constituents of living organisms and the biogeochemical processes occurring in the environment. This class will provide an overview of the essential concepts in biogeochemistry with an emphasis of processes occurring at the molecular level.  In addition, it will cover how natural and anthropogenic activities impact the molecular transformations of elements like carbon, nitrogen, and sulfur in various environmental domains, such as soil, water, and air, integrating principles from biology, chemistry, and geology to unravel the intricate connections between the molecular biology of organisms and the broader biogeochemical cycles in Earth's ecosystems. We will examine, by delving into scientific literature found in peer-reviewed journals, the molecular aspects of production and degradation of natural organic matter in the biogeosphere, and the linkage of biological molecules with corresponding molecular constituents (chemofossils or biomarkers) that are extracted from sedimentary archives for paleo-reconstructions.

 

Course goals:

Apart from acquiring the basics of molecular and analytical biogeochemistry, this course aims to achieve the following objectives:

  • Develop the ability to critically analyze scientific literature
  • Engage in discussions with peers, lead by a subject matter expert, on scientific papers and their impacts
  • Cultivate research and presentation skills with classmates and receive direct feedback

Texts and readings:

Reading assignments:

Class 2 (Feb. 28th) – Ward et al., 2017.  Where carbon goes when water flows: carbon cycling across the aquatic continuum. Frontiers in Marine Science. 4:7. doi: 10.3389/fmars.2017.00007

Class 4 (March. 4th) – Brown et al., 2014. Source identification of the Antarctic sea ice proxy IP25. Nature. Communications. doi: 10.1038/ncomms5197

Class 6 (March. 11th) – Solomon et al., 2016. Emergence of healing in the Antarctic ozone layer. Science. 353(6296): 269-274

Class 6 (March. 11th) - Bergauer et al., 2018. Organic Matter Processing by Microbial Communities throughout the Atlantic Water Column as Revealed by Metaproteomics. Proceedings of the National Academy of Sciences 115 (3) E400-E408.  Particular attention will be paid to the material and method section concerning the proteomic study (see supplementary data). This work will be discuss in small groups in class.

Class 8 (March. 13thth) – Rabalais et al., 2019. Gulf of Mexico Hypoxia: past, present and future. Limnology and Oceanography Bulletin

 

Paper discussions:

There are 4 sessions of 45 minutes dedicated to reading peer-reviewed papers, each student will be paired (4 groups of 2 students) and assigned a discussion to lead with a classmate based on the paper to read. Each pair will create powerpoint presentation slides and present the paper to the entire class. I will virtually meet with each group a week prior to their scheduled class leadership to address any queries

 

Participation:

Students are expected to arrive at class ready to engage in discussions about the assigned readings for the day. Full participation points are awarded for both attendance and active involvement in the day's discussion, which may include responding to polls, making verbal comments, contributing to the chat, and more. Mere attendance without active participation is insufficient for earning full credit. My goal, is that you will get out of the class what you put into it.

Catégorie: Master 2

Computer programming (CSE101) introduces students (with or without previous programming experience) to the fundamentals of computer programming in Python, with applications across the sciences. In this course, students will explore fundamental algorithms and data structures, up to and including binary trees, using a mixture  of procedural, recursive, and object-oriented techniques. Upon completion of this course, students will have a solid foundation in the culture and practice of modern programming, and the basic skills to solve real-world problems using efficient, well-written programs and open-source tools. These foundations will be extended  and completed in CSE 102 and CSE 103.

These foundations will be extended and completed in CSE102 and CSE103.

Catégorie: Bachelor 1

Web Programming (CSC_1S004) introduit les langages, outils et techniques spécifiques au développement d'applications web. Les étudiants acquerront une compréhension solide des subtilités du développement de sites web dynamiques et modernes, ainsi qu’un aperçu du fonctionnement interne du web. Il s’agit d’un cours pratique qui offre aux étudiants une expérience précieuse dans la création de leurs propres applications web.

Sujets abordés :

  • HTML5, CSS3

  • JavaScript (côté client)

  • Introduction à la programmation côté serveur : PHP, JS (NodeJS), bases de données

Organisation générale :

Le cours consistera principalement en des séances pratiques en salle informatique. Un petit projet sera réalisé, dans lequel les étudiants développeront leur propre site web (uniquement côté client) en suivant les bonnes pratiques actuelles.

Catégorie: Bachelor 1

The goal of CSE201 is to introduce students to the C++ programming language, and the object-based view of software design. C++ is one of the most widely-used programming languages in the world, especially for system-level programming. Much of its power derives from its use of objects, packets of data and functionality that  model things and concepts in the real world.

CSE 201 is to introduce students to the C++ programming language, and the object-based view of software design. C++ is one of the most widely-used programming languages in the world, especially for system-level programming. Much of its power derives from its use of objects, packets of data and functionality that model things and concepts in the real world. 

Catégorie: Bachelor 2

In this course, we will study functional programming, and will learn how to take advantage of the features of modern typed functional programming languages. We will study in depth the notions of algebraic data types, higher-order functions, polymorphism, and side-effects. The practice sessions will be done in Haskell, but concepts presented in the course can be applied in many other languages such as OCaml, SML or Python.

Prerequisites: CSE201 and CSE203

Catégorie: Bachelor 3

Prerequisite:CSE203

The course will present the paradigm of Constraint Logic Programming from its logical foundations for programming with relations, to its current applications. From logic programming and the early days of artificial intelligence, towards the holy grail of programming simply by modelling, the students will learn how to use a recent  dialect of Prolog for relational databases, knowledge representation, automated deduction and combinatorial problem solving. The balance between declarative programming and efficiency, between clean semantics and expressiveness will be of particular interest, and will lead us into looking at how things work internally in a Prolog  bytecode compiler (Warren Abstract Machine, indexing…) on practical examples. 

Catégorie: Bachelor 3

Initiation aux structures des données, à l'algorithmique et à l'analyse des algorithmes (amphis).
Perfectionnement à la programmation en Java (TDs).
Ce cours est également l'occasion de se perfectionner en Java. Les TDs explorent en profondeur une partie du matériel présenté en amphi.

Évaluation : Un contrôle continu (pale machine ou devoir à la maison), un examen classant en salle (3h).


Catégorie: Ingénieur 2A

L'analyse de données est un sujet transverse à cheval sur l'algorithmique, les statistiques et l'optimisation. Elle s'appuie sur des langages de haut niveau comme Python ou R pour la manipulation et le traitement des données. Ce cours introductif abordera l'analyse de données à la fois dans ses aspects théoriques et appliqués.

Références:

  • Hastie, Tibshirani, Friedman: The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd ed.). Springer, 2017.
  • Scott and Stain: Multi-dimensional Density Estimation. In Handbook of Statistics, volume 23 (Data Mining and Computational Statistics), 2004.
Catégorie: Ingénieur 2A
Outre son importance pour le loisir numérique (jeux vidéos, effets spéciaux, films d'animation 3D), l'informatique graphique 3D est indispensable au prototypage virtuel industriel (design d'objets ou de mécanismes destinés à être fabriqués), aux simulateurs d'apprentissage et autres "serious games", ainsi qu'à la visualisation scientifique, par exemple pour l'exploration visuelle de données ou de résultats de simulation.
Ce cours présente l'ensemble de l'informatique graphique, en se concentrant sur son volet interactif. Il couvre en particulier les techniques de modélisation géométrique, le rendu projectif, et les bases de l'animation 3D.
 
 

 

Catégorie: Ingénieur 2A

De nos jours, nous avons accès à de vastes ensembles de données, dont beaucoup sont créés et publiés par les gouvernements. Par exemple, ici en France, nous avons le portail data.gouv.fr.

Nous étudierons différentes manières de représenter ces jeux de données, et notamment le pouvoir expressif des graphes. Ces ensembles de données offrent un excellent aperçu de nos sociétés et peuvent aider à repérer les tendances sociales ou les problèmes sociaux. 

Au cours des années précédentes, les étudiants ont étudié les tendances de vote des lois au Parlement européen, les tendances dans la collaboration entre les pays, la manière dont le changement climatique est discuté sur les réseaux sociaux, et bien d'autres sujets intéressants !

Au cours de ce modale, vous vous familiariserez avec les notions et les outils d'exploration des données. Nous discuterons d’articles de recherche qui utilisent des méthodes informatiques pour découvrir des problèmes sociaux. 

Ce cours présente également les différentes étapes importantes qu'un ingénieur en science des données doit connaître pour extraire des connaissances à partir de grands volumes de données.

Les cinq premières séances sont consacrées à la présentation de concepts et d'outils, tandis que dans les séances suivantes, vous réaliserez des projets en binôme avec l'aide du tuteur. Vous aurez toute liberté pour choisir le sujet de votre projet. 

Prérequis : Python
Langue : Le matériel est en anglais, mais le cours peut être en anglais ou en français, selon les étudiants.

Catégorie: Modals

(English version below)

Ce cours comporte deux parties, l’une avec Daniel Augot sur la
cryptographie dans les  blockchains, l’une avec Bernadette Charron-Bost sur
les fondamentaux de l'algorithmique distribuée et du problème du
consensus.

 

Le cours de Daniel Augot présente plusieurs sujets abordés
dans le monde des blockchains: rappels sur les fonctions de hachage et les signatures, les nombreuses utilisations
des fonctions de hachage cryptographique; UTXOs, Merkle trees, Ethereum «smart contracts»;
lightning, zero-knowledge, zk-snarks;

Il est structué en 6 blocs de 4h00: 1h30 de cours et 2h30 de TP.

 

Les TP sont en ligne de commande à faire sur votre ordinateur personnel.  You need to preinstall Docker  et docker-compose.

 

 

Bernadette Charron-Bost's course is  as follows (no labs). In agreement problems, each agent of a networked system has an input value and outputs a series of values;  it is required that all the agents eventually output the same value and that this common value is one (or a function) of the input values. Agreement problems arise in a number of applications including consistency in replicated databases, motion of autonomous agents or, more recently, in the blockchain technology. The (exact) consensus problem is a fundamental agreement problem where each agent is aware that agreement has been reached, as opposed to the stabilizing consensus problem where agents are just required to eventually stabilize on the same input value. The blockchain consensus, also called the Nakamoto consensus, corresponds to an intermediate type of agreement. The  goal of this course is to explore the solvability and the complexity of these different agreement problems in various contexts,  depending on the synchrony model, the failure model, and on other features like the fact that the system is open or closed (permissioned vs. permissionless systems).

In this course you will be introduced to embedded security with a designer and attacker points of view. More precisely, you will discover that even if you chose a strong cryptographic algorithm to protect data, some secrets may leak during its computation on a mobile device. To do that, you will learn how to program such devices (e.g. smart cards) and how to intercept secrets by using physical probes. From this knowledge you will design some countermeasures to defeat these hardware attacks (e.g. side-channels).

INF552-detailed_description.pdfINF552-detailed_description.pdf

Visualisation des données

La représentation visuelle de données tire pleinement avantage du système visuel humain en termes de perception est de cognition. Les modèles complexes, les points de données intéressants et les valeurs aberrantes peuvent être facilement identifiés ; les points et ensembles de données individuelles peuvent être comparés et contrastés efficacement, à condition que les données sont correctement réprésentées. La visualisation permet aux utilisateurs d'explorer leurs données de manière interactive, d'obtenir des vus d'ensemble et détaillées en suivant des processus qui permettent d'obtenir des informations qu'il serait difficile d'obtenir à l'aide de techniques d'analyse de données entièrement automatisées à partir de domaines comme le data mining ou l'apprentissage machine. Ils ont des objectifs différents mais peuvent se compléter mutuellement efficacement. La visualisation peut, par exemple, aider à formuler des hypothèses qui peuvent ensuite être testées à l'aide de tests statistiques ou d'autres techniques d'analyse de données élaborées. Au-delà de ces aspects d'exploration, la visualisation de données peut aussi appuyer la prise de césision et joue un rôle central dans la communication des résultats auprès d'un large public.

Ce cours commencera par un aperçu du domaine de la visualtion de données. Il abordera ensuite les principes fondamentaux de la perception visuelle humaine, en mettant l'accent sur la manière dont ils contribuent à informer la conception de visualisations. Les cours suivants seront sur les techniques de visualisation pour des structures de données spécifiques et les analyseront en détails du point de vue de la conception et de la mise en oeuvre, y compris : données multivariantes, structures hiérarchiques, réseaux, séries temporelles, données statistiques et géographiques.

 

Tous les exercices sont basés sur les technologies du web, y compris la bibliothèque de logiciels D3 (Data-Driven Documents) et la grammaire graphique intéractive Vega-lite. Bien qu'ils se situent à des niveaux d'abstraction différents, ils permettent aux développeurs de concevoir une série de visualisations interactives et basées sur le web et fonctionnant sur de nombreuses plateformes, allant des bureaux aux appareils mobiles.

 

Requis : une expérience du développement Web (Javascript) est un plus mais n'est pas une exigence absolue.

Plus d'information sur : https://www.enseignement.polytechnique.fr/informatique/CSC_51052/

Matériel pédagogique : https://www.enseignement.polytechnique.fr/informatique/CSC_51052/

Langue : Matériel pédagogique en Anglais. Cours en Anglais.

Le cours fournit une présentation élargie et approfondie des concepts fondamentaux dans la gestion de données à très grande échelle.

Il introduit, en s'appuyant sur l'exemple de PostgreSQL, SGBD libre et réputé, les concepts tels que: requêtes déclarative, optimisation
de requête, modélisation de données, contrôle de la concurrence, reprise sur panne. Les cours s'accompagnent de laboratoires dans lesquels
on utilise PostgreSQL pour charger et requêter les données, aussi sous la forme d'une application Web.

Nous sommes entrés dans l'ère des mégadonnées. L'explosion de données disponibles dans unlarge éventail de domaines d'applications suscite de nouveaux enjeux dans une pléthore de disciplines, allant des sciences de l'ingénieur au commerce et à la société en générale. Un enjeux principal émerge dans la question de comment prendre l'avantage de ces échelles de données, de manière à acquérir de nouvelles idées et connaissances pour améliorer la qualité des services offerts. C'est là que l'apprentissage machine et profond viennent en capitalisant sur les techniques et les méthodologies issues de l'exploration de données (profilage statistique, visualisation), visant à identifier des schémas, des corrélations, des modélisations et des prévisions. Dans ce domaine, l'apprentissage profond est devenu un élément très important pour la résolution de problèmes de prévision à grande échelle ces dernières années.

 

 

Big Data Era. The explosion of available data in a wide range of application domains give rise to new challenges and opportunities in a plethora of disciplines – ranging from science and engineering to business and society in general. A major challenge arises in the question of how to take advantage of this unprecedented scale of data, in order to acquire further insights and knowledge for improving the quality of the offered services. This is where Machine and Deep Learning comes in capitalizing on techniques and methodologies from data exploration (statistical profiling, visualization), aiming to identify patterns, correlations, groupings, modeling and predicting. In this domain, Deep learning is becoming a very important element for solving large scale prediction problems in recent years. 

Lien de la page du cours : cliquez ici

 

Objectifs :  

L'Analyse de Données Topologiques est un phénomène émergent dans l'exploration d'analyse données et de data mining. ces dernières années. L'idée d'utilisier des outils topologiques pour relever les défis de jeux de données, notamment ceux pour lesquels les observations se situent sur ou à proximité de structures géométriques non triviales qui peuvent tromper les techniques classiques. Les méthodes topologiques sont en effet capable d'extraire des données des informations utiles à propos de ces structures géométriques, et exploiter cette information pour améliorer l'analyse du pipeline.

 

Lectures suggerées :

Herbert Edelsbrunner and John Harer, Computational Topoogy: An Introduction, AMS press
S. Oudot. Persistence Theory: From Quiver Representations to Data Analysis. AMS Surveys and Monographs, Vol. 209, 2015
James R. Munkres. Elements of Algebraic Topology. Perseus, 1984

 

Langue : Le matériel du cours est en Anglais. Les cours peuvent être en français ou en anglais, selon la préférence des étudiants.

Evaluation : Examen final écrit, possibilité d'ajouter un cours en laboratoire noté

Retours de l'année dernière : Si vous vous venez de MP, ce cours est pour vous ; si vous ne venez pas de MP, ce cours est aussi pour vous, bien que vous devrez travailler plus dur. Dans tous les cas, les objectifs restent atteignables et ! Vous pouvez visiter la page du cours pour plus d'information, ou contacter le responsable si vous avez des questions.

Le 21e siècle devient le siècle du data-driven. Les interactions avec les objets de tous les jours peuvent entraîner un d'information, en particulier lorsque : si dans un appartement la porte du réfrigirateur est régulièrement ouverte et fermée, il est probable que l'appartement est inhabité ; si un verre est vide, il est probable que l'habitant est bien vivant, est reste hydraté ; si le barbecue ou le four est fréquemment utilisé, l'habitant est peut-être (et donc un client potentiel pour des régimes alimentaires) ou reçois souvent (et donc un client potentiel pour des articles de fête) ; quelque chose qui analyserait le schéma d'utilisation de la sonnette pourrait révéler...

Pour être capable d'analyser le schéma d'utilisation et les interactions il faut bien sûr que ces actions physiques soient capturées et transformées en données, et que ces données soient communiquées par des objets de tous les jours avec et via l'Internet, et vers le cloud.

Le 21e siècle est donc également le siècle connecté : téléphones, montres, réfrigirateurs, brosses à dent, verres, cafetières, implants médicaux, barbecues, plantes de bureau et fourchettes deviennent des objects connectés qui génèrent des données et donc, qui font partie de l'Internet.

En dehors du marché de consommation, connaître l'état d'une machine, d'un moteur d'avion ou d'une sous-station électique, permet de prévoir des maintenances de prévention et éviter les accidents. Des capteurs intégrés capables de capturer et de communiquer cet état sont une prémisse indispensable.

En effet, une companie qui aujourd'hui, lance un produit qui n'exécute pas d'application et qui ne se connecte pas à Internet est une companie qui n'a tout simplement pas compris les besoins (ou du moins les désirs) de son marché ; tout comme le type qui installe son porte-vélos sur la gauche, qui a clairement mal compris son "marché cible"

De façon à ce que VOUS ne devenez pas celui ou celle qui crée un produit qui rate misérablement le marché, ce cours vous fournit les compétences de base nécessaires pour développer des systèmes connectés.

 

Ce cours est autonome : il demande quelques connaissances en programmation et beaucoup de curiosité, il introduira le reste au fur et à mesure. Chaque cours consistera en un cours magistral, suivi de 2h de laboratoire (TD). Ce cours est conçu de manière à ce que l'étudiant passe 1 à 2 heures par semaine en dehors des cours, pour réviser et/ou terminer les exercices.

 

Recquis :

And so, the 21th century is necessarily also the connected century: smartphones, watches, fridges, toothbrushes, drinking glasses, coffee machines, medical implants, BBQs, office plants, and forks are all becoming connected objects, generating data — and thus, becoming part of the Internet.

Outside of the consumer market, knowing the state of a machine, of an airplane engine, or of a power substation, permits scheduling predictive maintenance and avoid accidents — embedded sensors able to capture, and communicate, this state is a necessary premise.

As a matter of fact, a company launching a product today that doesn't "run an app" and "connects to the Internet" is a company, which just hasn't grasped the needs (or, at least, the desires) of its market - much as the guy installing the bike rack on the left, clearly misunderstood his "target market".

In order to ensure that YOU do not end up being that gal/guy, building a product miserably missing the market, this course provides you with the core competencies, necessary for developing connected systems.

 

This course is self-contained: it assumes some programming skills, and a lot of curiosity — and will introduce the rest as it goes along. Each lesson will consist of a lecture, followed by 2h of lab (TD). This course is calibrated so that a student should expect to spend 1-2h/week outside of class, reviewing material and/or finishing exercises.

 

Requirements:

A good dose of curiosity is required.
(Having followed INF321 or INF311+411 probably won’t hurt)

 

Evaluation mechanism:

Weekly submissions (either of homework, or of quizzes) worth 50% of the final grade, and a final exam QCM worth the other 50% of the grade.

Language:

English (with, at least, bilingual teaching staff)

INF563 — Introduction à la Théorie de l'Information

Responsable : Thomas Debris-Alazard (thomas.debris@inria.fr)


Objectifs :

La théorie de l'information consiste à trouver les limites fondamentales de la compression d'un signal, du stockage des données ou de la communication des informations de manière fiable sur un canal bruyant par exemple. Il s'avère que toutes ces limites peuvent être exprimées en termes d'une seule quantité, qui est l'entropie. Les fondements de ce domaine ont été posé par Shannon qui a quantifié de manière très élégantes ces limites.

Nous aborderons pendant ce cours ses résultats principaux et nous donnerons également une réponse moderne à ce type d'enjeu qui fournissent des schémas très efficaces pour compresser ou protéger les données contre les bruits. Ajourd'hui cette théorie a aussi trouvé des applications dans de nombreux autres secteurs tels que la cryptographie, la biologie, l'informatique quantique, la linguistique, la détection de plagiat ou la reconnaissance des formes. Nous aborderons certains de ces auters applications pendant le cours.

 

Lecture suggérée : T. Cover, J. Thomas, "Elements of Information Theory". Wiley Series in Telecommunications, 1991.

Langue : Le support de cours est en anglais. Les cours peuvent être donnés en frnaçais ou en anglais, à la convenance des étudiants.

Evaluation : Le cours se valide par un examen oral.

 

Prérequis :

  • Des connaissances de base en statistiques ou en théorie des probabilités est recommandée mais pas obligatoire.

  • En informatique : des connaissance en algorithmique et en programmation comme INF411 ou INF421.

 

This course is a mandatory part of the M1 Graduate Degree Internet of Things: Innovation and Management Program (IoT-IM)

Ce cours autour de thèmes avancés de l'informatique et information quantique est destiné aux étudiants ayant suivi une formation de base d'informatique quantique. Nous introduirons durant ce cours des sujets comme les codes correcteurs quantiques, des algorithmes avancés comme les marches aléatoires quantiques ainsi que la cryptographie quantique. De plus nous nous intéresserons à des sujets liés au fondations de la théorie quantique, notamment à l'intrication, la non-localité et le théorème de Bell, le non-clonage, la téléportation quantique, le codage superdense, et le problème de la mesure quantique.

Avec l'émergence de processeur multi-coeur (et maintenant manycore avec plusieurs dizaines d'unités d'exécution), l'expression du parallélisme est obligatoire pour permettre des hautes performances dans différents types d'applications (calcul scientifique, mégadonnées...). Dans ce contexte, ce cours détaille de multiples paradigmes de programmation parallèle pour permettre l'exploitation d'un grand nombre de coeurs sur différentes architectures cibles (CPU et GPU). Il comprend le modèle de mémoire distribuée (MPI), le modèle de mémoire partagée (OpenMP) et le modèle hétérogène (CUDA). Toutes ces approches permettraient de tirer parti des performances de différents ordinateurs (allant des petits serveurs jusqu'à de très larges superordinateurs du Top500).

 

Niveau requis : INF431 ou équivalent
Modalités d'évaluation : Projet
Langue du cours : Anglais

Ce cours porte sur les principes de conception et les fondements algorithmiques des systèmes logiciels influants pour les mégadonnées analytiques. Le cours commence par la conception de grands entrepôts de données d'entreprises, les techniques de traitement des requêtes pour le traitement analytique en ligne et le data mining dans l'entrepôt de données. Le cours étudie ensuite les changements architecturaux fondamentaux vers cluster de serveurs partagé, notamment les bases de données parallèles, MapReduce, columnstore et la prise en charge de traitement par lots, d'algorithmes itératifs, de l'apprentissage machine et des analyses intéractives dans ce nouveau contexte.

 

Evaluation : série devoirs écrits et de programmation + examen final

Langue : Anglais

La synthèse d'images, ou "rendu photoréaliste", est un thème central de l'infographie 3D qui combine un ensemble de méthodes d'imagerie artificielle pour générer automatiquement des images numériques à partir de modèles de scènes virtuelles en 3D. Le rendu est un sujet transdisciplinaire situé à la frontière entre l'informatique, la physique, les mathématiques appliquées et la perception. Il est couramment utilisé dans les domaines de la conception assistée par ordinateur (CAO), de la réalité virtuelle et augmentée, des effets spéciaux visuels, de l'animation numérique, des jeux vidéo, de la simulation et de l'architecture.

Ce cours présente les principes, algorithmes et techniques de la synthèse d'images. Il

Dans ce cours, nous introduisons la technologie bioinformatique fondamentale pour l'analyse des données de séquençage. Nous nous concentrerons sur la compréhension des méthodes informatiques fondamentales qui permettent le traitement direct et d'importantes analyses en aval. Le cours consacre environ un tiers de son temps à discuter des algorithmes de graphes pour l'assemblage des génomes ainsi que de la structure d'index pour la cartographie des données de séquençage de la prochaine et de la troisième génération. Nous présenterons ensuite des méthodes d'annotation, d'alignement et de recherche de motifs et consacrerons une partie à la phylogénomique. Un autre domaine d'intérêt est l'analyse des expériences basées sur le séquençage de l'ARN, afin de révéler la structure et les interactions des ARN. Nous nous pencherons ici sur la combinaison de la structure de l'ARN et de la prédiction des interactions, en insistant sur leur intégration avec les données expérimentales.

 
 

 

 

Stages de recherche en Sciences de Données (Data Science)

Les stages de recherche en Sciences de Données abordent un ensemble large et varié de questions, qui illustrent l’importance et la diversité des recherches contemporaines en Intelligence Artificiel, Machine Learning and Bigdata. Ces questions vont de problèmes théoriques auxquels les élèves apportent parfois des réponses innovantes aux applications industrielles, mais toujours avec une composante scientifique ou technologique forte.

Les stages proposés sont issus d’une demande large dans les meilleurs centres de recherche internationaux académiques et industriels. Ils permettent de prendre conscience que les développements innovants, en particulier dans le monde industriel, s’appuient la plupart du temps sur un solide corpus de connaissances théoriques. Ils permettent également de prendre conscience de la complexité, sans précédent historique, des systèmes informatiques construits aujourd’hui. Ainsi derrière un banal processeur se cache toute la chaîne de production informatisée qui va de la conception modulaire jusqu’au dessin des masques, en passant par les algorithmes de preuve symbolique des circuits. De même, la complexité de l’écriture de logiciels devant s’exécuter simultanément et de façon coordonnée sur plusieurs milliers de machines est d’une nature telle qu’il est impossible d’espérer un fonctionnement correct, sans une méthodologie systématique.

Les élèves décidés à faire une carrière dans la recherche das ce domaine y trouveront matière à confirmer leur vocation pour un domaine particulier et découvriront la vie des laboratoires. Les autres élèves pourront se familiariser avec le monde de la recherche et de l’innovation, que la quasi-totalité d’entre eux sera amenée à côtoyer d’une manière ou d’une autre au cours de sa carrière. Ce stage sera aussi l’occasion, pour certains, d’opter pour une formation par la recherche, sanctionnée par un doctorat, qui est souvent le diplôme de référence dans l’industrie informatique mondiale.

Il est fortement conseillé d’avoir suivi l’un des programmes d’approfondissement en Sciences de Données proposés par le département d’informatique pour profiter pleinement de son stage.

 

Niveau requis: M1 en informatique ou équivalent.
Modalités d’évaluation: Les élèves rédigent un mémoire de stage, qu’ils soutiennent devant un jury.

Objectives :

 

This course will introduce students to advanced topics in modern geometric 3D data analysis with focus on a) mathematical foundations (discrete differential geometry, mapping, optimization), and b) deep learning for best performing methods. We will give an overview of the foundations in 3D shape analysis and processing before moving to modern techniques based on deep learning for solving problems such as shape classification, correspondence, parametrization, etc.

Content :

 

The course is divided into four lectures and four lab sessions. The topics covered include:

  • Intro to 3D Shape Representaiton and Discrete Differential Geometry,

  • Optimization of geometric energies,

  • Deep learning on curved surfaces,

  • Analysis and machine learning on point clouds

Language :

The course will be taught in English by Maks Ovsjanikov and Etienne Corman.

 

Evaluation :

Oral paper presentation.

Catégorie: Master 2 / MScT 2A

Computer programming (CSE101) introduces students (with or without previous programming experience) to the fundamentals of computer programming in Python, with applications across the sciences. In this course, students will explore fundamental algorithms and data structures, up to and including binary trees, using a mixture  of procedural, recursive, and object-oriented techniques. Upon completion of this course, students will have a solid foundation in the culture and practice of modern programming, and the basic skills to solve real-world problems using efficient, well-written programs and open-source tools. These foundations will be extended  and completed in CSE 102 and CSE 103.

These foundations will be extended and completed in CSE102 and CSE103.

Catégorie: Bachelor 1

The goal of CSE201 is to introduce students to the C++ programming language, and the object-based view of software design. C++ is one of the most widely-used programming languages in the world, especially for system-level programming. Much of its power derives from its use of objects, packets of data and functionality that  model things and concepts in the real world.

CSE 201 is to introduce students to the C++ programming language, and the object-based view of software design. C++ is one of the most widely-used programming languages in the world, especially for system-level programming. Much of its power derives from its use of objects, packets of data and functionality that model things and concepts in the real world. 

Catégorie: Bachelor 2

In this course, we will study functional programming, and will learn how to take advantage of the features of modern typed functional programming languages. We will study in depth the notions of algebraic data types, higher-order functions, polymorphism, and side-effects. The practice sessions will be done in Haskell, but concepts presented in the course can be applied in many other languages such as OCaml, SML or Python.

Prerequisites: CSE201 and CSE203

Prerequisite:CSE203

The course will present the paradigm of Constraint Logic Programming from its logical foundations for programming with relations, to its current applications. From logic programming and the early days of artificial intelligence, towards the holy grail of programming simply by modelling, the students will learn how to use a recent  dialect of Prolog for relational databases, knowledge representation, automated deduction and combinatorial problem solving. The balance between declarative programming and efficiency, between clean semantics and expressiveness will be of particular interest, and will lead us into looking at how things work internally in a Prolog  bytecode compiler (Warren Abstract Machine, indexing…) on practical examples. 

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue en sciences des données.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données et notamment les données massives (Big Data).
Une immersion dans l’univers de la donnée à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue en sciences des données.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données et notamment les données massives (Big Data).
Une immersion dans l’univers de la donnée à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue en sciences des données.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données et notamment les données massives (Big Data).
Une immersion dans l’univers de la donnée à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue en sciences des données.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données et notamment les données massives (Big Data).
Une immersion dans l’univers de la donnée à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital

Découvrez notre formation continue Big Data.
Avec l’explosion et la profusion des données disponibles dans un grand nombre de domaines, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde l’ensemble des secteurs de la vie économique, mais aussi certains secteurs de la recherche.
La formation en big data en formation continue, offre une introduction aux meilleurs outils méthodologiques pour appréhender et exploiter les données massives,
Une immersion dans l’univers du Big Data à travers un parcours intensif portant sur les fondamentaux en sciences des données.

Catégorie: Digital
The Data Science Capstone project provides an opportunity for students to carry out a defined piece of independent research or design. Students will be invited to choose from a list of projects proposed by industrial partners. Skills developed include the capacity to define a research or design question, show how it relates to existing knowledge and carry out the research or design in a systematic manner. Students will be expected to choose a research/development project that demonstrates their prior learning in the data science domain. The results will be presented in a final project presentation and report.
 
Catégorie: Master 2

Objective

So-called hidden Markov chain (or state-space) models are time series models involving a "signal" (a Markov process $(X_t)$ describing the state of a system) observed in an imperfect and noisy way in the form of data, e.g. $Y_t=f(X_t)+epsilon_t$. These models are widely used in many disciplines:

  • Finance: stochastic volatility ($X_t$ is the unobserved volatility)… 
  • Engineering: target tracking ($X_t$ is the position of a mobile whose trajectory we are trying to find; speech recognition ($X_t$ is a phoneme). 
  • Biostatistics: Ecology ($X_t$=population size); Epidemiology ($X_t$=number of infected).

The aim of this course is to present modern methods of sequential analysis of such models, based on particle algorithms (Sequential Monte Carlo). The problems of filtering, smoothing, prediction, and parameter estimation will be discussed. At the end of the course, we will also briefly discuss the extension of such algorithms to non-sequential problems, notably in Bayesian Statistics..

Prerequisite: 

  • 2A Simulation and Monte Carlo or similar course 
  • 3A courses of "Computational Statistics" and "Bayesian Statistics" are recommended but not mandatory.

At the end of the course, the student will be able to: 

  • state the main properties of HMM models 
  •  implement a particle filter to filter and smooth a given HMM model 
  • estimate the parameters of such a model from different methods

Planning

  1. Introduction: definition of HMM (Hidden Markov models), main properties, notion of filtering, smoothing and prediction, forward-backward formulas.
  2. Discrete HMMs, Baum-Petrie's algorithm
  3. Gaussian linear HMM, Kalman algorithm
  4. SMC algorithms for filtering an HMM model
  5. Estimation in HMM models
  6. Introduction to non-sequential applications of SMC algorithms

Evaluation : Project-based (group of three students).  

References

Del Moral (2004). Feynman-Kac formulae, Springer.

Chopin, N. and Papaspiliopoulos, O. (2020). An Introduction to Sequential Monte Carlo, Springer. 

Catégorie: Master 2

Course description: The aim of online learning is to provide efficient recursive algorithms of prediction when the data are arriving sequentially in a streaming way rather than as an array given once and for all. Whereas statistical learning is dealing

with independent identically distributed data, the emphasis in online learning

is on adversarial setting where the data are of arbitrary nature satisfying mild conditions. In this setting, one of the key ideas is to use, at each time instance, a suitable randomized choice from the given set of candidate predictors. Analogous techniques can be applied to solve the problem of aggregation, that is, to obtain procedures that predict almost as good as the best estimator in a given set. This course provides an introduction to online learning and aggregation focusing on theoretical aspects.

 

Topics covered:

-- Online classification in realizable case, halving.

-- Online gradient descent for convex and strongly convex loss. Online-

to-batch conversion. Online linear regression.

-- Randomization by exponential weighting. Prediction with expert ad-

vice.

-- Adversarial multi-armed bandit problem.

-- Aggregation of estimators.

-- Gradient-free online learning. Continuum bandit problem.

 

Resources:

Shalev-Schwartz, S. (2011) Online learning and online convex optimi-

sation. Foundations and Trends in Machine Learning, vol. 4, pages

107-194.

Tsybakov, A. (2020) Online learning and aggregation. Lecture Notes.

 

Evaluation: Final exam.



Catégorie: Master 2

Cooperative Optimization for Data Science


The course presents continuous optimization techniques that have been developed to deal with
the increasing amount of data. In particular, we look at optimization problems that depend on
large-scale datasets, spatially distributed data, as well as local private data.

We will focus on three different aspects: (1) the development of algorithms to decompose the
problem into smaller problems that can be solved with some degree of coordination; (2) the trade-
off of cooperation vs. local computation; (3) how to design algorithms that ensure privacy of
sensitive data.

Catégorie: Master 2

Cours Projet Big Data & Assurance  

 

Le but du cours est de présenter la construction d’un projet data dans le secteur de l’assurance.

L’accent sera mis sur les difficultés rencontrées :

  • captation des données
  • questions organisationnelles et relationnelles entre directions,
  • maturation des besoins derrière l'intuition initiale
  • coaching des datascientists en dehors de leur code

 

Des professionnels pourraient partager leur retour d’expérience sur la mise en place de projets Big Data dans leur entreprise.

 

Les points abordés lors du cours seront :

  • Assureurs : quel patrimoine de données aujourd'hui ?
  • Les 3 étages de la valorisation de l'entreprise par les données (opérationnel, nouveaux services, nouveau business model), valorisation niveau opérationnel : tour d'horizon d'utilisation de la data, direction par direction dans une compagnie d'assurance, autres niveaux de valorisation : tour d'horizon des start up insurtech et leur exploitation de la donnée (alan, simply, ...)
  • Quelle organisation data ? faut-il un datalab ? comment le piloter ?
  • Big Data / actuariat : complémentarité ou concurrence ? comment les rapprocher ?
  • Que dit le droit sur l'utilisation des données : RGDP, pack assurances de la CNIL, directive distribution assurances, … ?
  • Ce que les objets connectés changent pour l'assurance : relation client, évaluation du risque, nouvelle matière assurable, assurance courte durée.
Catégorie: Master 2

Syllabus : Modern machine learning heavily relies on optimization tools, typically to minimize the so called loss functions on training sets. The objective of this course is to cover the necessary theoretical results of convex optimization as well as the computational aspects. This course contains a fair amount of programming as all algorithms presented will be implemented and tested on real data. At the end of the course, students shall be able to decide what algorithm is the most adapted to the machine learning problem given the size of the data (number of samples, sparsity, dimension of each observation).         

Evaluation:   

Labs. 2-3 Labs with Jupyter graded (30% of the final grade).

Project. Implementation of solvers for a machine learning model. 30% of final grade.

Exam. 3h Exam (40% of the final grade). 

Detailed Program

1 Lecture [2.00 hours lecture + 1.50 hours exe, Robert] Foundations of convex optimization: gradient, sub-differential, strong convexity, conditioning. Examples with linear regression and logistic regression for which we compute gradients, Hessian, Lipchitz constants, etc. -Exercise list : Convexity and smoothness, Ridge regression and gradient descent

2 Lecture [2.00 hours lecture + 1.50 hours exe, Robert] First order algorithms: gradient descent, proximal operator, proximal gradient descent, convergence proofs in the smooth and smooth + strongly convex case. Give exercises. -Exercise list : Proximal Operator

3 Lab [3.50 hours Lab Robert + Alex + TAs] Lab (grad + prox grad) in jupyter notebooks. Lab to be graded. -Lab1.ipynb

4 Lecture [2.0 hours lecture + 1.50 hours exe, Robert] Stochastic algorithms, SGD, with and without moment convex, strongly convex, with proofs. -Exercise list : SGD and CD for ridge regression

5 Lecture [1.50 hours lecture + 2.0 hours Lab, Robert] Stochastic variance reduced methods (SAGA, SVRG) with numerical tricks: lazy updating, sparse tricks. - Lab SGD + variants (not graded) -Exercise list : Variance reduction

6 Lab [3.50 hours Lab Robert + Alex + TAs] Lab on all methods seen so far (GD, prox GD, Fast prox GD, SGD, SAG, SVRG, SDCA). Lab to be graded -Lab2.ipynb

7 Lecture [2 hour + 1.50 hours Lab, Robert] Online variance reduction and scale invariant methods (Natural gradient descent, ADagrad, Adam, randomized Newton)

8 Lecture [3.5 hours, Alex] Part I: Coordinate descent algorithms + Lab: coordinate descent implementation on logistic and ridge + Project introduction

9 Lecture [1 hour + 2.5 hours Lab, Alex] Solvers for quadratic functions (SVD, woodbury matrix inversion lemma), conjuguate gradient (dense vs sparse data). Line search methods.

10 Lecture [2 hours + 1.5 hours Lab, Alex] Second order methods: Newton, Quasi-Newton (BFGS, L-BFGS). Illustrate convergence problem of Newton, initialisation, construction of BFGS et L-BFGS.

11 Lecture [3.5 hours, Alex] non-convex and beyond convexity (adaptive Lasso / SCAD), Frank-Wolfe.

Additional Books and resources

Book 1. Boyd & Vandenberghe: Convex Optimization. Chapters 2, 3 and 4 for a revision on convexity and chapter 9 for a revision on unconstrained optimization. Freely available here

Book 2. Shalev-Shwartz & Ben-David: Understanding Machine Learning, from Theory to Algorithms. Chapters 1 and 2 for a frequentist introduction to Machine Learning. Freely available here.

Book 3. Bubeck: Convex Optimization: Algorithms and Complexity. Chapter 6 for additional proofs for stochastic gradient methods including SGD and SVRG. Freely available here.

Paper 1. Amir Beck and Marc Teboulle (2009), SIAM J. Imaging Sciences, A Fast Iterative Shrinkage-Thresholding Algorithm for Linear Inverse Problems. Freely available here.

Paper 2. RMG et all (2019), Proceedings of Machine Learning Research, Volume 97, SGD: general analysis and improved rates freely available here.

               

           

       

Catégorie: Master 2

Initiation pratique à l’apprentissage profond

Le Deep Learning (Apprentissage Profond en Français) a bénéficié d’une forte visibilité dans le monde de l’apprentissage automatique, grâce notamment aux progrès rapides et importants dans la reconnaissance vocale, la vision par ordinateur, et le traitement automatique du langage naturel. Cette branche du machine learning a suscité des investissements importants de la part des géants de l’internet tels que Google, Microsoft, Facebook et IBM.

 

C’est également en grande partie grâce à l’apprentissage profond que le programme AlphaZero a pu battre les champions de Go et les meilleurs programmes d’échecs en fin 2017.

Le Deep Learning permet de construire des modèles prédictifs hiérarchiques appelés réseaux de neurones artificiels. Grâce à leur structure, ces réseaux construisent automatiquement des représentations de plus en plus abstraites des données.

L’avènement de ces techniques a été rendu possible par le Big Data – grand volume de données pour l’apprentissage ; par la rapide croissance des capacités de calcul, notamment grâce aux GPUs ; et enfin par la meilleure compréhension des techniques d’optimisation des réseaux de neurones.

Programme

Ce cours couvre les techniques pratiques d’optimisation des réseaux de neurones profonds. Il permettra aux étudiants d’être opérationnels pour l’étude et la mise en place de modèles d’apprentissage avancés sur des données complexes, grâce à aux techniques et outils suivants:

  • Bibliothèques Numpy, TensorFlow, Keras
  • Techniques d’optimisation, de transfert et de régularisation
  • Connaissance des architectures classiques et à l’état de l’art

En particulier les étudiants mettront en œuvre ces méthodes pour les applications suivantes :

  • l’analyse de l’image grâce aux réseaux de convolution profonds ;
  • l’analyse du langage par l’apprentissage non supervisé de représentations de mots et les réseaux récurrents ;
  • une ouverture sur d’autres applications tels que les moteurs de recommandation, les modèles génératifs, …

Public visé et prérequis

Ce cours s’adresse aux étudiants ayant déjà étudié le Machine Learning. Il est composé de nombreux travaux pratiques sur machine (prévoir un ordinateur portable).

Les prérequis techniques sont langage python (notamment sous jupyter, notions de numpy et scikit-learn).

Compréhension générale des concepts de l'apprentissage automatique (regression linéaire et logistique, estimateur du maximum de vraisemblance, validation croisée et surapprentissage) et expérience avec les méthodes numériques pour l'algèbre linéaire et l'optimisation convexe.

 

Modalités de contrôle

Contrôle continu en début de session travaux pratiques, et évaluation finale sur machine.

Catégorie: Master 2

1 Overview
Methods for estimating multiple objects from sensor data are in increasing de-
mand and are critically important for national security. For example, the in-
creasing use of space for defence and civil applications makes it imperative
to protect space-based infrastructure. Advanced surveillance capabilities are
needed to be able to identify and monitor activities in earth's orbit from a
variety of di erent sensing platforms and modalities.
There have been a number of important innovations in multitarget tracking
and multisensor fusion in recent years that have had signi cant international
impact across di erent application domains. In particular, the suite of math-
ematical tools, such as point process models, have been developed speci cally
to enable such innovations. Considering systems of multiple objects with point
process models adopted from the applied probability literature enables advanced
models to be constructed in a simple way. This course draws together mathemat-
ical concepts from diverse domains to provide a strong grounding for developing
new algorithms for practical applications.
This course will investigate mathematical concepts in multiobject estimation
to enable prospective researchers to better understand and contribute to innova-
tions in this eld. The goal is to develop a broad mathematical perspective for
mathematical modelling for multi-object estimation and explore the literature
in spatial statistics and point processes to aid new advances in sensor fusion for
the development of future technologies for autonomous systems.
2 Course content
The topics have been selected to cover the fundamental topics required for the
development and implementation of practical algorithms for multi-sensor fusion.
The course will cover fundamental mathematical topics, in estimation theory,
information theory, and point process theory as follows.
 Bayesian lters: Kalman lter, extended Kalman lter, unscented Kalman
lter, sequential Monte Carlo (particle) ltering, Gaussian mixture lter-
ing
 Performance bounds and analysis: Fisher information, Cramer-Rao
lower bound, consistency and bias.
 Topics in combinatorics: generating functions, Bell polynomials, par-
titions.
1
 Topics in functional calculus: di erentials, functional derivatives, gen-
erating functionals
 Point process statistics: the intensity function, covariance and corre-
lation, moments and cumulants
 Point process descriptions: the probability generating functional, the
Laplace functional
 Point process parameterisations: Bernoulli, Poisson, Panjer, i.i.d.
cluster process, Poisson-binomial
 Topics in multi-target tracking: modelling and derivation of point
process lters, application with Gaussian mixture and particle lters,
 Metrics: mean-squared error, Hausdor distance, OSPA metric
 Practical applications: simultaneous localisation and mapping (SLAM),
tracking multiple targets and camera calibration, distributed multi-sensor
multi-target tracking.
 Topics in information: Shannon entropy, Kullback-Leibler divergence,
Renyi entropy, mutual information, channel capacity.
3 Method of delivery
The course will comprise of 15h lectures lectures and 15h tutorial and practical
work. The assessment will be 30% coursework and 70% exam.
4 Industrial engagement
Competency in this domain is in high demand for defence and national security
organisations. A workshop showcasing work in industry is planned and opportu-
nities for collaboration on project with industrial and governmental partners will
be communicated to students. Provisional commitments for opportunities have
been provided by CNES, NATO CMRE, Naval Group, SAFRAN, Fraunhofer
FKIE, Thales, Dstl and AFRL.
2

Catégorie: Master 2

For the past few years, statistical learning and optimization of complex
dynamical systems with latent data subject to mechanical stess and random
sollicitations prone to be very noisy have been applied to time series analysis
across a wide range of applied science and engineering domains such as signal
processing, target tracking, enhancement and segmentation of speech and
audio signals, inference of ecological networks, etc.
+ Solving Bayesian nonlinear filtering and smoothing problems, i.e. computing
the posterior distributions of some hidden states given a record of
observations, and computing the posterior distributions of the parameters is
crucial to perform maximum likelihood estimation and prediction of future
states of partially observed time series. Estimators of these posterior
distributions may be obtained for instance with Sequential Monte Carlo (SMC),
also known as particle filtering and smoothing, and Markov Chain Monte Carlo
(MCMC) methods.

For massive data sets and complex models, the dynamics of the underlying
latent state or the conditional likelihood of the observations might be
unavailable or might rely on black box routines/simulation programs which
makes usual approaches unreliable. Construction of (a) estimators of these
posterior distributions to estimate uncertainty or (b) simulation under the
posterior distribution of the parameters are very complex challenges in this
setting.

Each Tuesday (9 a.m. to 12.30 p.m.) from the 17 of september to the 22 of
october.
+ Markovian models (specific focus on observation-driven models).
+ Bayesian inference and consistency and asymptotic normality of the
maximum likelihood estimator.
+ Introduction to Markov chain Monte Carlo algorithms.
+ Some convergence results of Markov chain Monte Carlo algorithms.
+ Particle Gibbs sampling, Particle marginal MCMC.
+ Approximate Bayesian Computation.

Master the statistical learning framework and its challenges with dependent
data.
+ Know the inner mechanism of some classical Markovian models with missing
data.
+ Know how to implement (Python) the most classical Markov chain Monte
Carlo algorithms.
Metropolis-Hastings, Gibbs, particle-based MCMC.
+ Understand some theoretical tools used to prove some convergence
properties of Machine learning for such models (maximum likelihood inference,
ergodicity of MCMC algorithms).
Evaluation
+ Report on a research article (100%).

Catégorie: Master 2

Artificial intelligence, as a transversal discipline, plays a central role in our modern society, driving vital advances and amplifying efficiency, well-informed decision-making and general
practicality in our daily routines. This advanced master's course aims to provide students with a comprehensive understanding of the latest developments in Responsible AI. The course will explore various facets of Responsible AI, including interpretable AI, fairness in machine learning, robust machine learning, data privacy, and frugality. Students will delve into both theoretical foundations and practical implementations, equipping them with the skills to design and implement AI systems that are ethical, accountable, and aligned with
societal values.

Catégorie: Master 2

Syllabus :   For the past few years, statistical learning and optimization of complex dynamical systems with latent data have been applied to time series analysis across a wide range of applied science and engineering domains such as signal processing, target tracking, enhancement and segmentation of speech and audio signals, inference of ecological networks, etc.

Solving Bayesian nonlinear filtering and smoothing problems, i.e. computing the posterior distributions of some hidden states given a record of observations, and computing the posterior distributions of the parameters is crucial to perform maximum likelihood estimation and prediction of future states of partially observed models. Estimators of these posterior distributions may be obtained for instance with Sequential Monte Carlo (SMC), also known as particle filtering and smoothing, and Markov Chain Monte Carlo (MCMC) methods.

This course sets the focus on MCMC algorithms and provides an overview of such approaches: introduction to standard procedures, convergence properties of a few algorithms and practical extensions (with simulations based on Python Notebooks) to more complex solutions.



Numerus Clausus: 30

 

Grading – 3 ECTS

Quiz

Project based on a research article

 

Topics covered
Markovian models (specific focus on observation-driven models).
Introduction to Markov chain Monte Carlo algorithms.
Some convergence results of Markov chain Monte Carlo algorithms.
Pseudo-Marginal MCMC and applications.
Hamiltonian Monte Carlo algorithms and variants.

Introduction to variational methods.

 

Catégorie: Master 2

"Deep Learning I"
M2 Data-Science
Geo roy Peeters, Alasdair Newson (Telecom Paris)
2022-2023

Catégorie: Master 2

Objectifs 

- Maîtriser les outils mathématiques pour la construction d'algorithmes d'optimisation convexe. - Savoir démontrer la convergence des itérées. - Savoir résoudre numériquement des problèmes d'optimisation comportant des termes de régularisation non dérivables et structurés. - S'initier à l'optimisation distribuée et la programmation sous Hadoop Spark. 

Descriptif du cours 

Le cours n'a PAS vocation à fournir un répertoire d'algorithmes le plus abondant possible. Il s'agit de prendre du recul afin de comprendre les fondements mathématiques pour la construction d'une vaste classe de méthodes itératives. Après une introduction à la théorie de l'analyse convexe, nous verrons les conditions sous lesquelles on peut démontrer la convergence d'un algorithme du point fixe. Cette approche générale permet de d'obtenir, comme corollaire, la convergence de l'emblématique algorithme du gradient proximal. Elle permet également de construire d'autres algorithmes plus généraux : les méthodes primales- duales. Ces méthodes permettent de résoudre des problèmes d'optimisation comportant des régularisations complexes et structurées, ou des problèmes d'optimisation sous contraintes. De tels problèmes se rencontrent fréquemment en apprentissage statistique, traitement du signal, et traitement de l'image. 

Sur le plan pédagogique, un juste compromis entre fondements théoriques et applications est visé. Deux TP permettront de mettre en application les méthodes numériques vues en cours. Ils incluent une initiation à l'optimisation distribuée et grande échelle, sous Hadoop Spark. 

Prérequis : pas de prérequis à l'exception des connaissances élémentaires en analyse convexe : fonctions et ensembles convexes, minimiseurs. Le premier cours est consacré à des rappels. 

Note finale : 3/4 examen (3h), 1/8 travail en séance de TP, 1/8 compte-rendu de TP. 

Polycopié : https://datascience-x-master-paris- saclay.fr/lms/pluginfile.php/122/mod_page/content/23/m2ds_30_11_2017.pdf 

Exercices : https://datascience-x-master-paris- saclay.fr/lms/pluginfile.php/122/mod_page/content/23/td2017.pdf 

Catégorie: Master 2

Day 1: Data wrangling

- Advanced course on Pandas
- Tidy data
- Lab on MovieLens dataset
- Challenge and getting started with RAMP

Day 2: ML Pipelines and hyperparameter search

- Column transformer and pipelines
- Bayesian optimization and hyper parameter search
- Learning curves

Day 3: Metrics and dealing with unbalanced data

- Presentation of the different ML metrics
- Problem of the metric with unbalanced data
- ML approaches to deal with imbalanced data

Day 4: Ensemble methods and feature engineering

- Gradient Boosting
- Stacking
- feature engineering

Day 5: Model inspection

- partial dependence plots
- feature importance

Challenges

Besides the students will compete during the week on a data challenge.

 

 

 

Catégorie: Master 2

Course description: Our information society produces an ever-increasing flow of unstructured data of various types (texts, audio, image, video, etc) that needs to be dealt with quickly and effectively. In the face of such polymorphic data, probabilistic models have emerged through their ability to digest the variability of information into effective and sound statistical models. In the last decades, these models have become indispensable tools for information management and decision-making. The course is divided into two main parts. The first part deals with the basic concepts and their computational manipulation: directed and undirected graphical models, and the associated algorithms. In the second part, we focus more specifically on (a) the estimation of latent variable models: (b) approximate inference. We will illustrate these methods with applications from the text mining literature (text classification and clustering, question answering, sentiment analysis, etc).

               

Main themes : 

  • Directed graphical model and probabilistic reasoning 
  • Undirected graphical model
  • Exact inference in graphical models
  • EM and latent variable models
  • Approximate inference: variational techniques
  • Approximate inference: sampling techniques

 

Language: English

 

Numerus Clausus: 24

 

Recommended readings:

  • Probabilistic Graphical Models: Principles and Techniques by Daphne Koller and Nir Friedman. MIT Press.
  • Pattern Recognition and Machine Learning by Chris Bishop.
  • Machine Learning: a Probabilistic Perspective by Kevin P. Murphy. MIT Press
  • Modeling and Reasoning with Bayesian networks by Adnan Darwiche. Information Theory, Inference, and Learning Algorithms by David J. C. Mackay. [Available online.]
  • Graphical models, exponential families, and variational inference by Martin J. Wainwright and Michael I. Jordan. [Available online]

 

Prerequisites: Basic statistics and optimization

 

Grading: Final exam

Catégorie: Master 2

Course description: This class is an introductory course to the domain of Natural Language Processing (NLP). It is meant to provide a high-level overview of this vibrant field, which is evolving at a fast pace owing to the recent advances of deep learning models; it also covers some of the main algorithmic development notably aimed to process structured linguistic data such as syntactic parse trees or semantic graphs, as well as the deep neural architectures that are used to learn numerical representations for words and phrases; the course finally includes a glimpse at its most recent developments aimed at developing NLP systems in a multilingual contexts.

 

Main themes : 

  • Statistical NLP: A brief retrospective 
  • Words and the Lexicon
  • The art of language modeling
  • The essence of NLP: Models for Structured Data
  • Shallow Semantics and Representation Learning
  • Multilingualism and Machine Translation

 

Language: English

 

Numerus Clausus: 50

 

Recommended readings:

 

  • Jacob EISEINSEIN. Natural Language Processing. The MIT Press, 2019
  • Yoav GOLDBERG. Neural Network Methods for Natural Language Processing. Morgan & Claypool Publishers. 2017. 287 pages. ISBN 978-1-62705-298-6

also:

  • Julia Hirschberg and Christopher D. Manning (2016) Advances in natural language processing, Science Magazine.

 

Prerequisites: Basic statistics and optimization, formal language theory (automata and grammars) is a big plus.

 

Grading: Final quizz. 

Catégorie: Master 2

The development of Smart-Grids is expected to come from the aggregation of basic low voltage power supply networks, known as micro-grids, which associate local energy production with storage capacities and energy consumers. Micro-grids restricted to a single building are often called "Nano-grids" and are also getting attention as the building block of a micro-grid.  Such Nano-grids are vulnerable to both sudden changes of power generation and load demand because of their small size, especially when operating in an island mode. Thus, managing uncertainty becomes essential when searching for an optimal Nano-grid operation.

The students will experience on a small-size Nano-grid model installed in Ecole Polytechnique campus, (Renewables sources, battery, controlled load, intelligent monitoring, …).  This structure has the particularity that two components are emulated with controlled electronic devices: the secondary power source, which replaces the role of an engine-generator (in case of an off-grid scenario) or the electric utility power, and the load, which replaces a real power demand from appliances and consumer actions. The electric parameters (intensity, voltage, power) for all components, as well as air/panel temperatures, are available in real-time and also from historical recordings.

 By example, the experimental project can be:

  • The analysis of historical data so to evaluate the performance of Nano-grid for different types of days, consumption scenarios and management strategies.
  • The evaluation of live Nano-grid performance through manual operation, by adjusting the target loads, the optimization EMS parameters and the input power.
  • The development of new energy management system or new algorithm.
  • The integration of new renewable sources in the Nano-grid.
  • ...........

Langue du cours : Anglais

Catégorie: Master 2 / MScT 2A

Ce cours donne un aperçu de la façon dont les concepts de l'analyse économique sont appliqués à travers des exemples concrets de recherche scientifique en économie. Les étudiants apprendront comment
les méthodes théoriques et empiriques en économie sont utilisées dans l’analyse de divers sujets, tels que la croissance économique, la réglementation environnementale, les politiques publiques, les réseaux, les comportements des entreprises, etc.

La première partie du cours présente les approches standards de la recherche économique empirique, notamment la régression linéaire, les variables instrumentales, les essais contrôlés randomisés, la différence en différence. Dans chaque conférence, une application est présentée à partir d'articles de recherche empiriques récents dans les domaines de l'économie du développement et de l'environnement.

La deuxième partie présente l'approche économique de divers phénomènes sociaux, avec un accent particulier sur la manière dont les interactions sociales façonnent les marchés à travers de vastes mécanismes tels que la discrimination, l'imitation ou la ségrégation. Dans chaque cours, un sujet particulier est présenté, en utilisant une combinaison de modèles théoriques simples et d'illustrations empiriques.

Catégorie: Bachelor 1

Introduction to Econometrics (ECO203) introduces the most common ways to study and analyze economic data, with a focus on emphasizing data analysis for empirical causal inference. Topics include linear regressions, randomized trials, instrumental variables, and differences-in-differences. Students also learn how to study datasets through practical examples (R coding).

Textbook: Introductory Econometrics: A Modern Approach by Jeffrey M. Wooldridge / Basic Econometrics by Damodar N. Guarati and Dawn C. Porter.

Catégorie: Bachelor 2

Experiments are a great way to produce the kind of data required to answer specific economic questions. As a result, the use of experiments in economics has greatly increased over the last three decades. The class will provide a guided tour of noticeable experiments. Some standard experiments will be reproduced during the class and we will debate regarding the economic implications. Along the way, we will address important questions like what is a good descriptive model?, do results from the lab generalize to the field?, or can we predict what kind of experiments would scale up? Last, but not least, experiments are a great way to test and reconsider rationality assumptions often made in economics.

Catégorie: Bachelor 3

Dans ce cours, nous présentons le modèle de régression linéaire. Nous abordons les modèles pour les données transversales et les données de groupe et nous analysons les méthodes permettant d'évaluer les effets causalité des politiques, y compris les variables instrumentales, les effets locaux moyens du traitement (LATE), les méthodes de discontinuité de la régression (RDD), et les estimateurs de la différence des différences.

 

Contenu du cours :

  1. Introduction à l'économétrie
  2. Analyse de régression simple
  3. Analyse de régression multiple
  4. Hétéroscédasticité
  5. Variables intrumentales
  6. Effets locaux moyens du traitement
  7. Méthodes de discontinuité de la régression
  8. Diférences dans les différences
  9. Estimation des effets fixes

 

Documentation :

  • Angrist and Pischke: (2009): Mostly Harmless Econometrics, Princeton University Press.
  • Wooldridge (2013): Introductory Econometrics: A Modern Approach, 5th Edition, South-Western College Publishing

Le domaine de l'économie urbaine introduit l'espace dans les modèes économiques afin d'étudier la localisation de l'activité économique (et sociale). Il est basé sur la définition de milieux urbains qui combinent le critère de densité minimum et le critère de population minimum. Du niveau macro au niveau micro, il traite de la croissance/décroissance urbaine (la taille et le nombre de villes), la structure urbaine (spécialisation du quartier, transport) et les problèmes sociaux/écologiques urbains (les plus notables, entre autres : la ségrégation et l'expansion). Ces trois niveaux s'entrecroisent, par exemple : les schémas de localisation à l'intérieur d'une zone urbaine (réglementation de l'accès aux installations, fournisseurs, travailleurs, etc.) influencent leur abilité de croissance ; la faible croissance des métropoles est plus susceptible d'étendre l'écart de croissance entre le centre-ville et les banlieues, limiter l'expansion urbaine exarcerbée. Il est évident que la structures et les dynamiques urbaines dépendent fortement de la manière dont la terre est évaluée et développée en secteur immobilier résidentiel et commercial : à travers le secteur de la construction et les marchés immobiliers qui dépendent à leur tour de nombreuses régulations et contraintes technologiques. Compte tenu de l'importance du financement hypothécaire pour le système bancaire, le fonctionnement du secteur immobilier a de grandes conséquences sur l'ensemble de l'économie. Enfin, malgré de nombreux mécanismes communs, les fortunes urbaines sont également fortement influencées par des idiosyncrasies culturelles et géographiques. Nous décrirons en détails comment collecter et traiter des informations sur les systèmes et les économies urbaines et comment la théorie de l'économie urbaine et les données urbaines peuvent être utilisées conjointement pour produire un ensemble pertinent de connaissances sur les villes.

This crash course is intended to introduce students to the statistical software R. The goal is to teach students how to implement simple data science projects on R and where to look for for more advanced uses.

We will cover the basics of the software and focus on data wrangling, producing descriptive statistics and running regressions. If time permits, we will also learn how to use local and global variables.

At the end of the course the student will know:

  • how to work with R
  • where to look for for more advanced uses

 

and they will be able to:

  • run some statistical analyses with R

PART 1: Microeconomics

This course provides an introduction to the main public economic issues: social welfare, public choice theory, externalities, public goods and taxation. It recalls the classical theory of market failures due to externalities and public goods and derives the main results from the public choice theory. A large part is devoted to the theoretical models. The course contains rigorous mathematical tools and handles the microeconomic tools used in the public economic theory.

List of tems (for 12h)

  1. Introduction to public economics (basics on standard microeconomics + market failure and public intervention) : 3h
  2. Social choice and introduction to vote : how to aggregate preferences ? 3h
  3. Externality (taxes, pollution permits, Coase Theorem) : 3h
  4. Public goods and taxation (incidence + deadweight loss): 3h

Part 2 Statistics 

This course introduces the notion of statistical models. It develops the basic principles and concepts of estimation and testing within an asymptotic framework. These principles will be developed in particular on the maximum likelihood estimator and in the context of the multiple linear model, whose use is central in econometrics.

 

At the end of this course, students should be able to

  • Define and use statistical vocabulary (population, observation, sample, etc.)
  • Model a statistical problem
  • Calculate estimators of moments, maximum likelihood and ordinary least squares
  • Describe the asymptotic behavior of these estimators
  • Construct tests and interpret their decisions
  • Give the level and power of a test.

 

Outline

  1. General principles - The aims of statistics, the various approaches, the types of statistical models (parametric, semi- and non-parametric). Descriptive Statistics for univariate and bivariate data.
  2. Estimation - Estimation problem. Asymptotic estimation: maximum likelihood, moments method, ordinary least squares.
  3. Hypothesis testing - Neyman-Pearson approach (confidence region, power, level, risks). Simple tests, Neyman-Pearson lemma. Student's t-test. Asymptotic tests (Wald, Score, likelihood ratio). Goodness-of-fit tests (chi-squared, K-S).

References :

Wasserman, L. (2004). All of statistics: a concise course in statistical inference (Vol. 26).

New York: Springer.

 

Casella, G., & Berger, R. L. (2021). Statistical inference. Cengage Learning.

 

Econométrie Linéaire Avancée

Dans ce cours, nous présentons le modèle de régression linéaire et ses bases téhoriques. Nous présentons et discutons les méthodes d'estimation de ces modèles, c'est-à-dire de définir les paramètres d'intérêt, d'estimer et de tester leurs significations statistiques, selon différentes séries d'hypothèses (homoscédasticité ou hétéroscédasticité, exogénéité ou endogénéité), de spécifications (régression simple ou multiple) ou de types de données (transversales, données du panel, chronologiques).

 

Bibliographie :

  • Angrist and Pischke: (2009): Mostly Harmless Econometrics, Princeton University Press.
  • Wooldridge (2013): Introductory Econometrics: A Modern Approach, 5th Edition, South-Western College Publishing

L'objectif de ce cours est de présenter les concepts fondamentaux de l'analyse des séries temporelles. A l'issue de ce cours, les étudiants pourront suivre des cours plus avancés sur la modélisation des séries temporelles.
Les cours présenteront les principaux concepts des séries temporelles linéaires et les méthodes d'ajustement d'un modèle sur les données.

Références:

Brockwell, P.J. and R.A. Davis (1991) Time Series: Theory and Methods. 2nd Edition, Springer
Brockwell, P.J. and R.A. Davis (2002) Introduction to Time Series and Forecasting, Springer
Gouriéroux, C. and A. Monfort (1997) Time Series and Dynamic Models, Cambridge University Press,
Cambridge
Hamilton, J. D. (1994) Time Series Analysis, Princeton University Press

ECO 583 Business Economics

The objective of this course is to study business cases in which professionals take decision mobilizing economics and data. Sessions are devoted to different topics presented by a professional expert of the subject. Students also present business issues.

As an example, the calendar of last year :

 

  • January 8th :  Rémi Avignon – Course Introduction and Values Chains
  • January 15th : Jean Baptiste Vilain – Auctions
  • January 25th : Rémi Avignon and Thomas Larrieu – Platforms
  • January 29th : Olivier Beaude and Paulin jacquot – Electricity Markets
  • February 5th : Arthur Souletie – Data and Health
  • February 12th :  Nicolas Dupuis – Pricing
  • February 26th : Julie Tisserond – Data Strategy
  • March 4th : Students Presentations
  • March 11th : Students Presentations

 

Evaluation is a combination of the three following points:

  • Presence is mandatory for each course. A significant part of the grade will depend of assiduity and activity during the courses.
  • During each session, a group of students will discuss the day's presentation.
  • Each student must discuss one research paper on a business case during the semester.
  • During the two last sessions, groups of students will present business cases prepared during the semester.

 

Cours en anglais

Crédits ECTS : 4

The goal of this course is to give an introduction to Machine Learning methods in Econometrics. We will analyze methods for making prediction and methods for causal inference in economic settings where one wants to learn the effects of counterfactual policies (policy evaluation).

The machine learning methods that will be presented in the course are well suited to deal with datasets with many observations and/or many covariates. We will show that statistical methods based on machine learning do not allow to answer the causal questions of interest in economics and so specific econometrics methods based on machine learning have to be used.

All along the course, the different models will be illustrated through applications and case studies. The applications will be developed by using R as statistical software package.

Description :
Cities are evolving rapidly but urban transportation evolves even faster. Recent examples include: car-sharing schemes, Mobility as a Service (MaaS), e-scooter sharing fleets,  autonomous bus services, bike deliveries, and so on. However, conventional means of transportation (ie. private cars and mass transit) still form the backbone of urban mobility. Transportation planners and economists have at their disposal a large amount of data and tools capable of analyzing and predicting mobility patterns.
The objective of this course is to discuss these issues and provide an overview of:
1/ Urban transport modes along with their field of relevance and general business models
2/ Transportation modeling techniques (traffic demand and assignment)
3/ Performance assessment and evaluation techniques
 
Learning outcomes :
By the end of this cours, students will have gained a general backgound on urban transportation systems, they will have got familiarized with emerging modes/concepts and modeling techinques, and they will have developped skills on new mobility data handling and analysis.
 
Level : Master, PhD
 
Examination : Written exam and group project
 
Format : Hybride

This simulation will be based on the global IT services sector. Participants will design an economic model to simulate the top 5 players’ key strategic decisions.

The simulation will cover a period of about 6 years of real time. Key actors like Accenture, Capgemini, TCS, CGI, Atos, and Cognizant will be modelized.

 

Aim of the course:

 

This strategic business simulation exercise is intended for a group of 6 or more students. In this simulation, several teams each represent a major player in the sector over a period of a few years.

 

This course has three objectives.

 

In addition to the assimilation of a specific sectorial culture, it is first of all necessary to acquire the basis of strategical issues and to bring out its essential criteria.

 

Then, after highlighting the main springs, allow students to learn how to model a simulation of a given industry sector.

 

Finally, the "makers - students” should be able to share this simulation with other students over a much shorter period, in order to enable them to understand the strategic mechanisms of the sector.

 

Course Outline:

 

  • • The course will take place from January to March. The restitution session with other students could take place in late May or early June.

 

  • • This challenging project requires motivation and intellectual curiosity from the students who will have to process and assimilate dense information, be an actor in the development of the simulation model, and finally intervene with other students. A working average of 3 hours per week is envisaged.

 

  • • The simulated sector is global IT services with players such as Accenture, CGI, CapGemini (where the key speaker and coordinator is Strategy and Acquisition Director), Atos, NTT data, TCS, Infosys and Cognizant. This sector is truly global, technological and well documented with public and accessible information.

 

  • • A two-hour session of project framing and orientation will be scheduled every two weeks (max. 20 hours in total, without the final restitution session).

 

  • • Initial documentation (public financial and operational data, annual reports, analyst reports and articles) will be provided to students but they will also have to do research on their own.

 

  • • Students participating in this project will be marked at the end of the course.

 

Summary of teaching objectives:

 

  • • Acquiring a sectorial strategic culture on the IT services sector (who are the major players, how are they positioned, what is their predictable trajectory, their strategic options?)

 

  • • Build a simulation model. Find the right level of detail and know how to simplify to understand. Identify the key parameters; understand their evolution according to the different strategic options of the general management.

 

  • • Build a simulation that can be used by third parties. Easy to use, straightforward interface.

 

  • • Apply game theory to this simulation system.

 

  • • Test the model and draw strategic conclusions for all stakeholders.

 

• Involve other students by training them in the basics of simulation. Evaluate the bias of non-constructor users.

PURPOSE

The purpose of this module is to equip students with the specialist tools to conduct quantitative economic assessments relevant to competition cases and regulatory matters. It will cover key techniques to empirically analyze markets. We will use data-driven examples from selected industries in France and internationally. The content of the course will be based on a discussion of selected academic papers to introduce the theory and their practical applications to competition and regulatory cases.

The course will combine lectures and hands-on sessions during which real industry data sets will be used to conduct econometric estimations in R. Regular homework assignments will also enable to practice independently the empirical methods taught during the lectures.

 

OUTCOMES

Students should be able to:

  • Learn about the practical considerations to apply techniques, based on the lessons from various recent cases where quantitative techniques have been applied.
  • Understand the different techniques for quantitative assessment of competition and regulatory matters, such as in defining markets
  • Estimate demand functions (homogenous and differentiated products)
  • Undertake quantitative analysis relevant to analyzing competition and regulation matters such as the identification of market power, merger simulations, and estimation of damages.
  • Learn to interpret and critically evaluate the empirical results from different approaches.
  • Develop a good common sense of the advantages and disadvantages of different approaches, and the circumstances under which they are (not) suitable.
  • Acquire a thorough understanding of the data requirements for applying various techniques

 

READING

  • Davis, P. and E. Garces (2009) “Quantitative Techniques for Competition and Antitrust Analysis”, Princeton University Press.
  • Luis Cabral (2000) “Introduction to Industrial Organization”, The MIT Press
  • Train, K. (2009) “Discrete Choice Methods with Simulation”, Cambridge University Press

 

ASSESMENT CRITERIA

  • Homework assignments (x3): 30%
  • Exam: 70%
Catégorie: Master 2 / MScT 2A

GIS and public policies

Course Description

Geographic information is everywhere: on google maps, in GPS, even on television. Most people use it in their everyday life to locate amenities, to prepare for a trip and to go from one address to another. We frequently use geographic information on our smartphones through geo-location. Based on satellites, geo-location uses maps made both of vector data and rasterized images. Even though this technology has made our lives easier, it poses a lot of challenges to public policies.

 

Nowadays, this kind of data is very useful to focus on the global consequences of climate changes: the rise of sea and ocean levels, the impact of tornados and earthquakes. Geographic information helps local authorities and aid organizations to gather and spread goods and resources after damaging disease, war and climate disasters. It also helps to understand and manage urban issues. Thus, thanks to geographic information, we can get a perspective from a global view of changes on earth to the local consequences of human activities.

 

Geographic information can help us study demographics, identify inequalities or disparities, and manage public policies.

The main agendas of this course are:

  • first, identify which kind of data you can use with different types of applications relating to public policies
  • Then, explain how European legislation and GIS organizations are key factors for geographic information spread
  • Explore different applications in established projects to see how geographic data is used as a knowledge application that helps to define and assess public policies, manage networks and communicate on a project
  • Identify the main stakeholders of GIS and spatial data business area
  • Finally, explore the main tools of a GIS software: QGis

 

 

Few readings and references

 

Global view on GIS

Roger F. Tomlinson, Thinking about GIS: Geographic information System Planning for Managers, 2007

https://books.google.fr/books?hl=fr&lr=&id=X8XgSAJrJVUC&oi=fnd&pg=PR9&dq=geographic+information+system&ots=8gANCw8Epb&sig=ywZTQBNiVXTzOogusSvEvkGuV6k#v=onepage&q&f=false

 

Geographic information resources

https://www.openstreetmap.org

            https://www.geoportail.gouv.fr

https://www.observatoire-des-territoires.gouv.fr/observatoire-des-territoires/fr/node

 

Geographic information and legislations

INSPIRE, The European directive: https://inspire.ec.europa.eu/about-inspire/563

The European directive relating to assessment and management of environmental noise mainly through noise mapping: https://eur-lex.europa.eu/legal content/EN/TXT/HTML/?uri=CELEX:32007L0002&from=EN

 

The Open Geospatial Consortium: http://www.opengeospatial.org/

 

GIS and urban planning

French examples

Mieux connaître les risques sur le territoire: http://www.georisques.gouv.fr

Cartes stratégiques de Bruit de Seine-et-Marne: http://bruit.seine-et-marne.fr

Le Système d’information géographique de la politique de la ville: sig.ville.gouv.fr

Géoportail de l’urbanisme: https://www.geoportail-urbanisme.gouv.fr/map/#tile=1&lon=2.424722&lat=46.76305599999998&zoom=6

Worldwide examples

GIS in Sustainable Urban Planning and Management (Open Access), Edited ByMartin van Maarseveen, Javier Martinez, Johannes Flacke, 2018

https://www.taylorfrancis.com/books/e/9781315146638

Focus on the Chapter 18: Volunteered Geographic Information (VGI) for the Spatial Planning of Flood Evacuation Shelters in Jakarta, Indonesia

 

QGis

https://www.qgis.org/en/site/

 

Catégorie: Master 2 / MScT 2A

This course introduces students to web scraping techniques, covering how to extract data from HTML, navigate both static and dynamic websites, and interact with private and public APIs. Students will also be introduced to key unsupervised and supervised machine learning methods used in econometrics, focusing on dimension reduction and detecting heterogeneity in treatment effects. The course emphasizes hands-on learning, with evaluation based on group projects where students collect data from a website of their choice and analyze the data to answer a question of scientific relevance.

 

Catégorie: Master 2 / MScT 2A

Introduction to Econometrics (ECO203) introduces the most common ways to study and analyze economic data, with a focus on emphasizing data analysis for empirical causal inference. Topics include linear regressions, randomized trials, instrumental variables, and differences-in-differences. Students also learn how to study datasets through practical examples (R coding).

Textbook: Introductory Econometrics: A Modern Approach by Jeffrey M. Wooldridge / Basic Econometrics by Damodar N. Guarati and Dawn C. Porter.

Catégorie: Bachelor 2

Experiments are a great way to produce the kind of data required to answer specific economic questions. As a result, the use of experiments in economics has greatly increased over the last three decades. The class will provide a guided tour of noticeable experiments. Some standard experiments will be reproduced during the class and we will debate regarding the economic implications. Along the way, we will address important questions like what is a good descriptive model?, do results from the lab generalize to the field?, or can we predict what kind of experiments would scale up? Last, but not least, experiments are a great way to test and reconsider rationality assumptions often made in economics.

This crash course is intended to introduce students to the statistical software Stata. The goal is to teach students how to implement simple data science projects on Stata and where to look for for more advanced uses.

We will cover the basics of the software and focus on data wrangling, producing descriptive statistics and running regressions. If time permits, we will also learn how to use local and global variables.

At the end of the course the student will know:

  • how to work with Stata
  • where to look for for more advanced uses

 

and they will be able to:

  • run some statistical analyses with Stata

PART 1: Microeconomics

This course provides an introduction to the main public economic issues: social welfare, public choice theory, externalities, public goods and taxation. It recalls the classical theory of market failures due to externalities and public goods and derives the main results from the public choice theory. A large part is devoted to the theoretical models. The course contains rigorous mathematical tools and handles the microeconomic tools used in the public economic theory.

List of tems (for 12h)

  1. Introduction to public economics (basics on standard microeconomics + market failure and public intervention) : 3h
  2. Social choice and introduction to vote : how to aggregate preferences ? 3h
  3. Externality (taxes, pollution permits, Coase Theorem) : 3h
  4. Public goods and taxation (incidence + deadweight loss): 3h

Part 2 Statistics 

This course introduces the notion of statistical models. It develops the basic principles and concepts of estimation and testing within an asymptotic framework. These principles will be developed in particular on the maximum likelihood estimator and in the context of the multiple linear model, whose use is central in econometrics.

 

At the end of this course, students should be able to

  • Define and use statistical vocabulary (population, observation, sample, etc.)
  • Model a statistical problem
  • Calculate estimators of moments, maximum likelihood and ordinary least squares
  • Describe the asymptotic behavior of these estimators
  • Construct tests and interpret their decisions
  • Give the level and power of a test.

 

Outline

  1. General principles - The aims of statistics, the various approaches, the types of statistical models (parametric, semi- and non-parametric). Descriptive Statistics for univariate and bivariate data.
  2. Estimation - Estimation problem. Asymptotic estimation: maximum likelihood, moments method, ordinary least squares.
  3. Hypothesis testing - Neyman-Pearson approach (confidence region, power, level, risks). Simple tests, Neyman-Pearson lemma. Student's t-test. Asymptotic tests (Wald, Score, likelihood ratio). Goodness-of-fit tests (chi-squared, K-S).

References :

Wasserman, L. (2004). All of statistics: a concise course in statistical inference (Vol. 26).

New York: Springer.

 

Casella, G., & Berger, R. L. (2021). Statistical inference. Cengage Learning.

 

Dans ce cours, nous présentons le modèle de régression linéaire. Nous abordons les modèles pour les données transversales et les données de groupe et nous analysons les méthodes permettant d'évaluer les effets causalité des politiques, y compris les variables instrumentales, les effets locaux moyens du traitement (LATE), les méthodes de discontinuité de la régression (RDD), et les estimateurs de la différence des différences.

 

Contenu du cours :

  1. Introduction à l'économétrie
  2. Analyse de régression simple
  3. Analyse de régression multiple
  4. Hétéroscédasticité
  5. Variables intrumentales
  6. Effets locaux moyens du traitement
  7. Méthodes de discontinuité de la régression
  8. Diférences dans les différences
  9. Estimation des effets fixes

 

Documentation :

  • Angrist and Pischke: (2009): Mostly Harmless Econometrics, Princeton University Press.
  • Wooldridge (2013): Introductory Econometrics: A Modern Approach, 5th Edition, South-Western College Publishing

Econométrie Linéaire Avancée

Dans ce cours, nous présentons le modèle de régression linéaire et ses bases téhoriques. Nous présentons et discutons les méthodes d'estimation de ces modèles, c'est-à-dire de définir les paramètres d'intérêt, d'estimer et de tester leurs significations statistiques, selon différentes séries d'hypothèses (homoscédasticité ou hétéroscédasticité, exogénéité ou endogénéité), de spécifications (régression simple ou multiple) ou de types de données (transversales, données du panel, chronologiques).

 

Bibliographie :

  • Angrist and Pischke: (2009): Mostly Harmless Econometrics, Princeton University Press.
  • Wooldridge (2013): Introductory Econometrics: A Modern Approach, 5th Edition, South-Western College Publishing

Le domaine de l'économie urbaine introduit l'espace dans les modèes économiques afin d'étudier la localisation de l'activité économique (et sociale). Il est basé sur la définition de milieux urbains qui combinent le critère de densité minimum et le critère de population minimum. Du niveau macro au niveau micro, il traite de la croissance/décroissance urbaine (la taille et le nombre de villes), la structure urbaine (spécialisation du quartier, transport) et les problèmes sociaux/écologiques urbains (les plus notables, entre autres : la ségrégation et l'expansion). Ces trois niveaux s'entrecroisent, par exemple : les schémas de localisation à l'intérieur d'une zone urbaine (réglementation de l'accès aux installations, fournisseurs, travailleurs, etc.) influencent leur abilité de croissance ; la faible croissance des métropoles est plus susceptible d'étendre l'écart de croissance entre le centre-ville et les banlieues, limiter l'expansion urbaine exarcerbée. Il est évident que la structures et les dynamiques urbaines dépendent fortement de la manière dont la terre est évaluée et développée en secteur immobilier résidentiel et commercial : à travers le secteur de la construction et les marchés immobiliers qui dépendent à leur tour de nombreuses régulations et contraintes technologiques. Compte tenu de l'importance du financement hypothécaire pour le système bancaire, le fonctionnement du secteur immobilier a de grandes conséquences sur l'ensemble de l'économie. Enfin, malgré de nombreux mécanismes communs, les fortunes urbaines sont également fortement influencées par des idiosyncrasies culturelles et géographiques. Nous décrirons en détails comment collecter et traiter des informations sur les systèmes et les économies urbaines et comment la théorie de l'économie urbaine et les données urbaines peuvent être utilisées conjointement pour produire un ensemble pertinent de connaissances sur les villes.

This simulation will be based on the global IT services sector. Participants will design an economic model to simulate the top 5 players’ key strategic decisions.

The simulation will cover a period of about 6 years of real time. Key actors like Accenture, Capgemini, TCS, CGI, Atos, and Cognizant will be modelized.

 

Aim of the course:

 

This strategic business simulation exercise is intended for a group of 6 or more students. In this simulation, several teams each represent a major player in the sector over a period of a few years.

 

This course has three objectives.

 

In addition to the assimilation of a specific sectorial culture, it is first of all necessary to acquire the basis of strategical issues and to bring out its essential criteria.

 

Then, after highlighting the main springs, allow students to learn how to model a simulation of a given industry sector.

 

Finally, the "makers - students” should be able to share this simulation with other students over a much shorter period, in order to enable them to understand the strategic mechanisms of the sector.

 

Course Outline:

 

  • • The course will take place from January to March. The restitution session with other students could take place in late May or early June.

 

  • • This challenging project requires motivation and intellectual curiosity from the students who will have to process and assimilate dense information, be an actor in the development of the simulation model, and finally intervene with other students. A working average of 3 hours per week is envisaged.

 

  • • The simulated sector is global IT services with players such as Accenture, CGI, CapGemini (where the key speaker and coordinator is Strategy and Acquisition Director), Atos, NTT data, TCS, Infosys and Cognizant. This sector is truly global, technological and well documented with public and accessible information.

 

  • • A two-hour session of project framing and orientation will be scheduled every two weeks (max. 20 hours in total, without the final restitution session).

 

  • • Initial documentation (public financial and operational data, annual reports, analyst reports and articles) will be provided to students but they will also have to do research on their own.

 

  • • Students participating in this project will be marked at the end of the course.

 

Summary of teaching objectives:

 

  • • Acquiring a sectorial strategic culture on the IT services sector (who are the major players, how are they positioned, what is their predictable trajectory, their strategic options?)

 

  • • Build a simulation model. Find the right level of detail and know how to simplify to understand. Identify the key parameters; understand their evolution according to the different strategic options of the general management.

 

  • • Build a simulation that can be used by third parties. Easy to use, straightforward interface.

 

  • • Apply game theory to this simulation system.

 

  • • Test the model and draw strategic conclusions for all stakeholders.

 

• Involve other students by training them in the basics of simulation. Evaluate the bias of non-constructor users.

This course is an introduction to working with large data sets in economics and business studies. In the first part of the course, we learn methods how to systematically collect web data using APIs and webscraping. In the second part we study how to describe and visualize data to show correlations between outcomes of interest. Throughout the course students conduct their own research project in group work and present their results to the other students at the end of the course.

Objectives
Building on students’ (expected) basic knowledge of data ethics and data law, this course analyzes in greater depth the concrete problems that arise in advanced data science projects, and prepares students to manage them both within the framework of their studies and with a view to their future professional integration. The course addresses the ethical and social issues of digitalization, data, and more specifically artificial intelligence (AI), from the perspective of the human choices and social structures that shape them intrinsically, and that frame the work of data scientists. To do this, students will learn to leverage the tools of critical and historical thinking from the humanities and social sciences to recognise, analyse and ideally re-imagine the human, political and economic contexts in which data is produced and used. Students in the data science tracks will thus be prepared to engage as informed and responsible professionals in the various domains of our 'datafied' economies, while the other students will be able to deepen their knowledge and enhance their ability to contribute to public debates and to participate in technology policy choices.

Learning outcomes:
At the end of this course, you will be able to:
- analyse how data science is transforming individual and collective life
- recognise the influence of representations, norms and values on the development of algorithms and data-based solutions
- identify the assumptions underpinning algorithms and 'smart' solutions
- discuss the visions of the future implicit in existing AI solutions
- reflect on desirable outcomes and ways to achieve them

Planning

Teaching and learning activities
We will meet for four three-hour sessions, during which the themes of the course will be addressed, in part, on the basis of concrete use cases, which illustrate their relevance and potential impacts. As it is impossible to cover all the possible themes exhaustively, the course will begin with a fairly general overview of the issues, followed by a focus on a selection of major current questions, and will conclude with the presentation of possible solutions.

Plan
Session 1: The social challenges of a data-driven world
- Why a growing concern for ethics in relation to data science, digital technology and artificial intelligence
- Highly publicised debates: bias, discrimination, injustice...
- Current initiatives and their limits: proliferation of ethical charters; technical solutions (e.g. research on algorithmic fairness)
- Polemics on ‘ethics washing’, incomplete or absent regulation
- Value of a holistic approach – taking into account all the socio-politico-economic systems in which the technology is integrated


Session 2: The cost of inputs
Part 1: Technology and sustainable development
- The environmental and material costs of digital technology; direct and indirect impacts
- The energy consumption of algorithms; measuring costs and benefits
- The AI supply chain in a globalised extractive industry
Part 2: Data, privacy and surveillance
- Tensions between the need to protect personal data and the business models of data-intensive technologies
- Derivatives of surveillance systems
- Limits of existing solutions, both legal and technical


Session 3: Artificial intelligence, employment and work
- Will robots replace workers?
- Data work in the service of AI: a deterioration in working conditions and remuneration, already in place
- A production system that increases inequalities


Session 4: What to do?
- End-to-end ethics
- Rethinking governance: commons systems
- Forms of ‘data-activism’, reappropriation, and dialogue

"Ethical challenges of Artificial Intelligence" explores AI Ethics from multiple disciplinary perspectives: legal, ethics, and computer science. The course wil provide students with the necessary background to discuss and defend ethics issues with stakeholders who may be involved in their AI project, as well as address ethics issues in their research.
Taught by Winston Maxwell, the course will focus on the law, regulatory and policy environment. Is AI Ethics just about applying existing law, incuding the EU General Data Protection Regulation and the European Convention on Human Rights?
What do "ethical AI principles" such as the Asilomar principles bring to the table? The course will focus on algorithmic explainability, bias, discrimination, with use cases involving facial recognition, use of algorithms to detect terrorist risks and fraud, AÏ used in employment, self-driving vehicles, autonomous lethal weapons, and Al-enhanced humans. Students will learn the basics of the GDPR and of the proposed European Artificial Inteligence Act, and why machine learning poses special legal and ethical problems compared to symbolic AI.

Cours-Polytechnique ECO582.pdfCours-Polytechnique ECO582.pdf

Le pricipal objectif de ce cours est de présenter l'application de l'apprentissage automatique aux industries de gestion d'actifs. Le cours est divisé en trois parties.

La première partie est consacrée à la présentation des instruments économiques () dans différentes catégories d'actifs telles que les actions, les revenus fixes, les produits, les devises et les crédits. La deuxième partie porte sur la modélisation mathématique des actifs et de l'évaluation des options. La troisième partie es consarée à la présentation des principaux algorithmes d'apprentissage automatique (régularisation de régression linéaire, LASSO, RIDGE, régression logistique, machines à vecteurs de support, forêt d'arbres décisionnels, réseau neuronal) et leurs applications dans la gestion d'actifs. De plus, nous introduisons l'optimisation de protefeuille en situation de risque et les contraintes de transaction, et présentons quelques méthodes alternatives de construction de protefeuille. L'implémentation en R est aussi proposée aux étudiants pour s'entraîner avec de réelles données du marché.

 

Langue du cours : Anglais

ECO 583 Business Economics

The objective of this course is to study business cases in which professionals take decision mobilizing economics and data. Sessions are devoted to different topics presented by a professional expert of the subject.The provisional calendar is the following :

 

  • January 8th :  Rémi Avignon – Course Introduction and Values Chains
  • January 15th : Jean Baptiste Vilain – Auctions
  • January 25th : Rémi Avignon and Thomas Larrieu – Platforms
  • January 29th : Olivier Beaude and Paulin jacquot – Electricity Markets
  • February 5th : Arthur Souletie – Data and Health
  • February 12th :  Nicolas Dupuis – Pricing
  • February 26th : Julie Tisserond – Data Strategy
  • March 4th : Students Presentations
  • March 11th : Students Presentations

 

Evaluation is a combination of the three following points:

  • Presence is mandatory to each course. A significant part of the grade will depends of assiduity and activity during the courses.
  • During each session, a group of students will discuss the presentation of the day. This will require preparation of the topic before the session.
  • During the two last sessions, groups of students will present business issues prepared during the semester.

 

Cours en anglais

Crédits ECTS : 4

EDACF 1 & 2, SEF, SCUP 1 Seminar « Economics and Finance »

The goal of this seminar is to invite professionals from the public, finance, service and manufacturing  sectors, to make a presentation of their business and industry. Students make an introductory lecture (30 min) on the theme of the session (by group of maximum 3 persons), and prepare the discussion after the professional’s presentation. At the end of the semester, SEFstudents must also write a thesis on one of the themes of the seminar

 

 

Date confirmée :

 

Date

M1EDACF

M2EDACF

M1SCUP

Introductory lecture : P. Crifo/G.Hollard

o

17/9

x

x

x

Corporate finance: G Mailly (JP Morgan)

o

24/9

x

 

x

Housing and cities A Briant (Mairie Paris)

o

1/10

 

 

x

Insurance (1): K.Dedieu (Axa)

o

1/10

x

 

 

The finance industry: JM.Beacco (ILB)

 

15/10

x

 

 

Trading: A.Levy Rueff (Exotikequation)

o

5/11

x

 

 

Smart cities : S De Guio (Schneider electric)

 o

12/11

x

 

x

Corporate finance :

 

12/11

 

x

 

Transportation simulation: X. Cerea (Cerema)

o

19/11

 

 

x

Regulating finance: V.Berger (BDF)  

 

19/11

 

x

 

Corporate finance :  

 

26/11

x

x

 

Health & pollution: N Pham Thi (Institut Pasteur)

o

26/11

 

 

x

Insurance (2) :  R.Lemarchand (Generali)

o

7/1

x

 

x

Smart mobility:  D Gance (Diginove consult)

o

14/1

x

x

x

Financial products: M.Florig (CA CIB) 

o

21/1

 

x

 

Smart grids & energy F Chevalley (Atos Worldgrid)

o

21/1

 

 

x

Autres dates : non scup: 22/10, 12/11, 26/11, 3 /12 , 10/12 scup: 10/12 , 5/11

 

1. (scup/m1m2edacf) Introductory lecture : P. Crifo  / G. Hollard, 17/9

2a. (scup/m1edacf). Corporate finance: G Mailly (JP Morgan), 24/9

3a. (scup). Housing and cities: A Briant (Mairie Paris), 1/10

3b. (m1edacf). Insurance (1): K.Dedieu (Axa), 1/10

4(m1edacf). The finance industry: JM.Beacco (ILB), 15/10

5(m1edacf). Trading: A.Levy Rueff (Exotikequation),  5/11

6a(scup/m1edacf). Smart cities: S De Guio (Schneider electric),  12/11

6b (m2edacf). Corporate finance: Estin 1? , 12/11

7a (m2edacf). Regulating finance: V.Berger (Banque de France), 19/11

7b(scup). Data and urban services: N.Augris (Arep), 19/11

8a (m1m2edacf). Corporate finance: Estin 2?, 26/11

8b (scup). Health &pollution : Nhân Pham Thi (Institut Pasteur), 26/11

9. (scup/m1edacf). Insurance (2) :  R.Lemarchand (Generali), 10/12 

10 (scup/m1m2edacf). Smart mobility:  D Gance (Diginove consulting), 14/1

11a (m2edacf) Financial products: M.Florig (Credit Agricole), 21/1

11b (scup). Smart energy : Franck Chevalley (Atos Worldgrid): 21/1

Description and references

 

Corporate finance: GMailly (JP Morgan)

 

Housing and cities: A Briant (Mairie Paris)

 

Title: segregation in cities

 

The lecture will examine social and ethnic segregation in modern metropolitan areas, with a special focus on French cities. The costs and benefits of urban segregation will be discussed from an economic point of view, building on simple urban economic models. Empirical analysis on educational and employment outcomes of segregated minorities will be presented, with a special emphasis on the French « banlieues ». Reinforcing the social mix of neighborhoods or offering moving opportunity to segregated people are at the heart of various public instruments. In France, the efficiency of social housing policy (SRU law) and actions in favor of separated suburban areas (politique de la ville) will be questioned using this methodological background.

 

Articles :

 

Are ghettos good or bad ?, David M. Cutler and Edward L. Gleaser, The Quarterly Journal of Economics, 1997 (http://www.csus.edu/indiv/c/chalmersk/econ180fa08/cutlerglaeser1997.pdf)

 

Ethnic segregation and ghettos, Axel Anas, A Companion to Urban Economics, Blackwell publishers, Richard Arnott and Daniel McMillen, editors.  (https://sites.google.com/site/alexanashomepage/selected-publications/2005.%20ANAS.%20Ethnic%20Segregation%20%26%20Ghettos.%20Chapter%20in%20Companion%20to%20Urban%20Economics.%20An%20Undergraduate%20Reader..pdf?attredirects=0&d=1)

 

Housing policy : Low-Income Households in France, Anne Laferrère et David Leblanc, A Companion to Urban Economics, Blackwell publishers, Richard Arnott and Daniel McMillen, editors.

(http://www.crest.fr/ckfinder/userfiles/files/Pageperso/laferrere/laferrere_fichiers/ACTC10.pdf)

 

 

Insurance (1): K. Dedieu (Axa Corporate Solutions)

 

Title: Insuring climate risk and natural disasters : the impact of big data

Heat waves, cyclons and other climate disasters are increasing with climate warming and threaten the most vulnerable countries. The diffusion of new technologies and new data allow a better understanding of such risks and widen the frontier of what is insurable

 

Reference

Munch Re. 2017. Natural catastrophes 2016.

https://www.munichre.com/site/touch-publications/get/documents_E-271800065/mr/assetpool.shared/Documents/5_Touch/_Publications/TOPICS_GEO_2016-en.pdf

 

Complementary references (optional)

Caisse centrale de reassurance. CatNAT expertise dédiée à la connaissance des risques

Régime des catastrophes naturelles

 

 

 

 

The finance industry: JM.Beacco (ILB)

 

Title: Risks in the Banking Industry

Business globalization, new emerged economic areas, multinational corporate firms and euro zone indebted states have generated an increasing banking credit exposure whilst simultaneously, financial markets innovation eases risk transfer through markets. This “marketisation” of risks, notably credit risk, generated a systemic risk that led to 2008 crisis and maintains a high volatility. Regulators ask for more control and better risk management in order to prevent future crisis.

The introductory presentation by students should be a short brief around this topic and present thei opinion and recommendations on “how to better manage risks in the banking industry” today and tomorrow.

 

References

The role of ratings in structured finance: issues and implications: http://www.bis.org/publ/cgfs23.pdf

Ratings in structured finance: what went wrong and what can be done to address shortcomings: (http://www.bis.org/publ/cgfs32.pdf?noframes=1

Risk Management Lessons from the Global Banking Crisis of 2008: http://www.sec.gov/news/press/2009/report102109.pdf

Report on issues regarding the valuation of complex and illiquid financial instruments http://www.eba.europa.eu/documents/10180/592844/20080618b_valuation.pdf

OCC supervisory guidance on model risk management http://www.occ.gov/news-issuances/bulletins/2011/bulletin-2011-12a.pdf

PWC Risk in Banking http://www.pwc.com/en_GX/gx/banking-capital-markets/banana-skins/assets/pwc-banking-banana-skins-2014-v2-april.pdf

 

Complementary references (optional)

Hull (John): risk management and financial institutions, Pearson 2013 3rd edition

De Servigny (Arnaud), Zelenko (Yvan), Le risque de crédit : nouveaux enjeux bancaires, Paris, Dunod 2003, réédition 2010

Beacco (Jean-Michel) et Hubaud ( Benoît), Titrisation : Maillon clé du financement de l'économie, Paris, Eyrolles, mars 2013

Brealey (Richard A), Myers (Stewart C.), Allen (Franklin), Principles of Corporate Finance, Mc Graw Hill, last edition, Chapters on the International Finance (27 and 28)

 

 

Trading: A.Levy Rueff (Exotikequation)

 

Title: From the open outcry market to DeepMind: the great upheaval

The golden age of 'locals' (independent traders dealing on the physical floors of the exchanges) was only 25 years ago. At the outcry, we used to price and hedge products such as options interpolating reference prices printed on paper sheets. Since then, we have transitioned to the comfort of dealing rooms, assisted by computers. Their roles are getting bigger along with technological progresses and in many cases, trading robots are even becoming autonomous. This evolution is both an opportunity and a challenge for traders as it radically shifts the field of skills both human and technical. As such, this conference aims to help students rethink their value added in the business. Having started his professional career at the outcry, been an “old school” trader and transitioned to systematic trading, the speaker will share his inside with the students.

 

Based on the following readings, the introductory speaker will summarize his/her understanding of what are the main skills to be successful in trading.

 

References

Reminiscences of a Stock Operator  - Edwin Lefèvre

A roman a clef, it is the first best seller about the stock markets written back in 1923

Market Wizards: Interviews With Top Traders Updated - Jack D. Schwager 

Interview of several legendary traders detailing their thinking process.

 

Smart cities: S De Guio (Schneider electric)

 

Sustainable urban development is a key issue for the future of the planet. With more than 50% of the world's population, cities are already responsible for more than 70% of greenhouse gas emissions. Buildings alone represent more than a third of the world's energy consumption. To face these environmental and social challenges, cities will have to develop smarter and flexible infrastructures, from connected building to the ecodistrict.

 

References

 --World Energy Outlook 2017. International Energy Agency. (Navigate on line)

 

Complementary references (in French)

 

--Www.smartgrids-cre.fr

--Etude sur les perspectives stratégiques de l'énergie. Monographie n3 sur les réseaux électriques. E-Cube strategy consultants.

—PCM - la revue ponts et chaussées - décembre 2016, Smart Grids

--Rifkin Jeremy. La troisième révolution industrielle. Les liens qui libèrent, 2012.

 

Regulating finance: V.Berger (Banque de France)

 

Title: Bank liquidity risks and supervision

Communication in the media about the supervision of liquidity risks faced by banks insists a lot on prudential rations, that is on the necessity for banks to be correctly capitalized. We hear less about liquidity risks though they have played a major role in bank failure and bankruptcy

 

References

*prudential requirements for credit institutions and investment firms and amending Regulation (EU) No 648/2012" :  articles 411 to 428

* Basel III: The Liquidity Coverage Ratio and liquidity risk monitoring tools

http://www.bis.org/publ/bcbs238.pdf

* Rama Cont Central clearing and risk transformation

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2919260.

* "Le scandale Dexia, "Enquête sur la plus grosse faillite bancaire européenne", Alain Piffarretti, 2013;

 

 

 

 

Smart mobility: D Gance (Diginove consulting)

Title: Smart Mobility

Smart mobility has to bring efficient answers to the economic, social and environmental challenges of megacities. Today because of the emergence of digital technology (i.e. new technologies and smart information systems) the ways of transportation have evolved to take into account people motivations and other factors such as consumption, eco-responsibility, social link, economic development of a territory...

They concern Local Authorities for governance as well as suppliers in connection with mobility of people and logistics. Among the technologies that have the greater impacts on performance, customer perception and new trades we shall study in particular the development of mobile Internet and 5G network, Big Data and Artificial Intelligence, cashless payment, autonomous vehicles and intelligent infrastructures during this Masters’ degree.

 

For the introduction, students can focus on the following question: Regarding intelligent infrastructures in Smart Cities what would be their main characteristics for Smart Mobilities in order to be operated in an Infrastructures-as-a-Service (IaaS) mode ?

 

References :

 

C. Benevolo, R. Dameri , B. D’Auria (2016). Smart Mobility in Smart City. Action Taxonomy, ICT Intensity and Public Benefits in T. Torre et al. (eds.), Empowering Organizations, Lecture Notes in Information . Systems and Organisation 11, DOI 10.1007/978-3-319-23784-8_2

 

Urban mobility in the smart city age. Smart Cities cornerstone series

 

Website: https://amsterdamsmartcity.com/themes/mobility

 

 

Financial products: M.Florig (Credit Agricole)

 

Title: Interest rate derivatives and currency derivatives

The seminar will cover the topics of interest rate derivatives and currency derivatives, focusing on the way markets have changed sine the financial crisis driven by regulation, central bank intervention and supply and demand dynamics

 

An introductory presentation by students could cover for example

·         OIS discounting

·         short term interest rates incl. differences in their construction (LIBOR, Eonia, repo, gvt rates)

·         swaps / new issue swaps

·         fx forwards

 

Reference

John C. Hull, Options, Futures and Other Derivatives, 2015 

(book bought and lended by the department)

 

 

 

 

Health & Pollution: N. Pham Thi (Institut Pasteur)

 

Title: Air pollution, the silent killer and money spoiler: how to quantify this new plague?

 

How to define the air pollution? What are the best markers? 

How can we measure the consequences of this co-factor on human diseases? 

Explain the different points of view? Describe the tools

Imagine new techniques to measure and to estimate the costs of air pollution on human health. 

 

Insurance (2) :  R.Lemarchand (Generali)

Title: Cyber criminality and insurance

Cyber criminality is a fast growing phenomena with large impacts for individuals, corporate companies, public institutions or even security of states.

This is a new challenge for the insurance industry: understand the risks, develop prevention tools and build assistance and insurance solutions.

 

References :

- Cyber-threats and trends : https://www.enisa.europa.eu/publications/enisa-threat-landscape-report-2016

- WannaCry ransomware attack : http://www.ey.com/Publication/vwLUAssets/ey-wannacry-ransomware-attack/$File/ey-wannacry-ransomware-attack.pdf

 

 

Smart grids and energy: F. Chevalley (Atos worldgrid)

 

Title: Smart cities and smart grids

 

References:

·         http://www.smartgrids-cre.fr/index.php?p=smartcities-caracteristiques

·         https://setis.ec.europa.eu/energy-research/sites/default/files/library/ERKC_PB_Smart_Cities.pdf

 

Complementary readings:

·         Blog  : http://www.smartcitiesbymachnteam.com/fr/2018/05/21/les-villes-lieu-de-concentration-extreme-des-enjeux-energetiques/

Catégorie: Master 2

PURPOSE

The purpose of this module is to equip students with the specialist tools to conduct quantitative economic assessments relevant to competition cases and regulatory matters. It will cover key techniques to empirically analyze markets. We will use data-driven examples from selected industries in France and internationally. The content of the course will be based on a discussion of selected academic papers to introduce the theory and their practical applications to competition and regulatory cases.

The course will combine lectures and hands-on sessions during which real industry data sets will be used to conduct econometric estimations in R. Regular homework assignments will also enable to practice independently the empirical methods taught during the lectures.

 

OUTCOMES

Students should be able to:

  • Learn about the practical considerations to apply techniques, based on the lessons from various recent cases where quantitative techniques have been applied.
  • Understand the different techniques for quantitative assessment of competition and regulatory matters, such as in defining markets
  • Estimate demand functions (homogenous and differentiated products)
  • Undertake quantitative analysis relevant to analyzing competition and regulation matters such as the identification of market power, merger simulations, and estimation of damages.
  • Learn to interpret and critically evaluate the empirical results from different approaches.
  • Develop a good common sense of the advantages and disadvantages of different approaches, and the circumstances under which they are (not) suitable.
  • Acquire a thorough understanding of the data requirements for applying various techniques

 

READING

  • Davis, P. and E. Garces (2009) “Quantitative Techniques for Competition and Antitrust Analysis”, Princeton University Press.
  • Luis Cabral (2000) “Introduction to Industrial Organization”, The MIT Press
  • Train, K. (2009) “Discrete Choice Methods with Simulation”, Cambridge University Press

 

ASSESMENT CRITERIA

  • Homework assignments (x3): 30%
  • Exam: 70%
Catégorie: Master 2
Cities are evolving rapidly but urban transportation evolves even faster. Recent examples include: car-sharing schemes, Mobility as a Service (MaaS), e-scooter sharing fleets,  autonomous bus services, bike deliveries, and so on. However, conventional means of transportation (ie. private cars and mass transit) still form the backbone of urban mobility.
 
Transportation planners and economists have at their disposal a large amount of data and tools capable of analyzing and predicting mobility patterns.
 
The objective of this course is to discuss these issues and provide an overview of:
1/ Urban transport modes along with their field of relevance and general business models
2/ Transportation modeling techniques (traffic demand and assignment)
3/ Performance assessment and evaluation techniques
Catégorie: Master 2

GIS and public policies

Course Description

Geographic information is everywhere: on google maps, in GPS, even on television. Most people use it in their everyday life to locate amenities, to prepare for a trip and to go from one address to another. We frequently use geographic information on our smartphones through geo-location. Based on satellites, geo-location uses maps made both of vector data and rasterized images. Even though this technology has made our lives easier, it poses a lot of challenges to public policies.

 

Nowadays, this kind of data is very useful to focus on the global consequences of climate changes: the rise of sea and ocean levels, the impact of tornados and earthquakes. Geographic information helps local authorities and aid organizations to gather and spread goods and resources after damaging disease, war and climate disasters. It also helps to understand and manage urban issues. Thus, thanks to geographic information, we can get a perspective from a global view of changes on earth to the local consequences of human activities.

 

Geographic information can help us study demographics, identify inequalities or disparities, and manage public policies.

The main agendas of this course are:

  • first, identify which kind of data you can use with different types of applications relating to public policies
  • Then, explain how European legislation and GIS organizations are key factors for geographic information spread
  • Explore different applications in established projects to see how geographic data is used as a knowledge application that helps to define and assess public policies, manage networks and communicate on a project
  • Identify the main stakeholders of GIS and spatial data business area
  • Finally, explore the main tools of a GIS software: QGis

 

 

Few readings and references

 

Global view on GIS

Roger F. Tomlinson, Thinking about GIS: Geographic information System Planning for Managers, 2007

https://books.google.fr/books?hl=fr&lr=&id=X8XgSAJrJVUC&oi=fnd&pg=PR9&dq=geographic+information+system&ots=8gANCw8Epb&sig=ywZTQBNiVXTzOogusSvEvkGuV6k#v=onepage&q&f=false

 

Geographic information resources

https://www.openstreetmap.org

            https://www.geoportail.gouv.fr

https://www.observatoire-des-territoires.gouv.fr/observatoire-des-territoires/fr/node

 

Geographic information and legislations

INSPIRE, The European directive: https://inspire.ec.europa.eu/about-inspire/563

The European directive relating to assessment and management of environmental noise mainly through noise mapping: https://eur-lex.europa.eu/legal content/EN/TXT/HTML/?uri=CELEX:32007L0002&from=EN

 

The Open Geospatial Consortium: http://www.opengeospatial.org/

 

GIS and urban planning

French examples

Mieux connaître les risques sur le territoire: http://www.georisques.gouv.fr

Cartes stratégiques de Bruit de Seine-et-Marne: http://bruit.seine-et-marne.fr

Le Système d’information géographique de la politique de la ville: sig.ville.gouv.fr

Géoportail de l’urbanisme: https://www.geoportail-urbanisme.gouv.fr/map/#tile=1&lon=2.424722&lat=46.76305599999998&zoom=6

Worldwide examples

GIS in Sustainable Urban Planning and Management (Open Access), Edited ByMartin van Maarseveen, Javier Martinez, Johannes Flacke, 2018

https://www.taylorfrancis.com/books/e/9781315146638

Focus on the Chapter 18: Volunteered Geographic Information (VGI) for the Spatial Planning of Flood Evacuation Shelters in Jakarta, Indonesia

 

QGis

https://www.qgis.org/en/site/

 

Catégorie: Master 2

Professor : Morgane Cure and various professionals.

 

In addition to the courses on Data Science, econometric techniques specialized in marketing and the study of a number of particular sectors (retail and online commerce, advertising ...), ENSAE offers to professionals to come and describe the reality of their profession and their practice of quantitative marketing.

This course is built around siw sessions of 2 hours. Each session of the seminar is devoted to a debate oriented towards quantitative marketing issues. A practitioner comes to expose a problem related to his sector of activity or to one of his clients. Its presentation may include factual or institutional elements and a summary of the theoretical elements useful for its work. Nonetheless, it focuses on how to mobilize and apply knowledge in a business environment. As such, case studies may be particularly useful. For example, we can deal with problems relating to customer segmentation, dynamic pricing or the consideration of externalities for marketing choices. A discussion with the participant about the issues discussed follows the presentation.


Main achievements of this course:

  • Develop a non-technical argumentation on a number of issues related to quantitative marketing;
  • Describe many environments and application areas of quantitative marketing;
  • Detail all stages of the implementation of a quantitative solution to a marketing problem;
  • Analyze the possible issues to the implementation of solutions, both in terms of external constraints (regulation, sector conventions) and internal problems (integration of information systems, taking into account the different trades).

Grade: Attendance at classes is mandatory. The call will be made, the absences penalized and active participation is requested. The notation - out penalty of absence - will be made on the basis of two business notes. Each document will be a maximum of two/three pages and will revert to the theme of a session. It will summarize and highlight the important points raised during the session. A critical and personal point of view can be added by the student.  Each summary note will deal with a different session.

This course is for all students seeking to better understand the diversity of fields of application of Data Science in the field of Quantitative Marketing. On the other hand, it provides a feedback experience directly mobilizable in the context of a first professional experience.

The presentation will be in French or English depending on the audience.

Subjects and sectors of activity:

  • Online Advertising: yield management of websites
  •  Insurance: Construction of scores and value creation in insurance
  • E-commerce: real-time recommendation algorithm implementation
  • Video games: Use and construction of satisfaction and motivation indicators
  • Sports: Maximizing revenue through calls for tenders for television rebroadcasting rights
  • Social Networks
  • Academic Research: Links Between Academia and the Professional Environment

Every year the schedule can change, depending on availability of professionals and student interests.

For instance, last year (2018-2019) the following firms were represented: 

  • Air France, on demande estimation;
  • Yves Rocher, on personalising client relationship;
  • Catawiki, on AB-testing and attribution models;
  • EDF, on incentives for consumers to adapt energy consumption to fixed offer;
  • Aleph-D, on online advertising (attribution mode, auction, bid, reserve price);
  • Veltys, on two different cases: estimation of sport partnership revenues, dynamic of sales on an online website;
  • Axa, on the use of data to predict risk and personnalise risk premium;

Kynapse, on two different cases : boost demand on old-fashionned brand and machine learning techniques applied to marketing purposes.

 

https://www.ensae.fr/courses/seminar-in-quantitative-marketing/

Catégorie: Master 2

How to solve important problems creatively, rigorously, and efficiently? This cours focuses on this topic, drawing upon methods used by leading strategy consulting firms, principles of design thinking, and insights from cognitive sciences.

Program content

1. Laying the ground

  • How human beings make decisions: thinking fast and thinking slow
  • The dark and bright sides of intuition: cognitive biases and insight
  • Three approaches to methodical thinking: issue tree, hypothesis pyramid, and design thinking
  • The 4S method for analyzing complex problems, developing solutions, and convincing stakeholders

2. Framing the project

  • Clarifying the issue with the TOSCA framework
  • The three dimensions of active listening: questioning, attentive listening, and reflexive listening
  • Writing a project brief

3. Structuring your analysis

  • Managing the project to develop an insightful solution
  • The pyramid principle: issue trees and hypothesis pyramid
  • Key principles to develop your analysis
  • Collecting data: desktop analysis, interviews and surveys

4. Innovating with design thinking

  • The key principles of design thinking
  • Developing an innovative solution: a step-by-step approach

5. Writing an impactful report

  • Communicating with your client during the writing process
  • The consulting report dilemma: choosing the right format for your presentation
  • Structuring your report smartly

6. Implementing the solution

  • Convince and engage stakeholders
  • The influence model: four building blocks of change"
Catégorie: Autre / Other

How to solve important problems creatively, rigorously, and efficiently? This cours focuses on this topic, drawing upon methods used by leading strategy consulting firms, principles of design thinking, and insights from cognitive sciences.

Program content

1. Laying the ground

  • How human beings make decisions: thinking fast and thinking slow
  • The dark and bright sides of intuition: cognitive biases and insight
  • Three approaches to methodical thinking: issue tree, hypothesis pyramid, and design thinking
  • The 4S method for analyzing complex problems, developing solutions, and convincing stakeholders

2. Framing the project

  • Clarifying the issue with the TOSCA framework
  • The three dimensions of active listening: questioning, attentive listening, and reflexive listening
  • Writing a project brief

3. Structuring your analysis

  • Managing the project to develop an insightful solution
  • The pyramid principle: issue trees and hypothesis pyramid
  • Key principles to develop your analysis
  • Collecting data: desktop analysis, interviews and surveys

4. Innovating with design thinking

  • The key principles of design thinking
  • Developing an innovative solution: a step-by-step approach

5. Writing an impactful report

  • Communicating with your client during the writing process
  • The consulting report dilemma: choosing the right format for your presentation
  • Structuring your report smartly

6. Implementing the solution

  • Convince and engage stakeholders
  • The influence model: four building blocks of change"
Catégorie: Autre / Other

Physique et technologies transversales :

Cryomagnétisme, Supraconductivité, Matériaux.

Catégorie: Master 2

Ce cours est une introduction à la topologie algébrique, et est destiné aux élèves du PA de mathématiques, ainsi qu’aux élèves des PA de MAP et INFO intéressés par les DataScience, ou l’informatique théorique, et qui souhaitent acquérir un bagage mathématique fort. Ce cours est une bonne préparation (sans être un prérequis) et complément au cours INF 556 (Topological Data Analysis), les outils introduits ayant trouvé des applications récents à l’étude des nuages de points.

Le cours se concentrera principalement sur l'étude des invariants des espaces topologiques, en particulier l'homologie. Après quelques rappels de topologie et l'étude de la notion d'équivalence d'homotopie, on introduit l'homologie simpliciale et singulière ainsi que leurs propriétés principales. Le groupe fondamental sera également introduit. La fin du cours sera consacrée à des idées générales d'algèbre homologique offrant des applications différentes de la partie principale du cours à l'étude d'autres objets mathématiques. Tout au long du cours, les idées et notions de la théorie des catégories seront introduites et utilisées.

 

 

Bibliographie

Glenn Bredon, Topology and Geometry, Graduate Texts in Mathematics, 139. Springer-Verlag, New York,
1997

Allen Hatcher, Algebraic topology, Cambridge University Press, Cambridge, 2002

Chuck Weibel, An introduction to homological algebra, Cambridge Studies in Advanced Mathematics, 38.
Cambridge University Press, Cambridge, 1994

 

Course language: French

L'EA de Topologie Algébrique, selon l'intérêt des élèves, permettra soit  d'étudier des applications de la topologie algébrique en informatique ou sciences de données, soit d'étudier des théorèmes et applications importantes des outils du cours en topologie ou autre domaine des mathématiques ou bien encore des invariants différents.

Après avoir listé les centres d'intérêts des élèves inscrits, chaque année nous avons trouvé une thématique commune développée pendant l'EA avant que les élèves ne se spécialisent sur un sous-sujet.

Parmi les sujets traités ces dernières années, il y en a eu en lien avec la géométrie algébrique ou différentielle, l'analyse des données, les modèles combinatoires des espaces topologiques, des invariants autres que l'homologie (K-théorie), les catégories abéliennes et triangulées, les foncteurs dérivés etc...

Langue du cours : Français

Programme
Data Science and Artificial Intelligence impact the way we do business. Consequently, companies’
business models are affected regardless of their market, sector or size. This introductory course allows
managers to understand key concepts in Data Science and Artificial Intelligence relevant to their
business and enables them to work efficiently in the future with Data Scientists and Data Engineers.
INTENDED LEARNING OBJECTIVES
At the end of the course, participants should:
• Know key concepts in Data Science and Artificial Intelligence for Business
• Be familiar with the basics of coding in Python for simple Machine Learning Algorithms.
Important: this course is not a Coding course on Data Science.
• Understand how to work efficiently with their future Data Scientists and Data Engineers
colleagues
• Be able to further increase their knowledge on the topic, on their own, after the course, by
accessing during 6 months for free the DataCamp online learning platform and its more than
300 exercises on Data Science
COURSE STRUCTURE
Pre-course Preparation (8 hours maximum)
Using a free access to the DataCamp platform (online web access and an App for exercises):
• A first online course «Introduction to Python» to learn the basics of Python: 4 hours, 11 videos,
57 exercises
• A second online course «Intermediate Python»: 4 hours, 18 videos and 87 exercises
• By experience, it should take students less than 4 hours per course until full completion
• Waivers are available for this part of the course (depending on student’s actual level in Python)
Session 1 (3 hours) - Data Science and AI for Business
• Concepts of Data Science, AI, Machine Learning, Deep Learning, coding...
• Business use cases
• Examples in R and Python
• Managing Data and Data Organization in companies
• Main Business usages of Machine Learning
• Examples of different types of algorithms: Regression, Classification, Clustering...
• Use of a Machine Learning Platform to experiment the Machine Learning Pipeline
Session 3 (3 hours) - Deep Learning
• Key concepts of Deep Learning
• Main Business usages of Deep Learning
• Examples of different types of algorithms: Regression, Classification...
• Use of a Machine Learning Platform to experiment some Deep Learning Algorithms
• Governance, Ethics and Data Organization
Session 4 (3 hours) – Data for Strategic Decision
• Presentation of an efficient methodology to manage the «Data Project» of companies
• Experiment the methodology on a Business case, working in teams organized according to
students’ Business expertise domain
In addition, a conference will take place with a Data Scientist in order to share his/her experience as a
professional working in Data.
Post course activity
Participants will have access for free during 6 months to the Datacamp Platform proposing more than
300 excellent courses on Python, R and SQL, plus some introduction courses to Git, Scala, Shell...
Total duration
Total duration of the course depends on the possibility to get a waiver for Python coding courses and
participants’ willingness to learn more by themselves on the DataCamp platform after the course:
• Minimum : 12 hours
• Normal: 20 hours
• Possible: no limit... more than 1000 hours of courses are available on DataCamp!
HEC 654 - Data science and AI for strategic decisions
Vincent Fraitot : fraitot@hec.fr
Professeur HEC
13
TEACHING METHODS
Students should complete «Introduction to Python» and «Intermediate Python» courses on DataCamp
platform.
Participants will work in groups on different business cases related to Data Science.
GRADING
Evaluation will take into account the following:
• Completion of the two online Python courses (possibility to get a waiver)
• Quality of the project group works
• Presence and active participation during the sessions
Grading method: Evaluation on A-F scale.
BIOGRAPHY
Vincent Fraitot | Associate Professor - Education Track | HEC Paris
Vincent Fraitot has over 30 years of experience managing new technologies, Digital and Data in
international and multicultural organizations.
At HEC Paris, he holds the role of Scientific Director of the Master Data Science for Business, in
partnership with Ecole Polytechnique. He is the Founder and Director of the Data for
Management Certificate. He also manages the Digital Transformation Consulting Academy and
has been co-creator and co-director of the Digital Transformation Certificate.
He is Managing the Natixis-Ecole Polytechnique-HEC Chair on «Data for banking» and he holds
the role of Pedagogy Coordination Director for HEC Paris at the Hi!Paris Center.
His rich background offers him significant expertise that he shares in the classroom. After
obtaining a Master of Science in Artificial Intelligence in Edinburgh, he contributed to the
development of the High-Tech affiliate of a successful Software House. Positions as CIO and
Organization Director for Europe at Pernod Ricard provided him with strong operational
experience in New Information and Communication Technologies.
After an Executive MBA from HEC Paris, he co-founded a consulting firm to assist Managing
Directors in their digital and data projects, in particular in the Luxury industry.
He served as the Managing Director of vente-privee consulting, the consulting affiliate of
Veepee, where he supported international brands and groups in their digital transformation,
both in B2C and B2B.As a Partner at KéaEuclyd, a consulting company specialized in Digital
Strategy, he helped top executives develop their businesses.
He has been an independent consultant in Digital and Data Strategy since Sept. 2017.
Vincent Fraitot teaches Data Science & Artificial Intelligence for Business, Digital and data
Transformation, Business Models, Business Plan, eCommerce for Luxury, Marketing and Digital
Marketing as an Associate Professor in the Strategy & Business Policy Department of HEC Paris,
where he teaches students in programs from the “Grande Ecole”, MBA, EMBA and Executive
Education.

Catégorie: Master 2

 

The Internet era has been marked by the appearance of gigantic ecosystem platforms: search engines, recommendation engines, marketplaces, social networks, collaborative consumption websites, etc. In just a few years, digital platforms have taken an undeniable importance in our daily lives; we have integrated them as a major component of the organization of our interactions through our uses. In doing so, platforms have disrupted the existing social and political paradigms.

 

The founding promises of the web, openness and collaboration, are gradually being transformed and privatized by hypertrophied Tech platforms. Their business model, based on collecting and processing big data on a large scale (data economy) is by nature oligopolistic, leading to the emergence of Tech gatekeepers (Big Tech, GAFAM) as powerful as States. The numerous side effects in terms of geopolitical reconfiguration, hybrid warfare (information warfare, cyberattacks, cognitive warfare, …), weakening of traditional states’ sovereignty, new forms of public spaces and democratic exercise through private organizations (social media), the necessity of rethinking global regulation and international governance, are raising more and more questions and debates in Europe and the United States.

In short, technology is inherently political, whether that’s the ethics of AI, the regulation of Big Tech, disinformation being spread or cyber becoming a new domain of warfare. Big Tech companies have taken on a major role in geopolitics as the US-China trade war simmers : Tech isn’t just a player in the domestic political process, it’s a geopolitical proxy for nation states as it has been demonstrated during the Ukrainian War.

 

The underlying geopolitical, political and democratic stakes are thus of a rare intensity: how to qualify these new forms of power? How are they redesigning geopolitical framework ? What are the political and democratic issues at stake and the controversies that are related to them ? What kind of governance can we imagine on a national and international scale? How can we think of economic and political models based on new technologies that are technologically and socially acceptable within the framework of fundamental rights and state of law in the western bloc ?

 

This course invites students to explore the business models of Big Tech platforms (big data, algorithms, network effects, etc.). We will then analyze the consequences of these new disruptive models and the new economic doctrine they presuppose (market distortion, emergence of monopolies, capture and monetization of personal data, urgent need for regulation, etc.). Then, we will review the political, regulatory and democratic stakes of these new models.  

 

This course is designed as an “awareness toolkit”, an invitation to think together these major contemporary issues.

The aim of this course is to approach a wide variety of subjects related to the wide domain of the geopolitics of cyberspace. While cyberspace has been – and still is – considered inherently as an external and somewhat ethereal space, the field of geopolitics studies focuses on comprehending rivalries of power and control on territories. To understand the intricate relationships between these concepts, the course studies their definition and the changing meaning of these words in both space and time.

Starting by looking at the evolving nature of the concept of geopolitics, we then apply geopolitics to the complex and changing concept of cyberspace through multiple case studies. The course is divided into 3 major themes that consist in the layers of cyberspace: Internet infrastructures (how (in)secure Internet cables are, where are data centers and why that matters), Internet protocols and logical layer (are protocols neutral, what is the DNS and why people fight about it), and Internet application and cognitive layer (what is influence and can it be measured, is disinformation impactful and why is it used by private actors, are platforms that powerful, is digital surveillance a new phenomenon).

While geopolitics and international relations focus mostly on States as central actors, the course digs into many case studies where States are secondary stakeholders. The emergence of numerous powerful private actors also raises trans-layer questions in the political field (Internet giants and their relationships to governments or the EU) and in the military and defense domains (non-State actors including terrorist groups, and their role in cyber conflicts).

This course is not open to International Exchange program students

Comment se forment les préférences politiques, et ce processus est-il différent pour les préférences culinaires? Quels sont les déterminants de la réussite scolaire et les fonctions du diplôme? Les sites de rencontre modifient-ils l'homogamie entre partenaires? Quelles dynamiques président à l'organisation de l'espace géographique, et comment cela affecte t-il ses habitants? Les faits scientifiques existent-ils indépendamment de ceux qui les attestent ?...

Parmi bien d'autres, ces questions sont des objets de débats et de recherche en sciences sociales. À travers l'étude des principales réponses qui y ont été apportées, ce cours est une introduction aux théories et aux pratiques de la sociologie. Organisé de façon thématique, il propose une analyse de différents thèmes classiques. L'objectif n'est pas d'offrir une synthèse exhaustive sur chacun d'eux, mais plutôt de donner à l'intérêt de l'approche sociologique pour penser chacunes ces questions.

L’enjeu du séminaire est double. Il s’agira, tout d’abord, de présenter les débats et les lignes problématiques qui traversent les sciences sociales : les individus sont-ils irrémédiablement soumis aux influences que le groupe exercent sur eux, ou faut-il au contraire saisir les collectifs comme une émanation de l’agrégation des actions individuelles qui lui donnent corps ? Pour comprendre les pratiques d’un individu, faut-il les décrire objectivement ou doit-on aussi/ seulement saisir le sens que l’acteur donne à ses actes ? etc..

Ces questions, très générales, seront évoquées en présentant les grandes traditions intellectuelles qui ont structuré la discipline et en détaillant les travaux empiriques qui leur ont donné corps : la tradition durkheimienne, via l’étude de la division du travail, du suicide et de la mémoire collective ; la tradition weberienne, centrée sur la compréhension des singularités de la trajectoire occidentale de rationalisation des activités ; la tradition critique, organisée autour d’une représentation des conflits de classe et des logiques de domination, et d'autres encore.

La présentation sera complétée par une présentation de grands thèmes qu’abordent les sciences sociales. La sélection des thèmes obéit à un double principe : ils ont été travaillés en profondeur par la discipline, et ils correspondent à des tensions dominantes au sein des sociétés contemporaines. Ils doivent par conséquent permettre de montrer comment les propositions de la discipline rendent possible la compréhension du monde social en s’appuyant sur un savoir et des méthodes d’enquête stabilisées. La présentation de ces travaux sera l’occasion de présenter les principales méthodes qu’utilisent les sciences sociales – enquête ethnographique, entretiens, questionnaires, diverses méthodes quantitatives - comme de parler des changements actuels (par exemple la massification des données).


Modalités d'évaluation :

  • Présence et participation en séminaire
  • Présentation d'un texte
  • Note de lecture sur un livre

    Langue du cours : Français


Catégorie: Ingénieur 2A

Puissance et impuissance des humains: anthropologie du changement et de l'ingénierie sociale

Ce séminaire propose une perspective anthropologique sur le changement et la capacité des humains à transformer leur monde. Alors que le réchauffement climatique est devenu un défi planétaire, la question du changement et avec elle la capacité des humains à agir sur leur monde pour le changer, est devenue, littéralement, brûlante. En explorant les différences entre les sociétés humaines, l’anthropologie offre la possibilité d’un regard éloigné sur nous-mêmes : elle permet de nous observer et de penser nos problèmes du point de vue des autres.

Après une séance introductive, le séminaire s’organisera autour de trois axes: pouvoir, changement, limites. Le premier explorera des formes diverses de pouvoir, d’autorité et de commandement dans les organisations sociales humaines, allant de la puissance des Dieux aux chefs sans pouvoir. Le second sera consacré à une série d’étude de cas de changement social volontariste : ingénierie de la construction étatique (state-building), conversion religieuse, politiques de modernisation, politiques de développement, etc. Le troisième portera sur la nature des limites et des résistances que rencontre la volonté de transformation du monde social. La dernière séance sera consacrée à l’anthropologie du changement climatique.

Chaque séance portera sur une question à propos duquel le séminaire proposera un changement de perspective à partir de cas empiriques empruntés aux sociétés du monde entier. Une discussion collective en début de séminaire sur la base d’un extrait de texte servira à introduire les données ethnographiques.

Catégorie: Ingénieur 2A

Avec le développement d’Internet, l'nfographie devient incontournable. L'infographie est un « art », un art numérique qui permet de traiter une multitude d’informations. Transformées en données numériques, les informations peuvent être communiquées, échangées tout autour du globe. L’information est plus vite distribuée et devient de plus en plus interactive et accessible à tous. C’est une révolution pour les médias, mais aussi un danger. L’information est difficilement contrôlable car modifiable à tout moment. Le problème des droits d’auteurs se pose. Prenons l’exemple de la photo, il y a quelques années un photomontage demandaient des heures de travail, aujourd’hui des logiciels comme Photoshop par exemple permettent de réduire ce temps par 10. Tout est possible, les seules limites sont celles de notre imagination. Avec ces nouvelles techniques, nous devons être très attentifs et aiguiser notre sens de l’observation pour déceler toutes tricheries.

L’objectif de ce séminaire est donc de développer notre sens de l’observation et d’acquérir quelques notions d’infographie. Nous réaliserons plusieurs exercices différents de la création d’un simple logo à un photo montage complexe. Pour ce faire, nous utiliserons plusieurs logiciels qui nous permettront d’étudier les différentes méthodologies pour la création de plans, photomontages, et la réalisation de mises en page. Le séminaire fonctionnera comme un atelier. Les étudiants échangeront leurs impressions tout au long des cours et rassembleront leurs informations pour réaliser les différents travaux.

 

Lieu : Salle informatique
Logiciels utilisés : Adobe Photoshop, Arc +, Arc Reader
Matériels : Macintosh PowerPc (Salle informatique), Imprimante couleur, Appareil photo numérique.

 

Langue du cours : Français

Ce séminaire offre une introduction à la compréhension des questions d’innovations sociotechniques dans le cadre de relations multiculturelles au sein du management des entreprises mondialisées. Le cours est offert simultanément à des X (3e année) , des élèves de master de l’école polytechnique, notamment le master du département de chimie et, le cas échéant, à des étudiants d’HEC (2e année).

Sera plus particulièrement étudiées la question de la conception et du transfert des innovations d’une organisation à une autre, des techniques et méthodes de gestion d’un pays à un autre. On pourra aussi aborder celle de la coopération entre des équipes d’entreprises et de pays différents autour de projets communs, ainsi que les difficultés à organiser la mondialisation de business models pensés au départ dans un seul lieu et environnement institutionnel. Le cours bénéficie des travaux de recherche menés sur ces questions ainsi que des avancée en matière d’innovation technologique.

Par la suite, en relation avec un grand groupe industriel français, chaque année 4 trinômes X-HEC-Indian Institute of management d’Ahmedabad (IIMA, Gujarat, Inde)  pourront conduire un travail de recherche à temps plein d’Avril à Juillet principalement à l’étranger (1 mois en France et 3 mois en Inde) sur des questions relevant de l’innovation sociotechnique, de transferts de technologies et de management multiculturel. Cette recherche est conduite avec le support d’un professeur d’une institution locale, en l’occurrence l’IIM d’Ahmedabad (Gujarat, Inde). Ce travail vaut stage de recherche de 3ème année pour l’X (élève ingénieur polytechniciens et Master M1 (programmes : Master of Data Science for Business, IETE). Des élèves d’autres programme de master peuvent, avec l’accord du responsable, y participer (par exemple « Entrepreneurship and Innovation Technologies »). Pour les élèves d’HEC, il peut être validé comme mémoire de recherche de fin d’étude ou d’année de césure (ou éventuellement mémoire de stage). Il s’agit d’un travail de recherche sur des sujets hautement stratégiques en termes d’innovation pour lesquels un grand groupe industriel donne accès à la totalité de son information. Après un processus de sélection (novembre-décembre), les binômes sélectionnés bénéficieront d’une formation complémentaire et une préparation au voyage (méthodologie, formation sur la zone culturelle, analyse du sujet choisi). Pour les X, cette formation complémentaire pourra être validée comme un enseignement d’approfondissement (EA) en HSS pour le second semestre.

 

Ce module n’a pas pour vocation de proposer uniquement un enseignement théorique, mais vise la découverte et l’analyse de situations professionnelles multiculturelles en donnant lieu à un travail fondé sur une immersion longue sur le terrain de plusieurs mois au travers d’un stage.

 

Modalités d'évaluation : « l'évaluation reposera sur la présentation orale (en français ou en anglais) d’une mini-étude de terrain sur les relations multiculturelles au sein d’une institution de formation, de recherche ou associative. Par ailleurs, le cas échéant, une fiche de lecture pourra être demandée. Là encore, elle pourra être rédigée en français ou en anglais ».
Langue du cours : français ou anglais
Credits ECTS : 2

Données et méthodes quantitatives : administration publique et sciences sociales

Course description

Numbers are everywhere today: economy, health, politics, environment, education, sport, etc. Few spheres of our existence can claim to resist the contemporary quantitative deluge and the advent of Big Data. Admittedly, this situation is not totally new: figures have accompanied the development of modern science and the advent of contemporary forms of State. But the pace of change has accelerated dramatically in recent decades. And the profusion of data is not without raising thorny cognitive, ethical and political issues.

But what data exactly are we talking about? How is it produced? What are they used for? How can we use it in a reasoned way and understand it without making mistakes? With its theoretical and practical components, the course will present a broad overview of quantitative sources, reasoning and methods of analysis.

Drawing on elements of history and epistemology, students will be encouraged to take a reflective look at the tools of contemporary statistics and data science. As part of their dissertation, they will apply advanced techniques directly to contemporary data linked to a public issue or a social question.

- Topics covered include accounting modelling, the measurement of economic inequalities, quantitative methods in health, the statistical treatment of discrimination, the dangers associated with the use of digital data and, conversely, the opportunities for action they open up.

- The practical sessions include an introduction to the R software environment and present the methods of descriptive and factorial analysis, clustering and machine learning, and regression (linear and logistic).

The course provides an in-depth introduction to the quantitative skills required for jobs in economic administration and official statistics, whether at state or local authority level. Because of the social issues it covers, it will also be useful for students wishing to enter the field of non-governmental organisations and social science research.

Please note: access to individual data, which may be used in the dissertation, is subject to registration for the course being completed by mid-November 2024 at the latest.

 

Provisional programme

Session 1 (Thomas Amossé): what is quantification; dissertation themes; history and law of data; examples of use.

Session 2 (Camille Beaurepaire): R software; descriptive statistical methods; choice of dissertation topics.

Session 3 (Thomas Amossé): the economy and the environment taken into account; class struggle and economic inequalities.

Session 4 (Camille Beaurepaire): factorial analysis of data; application of descriptive methods to dissertation data.

Session 5 (Thomas Amossé, Camille Beaurepaire; Montrouge, INSEE library): the official statistical system; visit to the library and historical collections; documentary analysis for dissertations.

Session 6 (Camille Beaurepaire): clustering and machine learning; implementation on data for the dissertation.

Session 7 (Thomas Amossé): inequalities and discrimination (gender and race); statistical reasoning; tabular and graphical representations.

Session 8 (Camille Beaurepaire): linear and logistic regression methods; principles of data-visualisation; implementation on the data used for the dissertation.

Session 9 (Thomas Amossé): domination or emancipation, are data good or bad? From the Chinese social credit system to statactivism.

Session 10 (Thomas Amossé, Camille Beaurepaire): defence of dissertations.

Samuel Allain
Emmanuel Didier

 

Description de l’enseignement

Ce cours est construit en trois parties complémentaires. D’une part, il consiste en une introduction aux principales méthodes quantitatives - recensement, enquêtes, évaluations,expérimentations, data mining, introduction qui s’appuie sur l’histoire de ces dernières. En effet, ces méthodes proviennent de débats souvent oubliés et qui ont pourtant conformé leurs présupposés, les résultats qu’elles peuvent fournir, et leurs usages divers, souvent politiques. Les connaissances que fournissent les méthodes quantitatives ne sont pas seulement dans leurs résultats, mais aussi dans l’analyse des conditions de leur utilisation.

D’autre part, il repose sur corpus de textes que les élèves devront présenter proposant un retour critique sur chacune de ces méthodes, ainsi que de l'étude de cas emblématiques. Enfin, le cours permettra ainsi aux étudiants de se familiariser aussi bien avec les principes méthodologiques au fondement des grandes enquêtes de la statistique publique, de l'usage des données administratives, des enquêtes par quota menées par les instituts de sondage ou encore des avancées plus récentes liées aux usages des traces numériques (big data) en “mettant la main à la pâte” c’est-à-dire en traitant un corpus de donné sous la supervision d’un enseignant.

 

Evaluation

Par groupes de 2 ou 3 étudiants, présentation d’une étude de cas, choisis parmi ceux qui seront proposés. Souvent articulés autour d’une controverse scientifique et/ou méthodologique, permettant d’appréhender finement les problématiques d’usage des outils d’analyse présentés pendant le cours, ces cas seront analysés par les étudiants, afin d’en comprendre les enjeux.

Responsable: Arthur Jatteau
E-mail: arthur.jatteau@polytechnique.edu

Que l’on songe aux indicateurs socio-économiques (taux de croissance, taux de chômage…), aux sondages, à la « gouvernance par les nombres », les nombres sont incontournables dans l’espace public. Parce qu’ils irriguent la société et l’économie, ils méritent d’être interrogés.

Prendre pour objet d’étude le processus social de mise en nombre de la réalité, tel est le projet des sciences sociales de la quantification. Relevant à la fois de l’économie, de la sociologie et de l’histoire, sans renoncer à recourir à d’autres disciplines, elles visent à se donner les moyens d’appréhender la place des nombres dans notre société. Diverses orientations peuvent être adoptées.

Il peut s’agir d’étudier la production d’un indicateur en particulier (que ce soit au niveau macroéconomique, comme avec le PIB ou l’indice des prix, ou microéconomique, dans des organisations comme des entreprises) en se penchant sur les conditions de sa production et sur les choix qui ont présidé à son élaboration. L’accent peut également être mis sur l’usage : à quoi servent les nombres dans la société ? Dans quels buts sont-ils produits ? La critique des indicateurs constitue également une voie à suivre. Enfin, on peut se pencher sur les indicateurs alternatifs, construits dans des institutions qui entendent penser autrement et agir différemment dans et sur la société.

Les méthodes mis en œuvre dans les sciences sociales de la quantification sont variées. Elles relèvent des différentes sciences sociales qui la composent (économie, sociologie, histoire) et sont aussi diverses que la statistique descriptive, l’analyse de données, le travail sur archives, l’entretien, l’observation… Elles peuvent être mises en place dans des institutions de recherche (comme des laboratoires) mais également dans des organisations variées (administrations publiques, entreprises, associations…).

 



Langue du cours : Français

quantifying reality, that is the project of social science of quantification. A combination economics, sociology and history, without abandoning other disciplines, they aim to provide to graps the place of numbers in our society. Various guidance can be adopted.

It can be studying the production of a specific indicator (in macroeconomic level, like GDP or price indicator; or microeconomic, in organizations like companies) by looking at the conditions of its production and choices that has presided its development. The focus may also be on the use: what is the purpose of numbers in society? What purposes they are produced? Indicator review is also a way forward. Finally, we can look at alternative indicators, built in institutions that act differently in and on the society.

The implemented methods in social science of quantification are varied. They are based on the various social sciences within it (economics, sociology, history) and are as diverse as descriptive statistics, data analysis, work with archives, maintenance, observation... They can be implemented in research institutions (such as laboratories), but also in varied organizations (public administrations, companies, associations...).

 

Course language: French

Responsable: Jérôme Sackur
E-mail : jerome.sackur@gmail.com

 

COGNITION ET NEUROSCIENCE

Perception visuelle anorthoscopique d’objets

Lorsqu’un objet (ou une scène visuelle) est vu au travers d’une fente (« slit viewing »), comme cela peut être le cas dans la vie réelle lorsque l’on perçoit une scène au travers d’un store ou d’une barrière par exemple , le système visuel est capable d’identifier et reconnaitre cet objet, bien que la même région de la rétine soit stimulée d’instant en instant. Quels sont les mécanismes qui permettent la reconstruction de cet objet et de le reconnaitre ? Quelle est la part de la dynamique du mouvement et des informations de formes dans ce processus ?

 

  • Transfert inter hémisphérique de traitements visuels

La perception du champ visuel droit et gauche est assurée par les hémisphères gauche et droit, respectivement. Lorsqu’une stimulation visuelle franchit le méridien vertical, quelles sont informations, prédictions et traitements transférés d’un hémisphère à l’autre (vraisemblablement par l’intermédiaire du corps calleux qui réunit les deux hémisphères) ?  Des observations informelles suggèrent que les traitements corticaux réalisés dans un hémisphère ne sont pas transférés à l’autre, et que les traitements visuels –en particulier ceux nécessaire à la perception du mouvement- doivent être recalculés. Le projet vise à quantifier cette observation et à identifier les constantes de temps mise en jeux.

  • Oculomotricité et « Eye-Gaming »

l’étude de l’oculomotricité et de son répertoire (fixation, saccade, poursuite, vergence, activité pupillaire) est généralement réalisée en laboratoire avec des paradigmes stricts, mais peu attirants (faire 100 saccade vers une cible, par exemple). Le projet vise à collecter des données oculomotrices dans le cadre de « jeux sérieux » impliquant les mouvements oculaires (« Eye-Gaming ») et de déterminer si les mouvements oculaires mis en œuvre  dans ces situations sont susceptibles d’apporter des informations pertinentes pour l’étude du système oculomoteur (et de « remplacer » ou compléter les paradigmes expérimentaux de laboratoire). A plus long terme, le projet vise à développer des bornes interactives utilisant les mouvements oculaires pour le pilotage d’interfaces, de collecter etd’ étudier ces mouvements oculaires sur une grande population (Cohorte).

  • Sonification des mouvements oculaires

Bien que les yeux bougent sans arrêt (3 saccades par seconde), ces mouvements sont largement non-conscient, et souvent perturbés dans nombres de pathologies. Le projet vise à déterminer dans quelle mesure la sonification des mouvements oculaires (couplages mouvement oculaires/sons) est utile pour faciliter et améliorer le contrôle oculomoteur. A long terme ce projet vise à développer des applications cliniques pour le diagnostic et la remédiation de troubles oculomoteurs.

  • La réponse pupillaire comme mesure de l'attention visuelle

La taille de la pupille varie en fonction de l'illumination de la scène, mais reflète aussi des fonctions cognitives telles que l'orientation de l'attention. En effet, lorsqu'on prête attention à un objet lumineux placé en périphérie, la pupille se rétracte par rapport à la situation où l'objet auquel on prête attention est sombre. L'oscillation de la luminance (sombre-clair) à une certaine fréquence induit des oscillations de la pupille (jusqu'à 3Hz environ). Il est possible de présenter différents objets dont la luminance oscille à différentes fréquences, et de déterminer celui auquel le sujet prête attention et regardant l'amplitude des fréquences dans une décomposition de Fourier du signal pupillaire - une technique appelée "frequency tagging". L'objectif de ce stage est de déterminer les contraintes spatiales de ce frequency tagging de manière à exploiter la réponse pupillaire comme mesure attentionnelle.

Ce stage comprend toutes ou une partie des étapes suivantes: la mise en place du protocole expérimental, programmation de l'expérience (matlab), formation à l'utilisation d'un oculomètre et aux méthodes psychophysiques pertinentes pour récolter les données, analyse des données.

  • Développement d'un jeu pour évaluer les rythmes attentionnels des enfants

La capacité à rester concentré sur une même tâche varie considérablement dans la population générale, sans parler des pathologies de l'attention comme le Trouble Déficit de l'Attention / Hyperactivité (TDAH).  Une manière traditionnelle d'étudier cela en sciences cognitives consiste à questionner à intervalles irréguliers des participants pendant qu'ils et elles effectuent une tâche (la lecture d'un texte rébarbatif par exemple) afin de déterminer si et quand leur pensée vagabonde. Le projet serait la première étape d'un autre approche, consistant à déterminer pour chaque sujet un "biais d'alternance" entre deux tâches. Pour ce faire, il faudrait concevoir une tâche bi-partite qui pourrait prendre ensuite la forme d'un jeu vidéo, dans laquelle les participants devraient répartir leur attention sur deux sous-tâches (deux parties de l'écran). Il faudrait concevoir une contrainte telle que, en fonction des performances de chacun-e, nous puissions déterminer le taux d'alternance optimal, qui ne serait pas accessible au sujet. Nous pourrons alors mesurer le biais de chaque sujet par rapport à ce taux optimal.

Les étapes du stage sont : 1/ définir les contraintes du jeu ; 2/ effectuer des simulations pour tester leur robustesse ; 3/ concevoir et analyser une expérience de laboratoire pour valider la mesure du biais ; 4/ réaliser la version « jeu vidéo ».

 

Pré-requis: programmation.

 

Les projets suivants sont en lien avec l'équipe d'Emmanuel Dupoux « The Synthetic Language Learner ». Ils demandent de bonnes connaissances en algèbre linéaire ou statistique ainsi qu'en programmation.

  • Deep language learning from scratch

Deep Neural Networks (DNNs) have recently broken ground on state-of-the-art in several areas (image recognition, speech recognition, etc.) . However, these algorithms depend on large human annotated datasets. Yet, infants spontaneously achieve similar performance without direct supervision; the internship explores various ideas to 'de-supervise' deep learning using side information, loss functions or architectures inspired by research in human infants .

  • Learning the laws of physics with a deep recurrent network

Recurrent networks can be used to learn regularities in video or audio sequences . This internship will use a game engine to learn the underlying physical regularities of interactions between macroscopic objects and compare it to results of infant's perception of possible versus impossible events . It will be conducted in collaboration with Facebook AI Research.

  • Time invariance in speech perception.

Speech perception is invariant with respect to large variations in speech rate . How is this achieved ? The internship will explore time normalization using various computational architectures for speech recognition (convolutional coding, networks of oscillators, etc.) and compare the results to human data .

  • The role of prosody in language bootstrapping.

Speech prosody is the 'melody' and 'rhythm' of language, and infants are very sensitive to it. We think that it provides bootstrapping into linguistic structures at many levels (lexical, grammatical). The internship will explore this using a variety of speech technology techniques  (signal processing, spoken term discovery, word segmentation, etc.) .

  • Rules and meaning

The human language faculty is unique in its ability to combine a finite number of categories to express infinitely varied meanings . The internship addresses how the basic constituents of langage (categories and rules) could be learned during infancy focusing on two ideas: extracting proto categories and rules from the sensory inputs using clustering or sparse coding techniques , and using mutual constraints linking the different levels of linguistic structures .

  • Multimodal language learning

At four months of age, infants recognize a few very common words (their names, mommy, daddy, etc) , even though they are unable to produce them. This internship tests whether multimodal DNNs can simultaneously learn words and their approximate meaning on a parallel dataset of audio and video tracks This internship will be conducted in collaboration with Microsoft Research at Redmond, USA.

  • Massive baby home data collection

Big baby data is essential to uncover the mysteries of early language acquisition . Here, we develop dense data recording in baby's homes using arrays of audio/3D video sensors , as well as toy-based evaluation of preverbal infant language acquisition, and we analyze the data in relation to computational models with unsupervised algorithms.

  • Cracking the neural code for speech

How does the brain encode speech sounds? Progress in neuroimaging (ECoG, intracerebral electrical recording, etc) have resulted in a flow of data, both in human and animals. The internship will apply neural decoding methods and apply to neural data and data generated from deep neural architectures to explore hypotheses about the neural code for speech.

 

Langue du cours : Français
Credits ECTS : 20

Responsable : Frédéric Brechenmacher (Tél à l'X 3354)
E Mail : frederic.brechenmacher@polytechnique.edu

Cette proposition de stages offre le choix entre deux types d'activités distinctes : 1) recherches en histoire des sciences ; 2) travaux d'ingénierie sur les outils informatiques utilisés en sciences sociales.

1) En tant que champ de recherche, l'histoire des sciences présente un caractère fortement interdisciplinaire, intégrant notamment de nombreuses approches d'histoire générale, de philosophie, de sociologie ou encore des études littéraires. Ce champ permet ainsi non seulement de penser les sciences et les techniques mais aussi d'acquérir des outils d'analyse des défis sociétaux que pose le monde contemporain et ses évolutions futures.

Cette offre de stage donne l'occasion à chaque élève de mener des travaux correspondant à ses propres intérêts (domaine scientifique particulier, période historique, enjeux etc.). Ces travaux s'appuieront sur les fonds d'archives de l'École. La richesse de ces fonds d'archives offre une grande variété de thématiques de recherches, tant du point de vue des champs scientifiques et technologiques que d'objets technologiques ou d'autres domaines comme les arts, la philosophie, les entreprises etc.

Afin de valoriser ces productions, le sujet du stage sera élaboré avec chaque élève non seulement en fonction de ses intérêts mais aussi en relation avec des thèmes porteurs de la recherche contemporaine en histoire des sciences (projets jeunes chercheurs, thèses en cours, réseaux internationaux, équipes de recherches régionales etc.)

Le stage aura lieu en partie au Centre historique de l'École pour les travaux d'archives. Selon le sujet choisi, il pourra également s'implanter dans un réseau de recherche thématique international ou dans un laboratoire d'histoire des science (Équipe "histoire des sciences mathématiques" de l'Institut de mathématiques de Jussieu, Centre Koyré de l'EHESS, GHDSO de l'Université Paris-Sud 11, UMR SPHERE de l'Université Paris-7, UMR STL de l'Université Lille 1, Archives Henri Poincaré à Nancy, etc.)

A titre d'exemples de sujets possibles, citons, entre autres :
- Histoire des mathématiques, en relation avec le projet international jeunes chercheurs CaaFÉ (http://caafe.math.cnrs.fr )
- Science et littérature aux XIXe et XXe siècle, en relation avec le projet international jeunes chercheurs "Histoire croisée"
- Constitution d'archives audiovisuelles des acteurs contemporains de l'École (enseignants, chercheurs, élèves, etc.)
- Biographie scientifique
- Le journal de l'École polytechnique, en relation avec le projet international sur l'histoire de la presse scientifique
- Les correspondances scientifiques : étude et numérisation d'un fond d'archive
- Les contributions des polytechniciens à la géométrie, la cristallographie et la cinématique au XIXe siècle, en relation avec trois thèses en cours (Brésil, Canada, France)
- Machines et instruments dans les archives de l'École

Selon le thème choisi, le stage pourra donner lieu à différents types de productions :
- publication (journaux et/ou sites internet)
- exposition
- constitution / valorisation d'archives (en participant notamment au Musée virtuel de l'École)
- film documentaire
- etc.

2) Les élèves qui le souhaitent pourront choisir de mener un projet d'ingénierie sur des outils informatiques utilisés par les chercheurs en histoire des sciences, en lien avec des recherches en cours. Parmi les activités possibles mentionnons :
- interface et contenu du Musée virtuel de l'École
- participation au développement de logiciels pour un projet de numérisation (comme les oeuvres complètes de d'Alembert)
- utilisation de graphes pour la visualisation de réseaux de citations intertextuelles
- problèmes posés par les différents formats bibliographiques
- amélioration des interfaces de programmation des utilisateurs
- développement d'une variante du langage de mysql afin de permettre des requêtes sur les liens entre données et non seulement sur ces données.

 

Langue du cours : Français
Credits ECTS : 20

Responsable : Thomas Lindemann (Tél à l'X 3363)
                     Anne Dulphy (Tél à l'X 3357)
E-mail : lindemannt@yahoo.com

 

Les stages de géopolitique s'adressent aux étudiants soucieux d'acquérir un haut niveau d'expertise en matière de conflits et de politiques de sécurité et de prévention de la violence. Les stages permettent de mieux appréhender la pluralité des situations conflictuelles (par exemple guerres ou pratiques « terroristes »). Ils préparent à une insertion directe dans le monde professionnel à travers une préparation aux métiers de la sécurité et de la prévention (diplomatie publique et privée, département sécurité-prévention au sein de think tank spécialisés dans les relations internationales, métiers d’ingénierie de la sécurité auprès d’acteurs publics ou privés, armée, police, gendarmerie) mais également à des fonctions d’analyse (analyse risque-pays, chargés d’études, etc.) dans des organisations privées et publiques. Plusieurs thématiques peuvent être proposées pour des stages dans le domaine de la géopolitique : les origines et les causes des violences internationales, la prévention et la gestion  des crises et des conflits, les stratégies militaires, la sécurité globale.

La question des origines et des causes des violences internationales est à l’origine même de la discipline des Relations internationales, avec la création d’une première chaire à l’Université d’Aberystwyth en 1919, et elle continue de faire objet de nombreuses recherches aussi bien quantitatives (banque de données sur la fréquence, la durée et l’intensité des conflits armés ainsi que leur « corrélation » avec des variables politiques ou économiques) que qualitatives.  Plus récemment, les problématiques se sont élargies à l’étude des conflits non-étatiques transnationaux avec une attention accrue aux conflits asymétriques.  Il existe de nombreux organismes en Europe qui recrutent des stagiaires pour participer à des recherches sur les violences internationales : le PRIO (Peace Research Institut of Oslo), le SIPRI (Stockhom International Peace Research Institut), le HSFK (Hessische Stiftung für Friedens-und Konfliktforschung) à Francfort ou le  HIIL (Heidelberger Institut für Internationale Konfliktforschung).

Pour la prévention et la gestion des crises et des conflits, il s’agit d’anticiper idéalement des situations de crise, voire de violence interne ou internationale. Nous disposons de contacts pour des stages au sein du ministère de l’Intérieur dans le département « planification de sécurité nationale et gestion des crises ». En outre l’IRSEM (l’Institut de Recherche Stratégique à l’Ecole de Guerre) est disposé à accueillir des stagiaires, notamment sur les thématiques de gestion des crises internationales ou de rivalité entre grandes puissances (Chine, Russie, Etats-Unis).

Pour l’analyse des stratégies militaires et de leur élaboration, des politiques d’armement et de la gestion des conflits armés, des stages peuvent être envisagés au CESA (Centre d'études stratégiques aérospatiales), à la DAS (Délégation générales des relations internationales), mais aussi à l’IRSEM, voire dans un think tank à l’étranger (comme RAND Corporation).

Enfin, des stages peuvent être organisés sur les questions de sécurité globale, où il s’agirait par exemple d’évaluer la « fiabilité » des partenaires économiques dans des pays « à risques ».

 

Langue du cours : Français
Credits ECTS : 20

Que ce soit pour intérêt pour les sciences sociales et leurs objets, ou que ce soit pour se préparer à un cursus avec application sur des données réelles (data science, mathématiques appliquées, etc.), il est possible de réaliser un stage en sociologie.

Le stage offre la possibilité de s'initier concrètement à la pratique de cette discipline. Traiter une base de données, réaliser des entretiens, voire mener une enquête de terrain en immersion plonge dans le quotidien de la recherche. La discussion récurrente avec des chercheurs confirmés permet de progresser rapidement.

Les sujets sont nombreux, et seront à déterminer entre l'étudiant et son encadrant. Ils peuvent bien sûr porter sur l'X et sa scolarité, les formes de sociabilité, le devenir des étudiants, etc. Mais ils peuvent tout aussi bien porter sur un autre sujet de la discipline, classique ou émergent : la genèse des goûts, le choix du conjoint, les mobilisations collectives, les transformations du marché du travail et du capitalisme, les logiques d'engagement dans une démarche religieuse à l'âge adulte, la place des profanes dans le champ politique contemporain, l'usage des nouvelles technologies, le journalisme et ses acteurs, etc.

Le stage peut aussi mettre l'accent sur des questions de méthodes, où la formation d'ingénieur peut être directement mise à profit. C'est particulièrement vrai dans le cas du traitement de données numériques massives, qui permettent de poser à nouveaux frais des questions classiques de la discipline. Les sites de rencontre modifient-ils la tendance bien établie à l'homogamie? (à partir de données d'interaction en ligne), les registres de la protestation ont-ils changé (des cahiers de doléance aux registres en ligne du grand débat national)? Les données massives modifient-elles les campagnes politiques (sur la base d'indicateurs créés par des partis, des start-ups)?

Les méthodes issues de l'apprentissage automatique qui ont pu être étudiées lors du cursus polytechnicien peuvent alors être appliquées et approfondies. Construire un classifieur de reconnaissance de visages pour aider les archivistes à repérer des personnalités célèbres sur des photographies, affiner un modèle de reconnaissance vocale pour faire de l'analyse de discours, mettre en oeuvre des méthodes d'analyse textuelle sur un corpus de presse sont autant de points d'entrée possible pour mettre la technique au service des sciences sociales, tout en la développant.

Ces quelques exemples donnent à voir la multitude des approches et questionnements possibles. Les étudiants intéressés peuvent contacter l'enseignant directement pour échanger à ce sujet.

Cette option propose une initiation à la recherche en anthropologie afin de réaliser une première recherche originale sur une société contemporaine, proche ou lointaine. 

Elle consiste à rédiger un mémoire de recherche en anthropologie sociale sur un sujet déterminé librement par l’étudiant en fonction de ses intérêts (thématique, aire culturelle etc.), en collaboration avec le responsable, qui l’orientera dans cette étape préliminaire. Ils choisiront ensemble un chercheur spécialiste du thème dans un laboratoire d’anthropologie généraliste, un laboratoire de type "aire culturelle" (mondes africains, mondes américains, Inde et Asie du sud, Chine, Asie du Sud-Est etc.) voire un musée (Musée du Quai Branly-Jacques Chirac, Musée de l’Homme etc.). Ce chercheur assurera un encadrement individualisé des différents aspects de la recherche : documentation en bibliothèque, dans les archives ou les collections, travail de recherche sur le terrain et questionnements théoriques. L’activité scientifique inclut en outre le contact avec les chercheurs en sciences sociales au sein des unités de recherche et la participation à des séminaires de recherche et des colloques.

Ce travail pourra être effectué uniquement sur la base de documents mais, préférablement, inclura des données collectées personnellement lors d'une enquête de terrain de quelques semaines. La rédaction du mémoire sera supervisée par le chercheur-tuteur et le responsable.  

The course provides an overview of the field of the Digital humanities -its history, and development- looking at the digital mathods that have applied to humanities data from a variety of fields and perspectives, e.g, textual  scholarship, archaeology, and material culture, and music. Single lectures will focus on a particular topic, with general trends being highlighted and connected between topics and fields in order for students to develop an understanding of the researsh questions, methods and toolds common to DH studies.

Each class will be devoted to an introduction to the specific topic, preceded of followed by discussions with the students to connect to their technical knowledge and interests. Active participation by part of the students is therefore expected throughout the course. 

The aim of this course is to approach a wide variety of subjects related to the wide domain of the geopolitics of cyberspace. While cyberspace has been – and still is – considered inherently as an external and somewhat ethereal space, the field of geopolitics studies focuses on comprehending rivalries of power and control on territories. To understand the intricate relationships between these concepts, the course studies their definition and the changing meaning of these words in both space and time.

Starting by looking at the evolving nature of the concept of geopolitics, we then apply geopolitics to the complex and changing concept of cyberspace through multiple case studies. The course is divided into 3 major themes that consist in the layers of cyberspace: Internet infrastructures (how (in)secure Internet cables are, where are data centers and why that matters), Internet protocols and logical layer (are protocols neutral, what is the DNS and why people fight about it), and Internet application and cognitive layer (what is influence and can it be measured, is disinformation impactful and why is it used by private actors, are platforms that powerful, is digital surveillance a new phenomenon).

While geopolitics and international relations focus mostly on States as central actors, the course digs into many cast studies where States are secondary stakeholders. The emergence of numerous powerful private actors also raises trans-layer questions in the political field (Internet giants and their relationships to governments or the EU) and in the military and defense domains (non-State actors including terrorist groups, and their role in cyber conflicts).

This course is not open to International Exchange program students

Catégorie: Bachelor 1

Introduction à l’anthropologie

Quelles sont les conditions scientifiques, et non simplement morales, d’un véritable respect de l’autre ? L’anthropologie sociale est née de la difficulté d’appliquer sérieusement la théorie de l’évolution aux cultures humaines en les classant des plus primitives aux plus évoluées (c’est-à-dire les Occidentaux). Cette rupture a été rendue possible en particulier grâce à la pratique de l’enquête de terrain qui consiste pour le chercheur à vivre avec les personnes observées et apprendre à participer à leur vie sociale.

Le séminaire est une introduction à l’anthropologie sociale, autrement dit à l’étude comparative des sociétés humaines. La connaissance de sociétés différentes et la prise en compte de points de vue « autres » s’appuient sur des faits monographiques tirés d’enquêtes de terrain où le chercheur s’immerge dans une autre société pour étudier des façons de vivre et de penser différentes des siennes. Ces données sont la base de la comparaison entre les formes de vie sociale. Elle permet de saisir l’unité du genre humain à travers ses manifestations les plus diverses et de mettre en perspective certaines de nos conceptions de la raison, du pouvoir, de l’organisation sociale, de la parenté, de la richesse, etc.

Chaque séance est organisée autour d’un thème qui est articulé autour d’une étude de cas, consacrée à une société particulière.

 

Plan

Une brève histoire de l’autre.

La rationalité en perspective. Évolutionnisme, croyance et sorcellerie

La nature est-elle une invention moderne? Nature, culture, science.

Des Formes élémentaires de la vie religieuse à l'École Polytechnique: religion et rituel. 

Des sociétés sans États ? 

Des sociétés contre l’État ? 

Des sociétés contre la richesse ?

Les étrangers, ici et ailleurs.

La parenté, les hommes et les femmes. 

L’anthropologie du changement ou les limites de l’ingénierie sociale.

 

Modalités d'évaluation: participation aux discussions et remise d’un travail écrit sous la forme d’une note de lecture sur un thème du cours ou choisi de concert avec l’enseignant.

 

 
Catégorie: Ingénieur 2A

Comment se forment les préférences politiques, et ce processus est-il différent pour les préférences culinaires? Quels sont les déterminants de la réussite scolaire et les fonctions du diplôme? Les sites de rencontre modifient-ils l'homogamie entre partenaires? Quelles dynamiques président à l'organisation de l'espace géographique, et comment cela affecte t-il ses habitants? Les faits scientifiques existent-ils indépendamment de ceux qui les attestent ?...

Parmi bien d'autres, ces questions sont des objets de débats et de recherche en sciences sociales. À travers l'étude des principales réponses qui y ont été apportées, ce cours est une introduction aux théories et aux pratiques de la sociologie. Organisé de façon thématique, il propose une analyse de différents thèmes classiques. L'objectif n'est pas d'offrir une synthèse exhaustive sur chacun d'eux, mais plutôt de donner à l'intérêt de l'approche sociologique pour penser chacunes ces questions.

L’enjeu du séminaire est double. Il s’agira, tout d’abord, de présenter les débats et les lignes problématiques qui traversent les sciences sociales : les individus sont-ils irrémédiablement soumis aux influences que le groupe exercent sur eux, ou faut-il au contraire saisir les collectifs comme une émanation de l’agrégation des actions individuelles qui lui donnent corps ? Pour comprendre les pratiques d’un individu, faut-il les décrire objectivement ou doit-on aussi/ seulement saisir le sens que l’acteur donne à ses actes ? etc..

Ces questions, très générales, seront évoquées en présentant les grandes traditions intellectuelles qui ont structuré la discipline et en détaillant les travaux empiriques qui leur ont donné corps : la tradition durkheimienne, via l’étude de la division du travail, du suicide et de la mémoire collective ; la tradition weberienne, centrée sur la compréhension des singularités de la trajectoire occidentale de rationalisation des activités ; la tradition critique, organisée autour d’une représentation des conflits de classe et des logiques de domination, et d'autres encore.

La présentation sera complétée par une présentation de grands thèmes qu’abordent les sciences sociales. La sélection des thèmes obéit à un double principe : ils ont été travaillés en profondeur par la discipline, et ils correspondent à des tensions dominantes au sein des sociétés contemporaines. Ils doivent par conséquent permettre de montrer comment les propositions de la discipline rendent possible la compréhension du monde social en s’appuyant sur un savoir et des méthodes d’enquête stabilisées. La présentation de ces travaux sera l’occasion de présenter les principales méthodes qu’utilisent les sciences sociales – enquête ethnographique, entretiens, questionnaires, diverses méthodes quantitatives - comme de parler des changements actuels (par exemple la massification des données).


Modalités d'évaluation :

  • Présence et participation en séminaire
  • Présentation d'un texte
  • Note de lecture sur un livre

    Langue du cours : Français


Catégorie: Ingénieur 2A

Puissance et impuissance des humains: anthropologie du changement et de l'ingénierie sociale

Ce séminaire propose une perspective anthropologique sur le changement et la capacité des humains à transformer leur monde. Alors que le réchauffement climatique est devenu un défi planétaire, la question du changement et avec elle la capacité des humains à agir sur leur monde pour le changer, est devenue, littéralement, brûlante. En explorant les différences entre les sociétés humaines, l’anthropologie offre la possibilité d’un regard éloigné sur nous-mêmes : elle permet de nous observer et de penser nos problèmes du point de vue des autres.

Après une séance introductive, le séminaire s’organisera autour de trois axes: pouvoir, changement, limites. Le premier explorera des formes diverses de pouvoir, d’autorité et de commandement dans les organisations sociales humaines, allant de la puissance des Dieux aux chefs sans pouvoir. Le second sera consacré à une série d’étude de cas de changement social volontariste : ingénierie de la construction étatique (state-building), conversion religieuse, politiques de modernisation, politiques de développement, etc. Le troisième portera sur la nature des limites et des résistances que rencontre la volonté de transformation du monde social. La dernière séance sera consacrée à l’anthropologie du changement climatique.

Chaque séance portera sur une question à propos duquel le séminaire proposera un changement de perspective à partir de cas empiriques empruntés aux sociétés du monde entier. Une discussion collective en début de séminaire sur la base d’un extrait de texte servira à introduire les données ethnographiques.

Catégorie: Ingénieur 2A

Ce séminaire offre une introduction à la compréhension des questions d’innovations sociotechniques dans le cadre de relations multiculturelles au sein du management des entreprises mondialisées. Le cours est offert simultanément à des X (3e année) , des élèves de master de l’école polytechnique, notamment le master du département de chimie et, le cas échéant, à des étudiants d’HEC (2e année).

Sera plus particulièrement étudiées la question de la conception et du transfert des innovations d’une organisation à une autre, des techniques et méthodes de gestion d’un pays à un autre. On pourra aussi aborder celle de la coopération entre des équipes d’entreprises et de pays différents autour de projets communs, ainsi que les difficultés à organiser la mondialisation de business models pensés au départ dans un seul lieu et environnement institutionnel. Le cours bénéficie des travaux de recherche menés sur ces questions ainsi que des avancée en matière d’innovation technologique.

Par la suite, en relation avec un grand groupe industriel français, chaque année 4 trinômes X-HEC-Indian Institute of management d’Ahmedabad (IIMA, Gujarat, Inde)  pourront conduire un travail de recherche à temps plein d’Avril à Juillet principalement à l’étranger (1 mois en France et 3 mois en Inde) sur des questions relevant de l’innovation sociotechnique, de transferts de technologies et de management multiculturel. Cette recherche est conduite avec le support d’un professeur d’une institution locale, en l’occurrence l’IIM d’Ahmedabad (Gujarat, Inde). Ce travail vaut stage de recherche de 3ème année pour l’X (élève ingénieur polytechniciens et Master M1 (programmes : Master of Data Science for Business, IETE). Des élèves d’autres programme de master peuvent, avec l’accord du responsable, y participer (par exemple « Entrepreneurship and Innovation Technologies »). Pour les élèves d’HEC, il peut être validé comme mémoire de recherche de fin d’étude ou d’année de césure (ou éventuellement mémoire de stage). Il s’agit d’un travail de recherche sur des sujets hautement stratégiques en termes d’innovation pour lesquels un grand groupe industriel donne accès à la totalité de son information. Après un processus de sélection (novembre-décembre), les binômes sélectionnés bénéficieront d’une formation complémentaire et une préparation au voyage (méthodologie, formation sur la zone culturelle, analyse du sujet choisi). Pour les X, cette formation complémentaire pourra être validée comme un enseignement d’approfondissement (EA) en HSS pour le second semestre.

 

Ce module n’a pas pour vocation de proposer uniquement un enseignement théorique, mais vise la découverte et l’analyse de situations professionnelles multiculturelles en donnant lieu à un travail fondé sur une immersion longue sur le terrain de plusieurs mois au travers d’un stage.

 

Modalités d'évaluation : « l'évaluation reposera sur la présentation orale (en français ou en anglais) d’une mini-étude de terrain sur les relations multiculturelles au sein d’une institution de formation, de recherche ou associative. Par ailleurs, le cas échéant, une fiche de lecture pourra être demandée. Là encore, elle pourra être rédigée en français ou en anglais ».
Langue du cours : français ou anglais
Credits ECTS : 2

Avec le développement d’Internet, l'nfographie devient incontournable. L'infographie est un « art », un art numérique qui permet de traiter une multitude d’informations. Transformées en données numériques, les informations peuvent être communiquées, échangées tout autour du globe. L’information est plus vite distribuée et devient de plus en plus interactive et accessible à tous. C’est une révolution pour les médias, mais aussi un danger. L’information est difficilement contrôlable car modifiable à tout moment. Le problème des droits d’auteurs se pose. Prenons l’exemple de la photo, il y a quelques années un photomontage demandaient des heures de travail, aujourd’hui des logiciels comme Photoshop par exemple permettent de réduire ce temps par 10. Tout est possible, les seules limites sont celles de notre imagination. Avec ces nouvelles techniques, nous devons être très attentifs et aiguiser notre sens de l’observation pour déceler toutes tricheries.

L’objectif de ce séminaire est donc de développer notre sens de l’observation et d’acquérir quelques notions d’infographie. Nous réaliserons plusieurs exercices différents de la création d’un simple logo à un photo montage complexe. Pour ce faire, nous utiliserons plusieurs logiciels qui nous permettront d’étudier les différentes méthodologies pour la création de plans, photomontages, et la réalisation de mises en page. Le séminaire fonctionnera comme un atelier. Les étudiants échangeront leurs impressions tout au long des cours et rassembleront leurs informations pour réaliser les différents travaux.

 

Lieu : Salle informatique
Logiciels utilisés : Adobe Photoshop, Arc +, Arc Reader
Matériels : Macintosh PowerPc (Salle informatique), Imprimante couleur, Appareil photo numérique.

 

Langue du cours : Français

Sociologie des big data

Cours, deuxième période

 

Depuis deux décennies, le nombre de données numériques disponibles a explosé. Collectées par des capteurs installés dans notre quotidien, ces informations sont autant de traces numériques qui renseignent sur les individus et les sociétés. Cette évolution, combinée à l’usage de technologies pour les traiter (dont en premier lieu l’intelligence artificielle), a provoqué d’intenses débats.

Comment ces modifient-t-elles nos vies? À partir de travaux de sciences sociales qui ont investi différents terrains traversés par ces données de masse, ce cours se propose d'apporter des éléments de réponse précis aux questions qui ont pu traverser le débat public. Plutôt que d’offrir un panomara forcément trop général, on abordera des thèmes spécifiques. Parmi ceux-ci : le travail (assiste-t-on à l'uberisation du marché du travail)? l'intime (assiste t-on à une marchandisation des sentiments, de la rencontre?), la science (sait-on vraiment plus aujourd'hui?) et les techniques (que peut l'intelligence artificielle?), l'organisation politique et le débat public (la démocratie est-elle possible à l'heure de la surveillance de masse et des réseaux sociaux?). À travers ces exemples, ce cours réfléchira aux transformations impliquées par cette disponibilité nouvelle de données, et des infrastructures qui les collectent, les transportent et les abritent.

Les nombres sont aujourd’hui partout : économie, santé, éducation, sport, politique... Peu de sphères de notre existence peuvent prétendre résister au déluge quantitatif contemporain du big data. Mais à quoi servent ces données ? Comment les exploiter de façon raisonnée ? Et comment la place actuelle des chiffres dans notre société s'est-elle construite historiquement ? Les nombres, dans leurs versants statistique et probabiliste, accompagnent en effet depuis plusieurs siècles le développement tant de l'Etat que de la Science.

Ce cours pluridisciplinaire (histoire, anthropologie, sociologie, démographie et statistique) proposera à la fois une approche réflexive des outils, méthodes et raisonnements de la quantification et une mise en pratique sur données réelles, articulée autour des outils de la data science. Un large panorama de techniques avancées et directement opérationnelles d'analyse des données sera ainsi présenté.

Par les questions qu'il pose autant que par les outils statistiques qu'il présente, ce cours constitue une introduction approfondie aux problématiques de la statistique, publique et privée, et des sciences sociales quantitatives.

Samuel Allain
Emmanuel Didier

 

Description de l’enseignement

Ce cours est construit en trois parties complémentaires. D’une part, il consiste en une introduction aux principales méthodes quantitatives - recensement, enquêtes, évaluations,expérimentations, data mining, introduction qui s’appuie sur l’histoire de ces dernières. En effet, ces méthodes proviennent de débats souvent oubliés et qui ont pourtant conformé leurs présupposés, les résultats qu’elles peuvent fournir, et leurs usages divers, souvent politiques. Les connaissances que fournissent les méthodes quantitatives ne sont pas seulement dans leurs résultats, mais aussi dans l’analyse des conditions de leur utilisation.

D’autre part, il repose sur corpus de textes que les élèves devront présenter proposant un retour critique sur chacune de ces méthodes, ainsi que de l'étude de cas emblématiques. Enfin, le cours permettra ainsi aux étudiants de se familiariser aussi bien avec les principes méthodologiques au fondement des grandes enquêtes de la statistique publique, de l'usage des données administratives, des enquêtes par quota menées par les instituts de sondage ou encore des avancées plus récentes liées aux usages des traces numériques (big data) en “mettant la main à la pâte” c’est-à-dire en traitant un corpus de donné sous la supervision d’un enseignant.

 

Evaluation

Par groupes de 2 ou 3 étudiants, présentation d’une étude de cas, choisis parmi ceux qui seront proposés. Souvent articulés autour d’une controverse scientifique et/ou méthodologique, permettant d’appréhender finement les problématiques d’usage des outils d’analyse présentés pendant le cours, ces cas seront analysés par les étudiants, afin d’en comprendre les enjeux.

Responsable: Arthur Jatteau
E-mail: arthur.jatteau@polytechnique.edu

Que l’on songe aux indicateurs socio-économiques (taux de croissance, taux de chômage…), aux sondages, à la « gouvernance par les nombres », les nombres sont incontournables dans l’espace public. Parce qu’ils irriguent la société et l’économie, ils méritent d’être interrogés.

Prendre pour objet d’étude le processus social de mise en nombre de la réalité, tel est le projet des sciences sociales de la quantification. Relevant à la fois de l’économie, de la sociologie et de l’histoire, sans renoncer à recourir à d’autres disciplines, elles visent à se donner les moyens d’appréhender la place des nombres dans notre société. Diverses orientations peuvent être adoptées.

Il peut s’agir d’étudier la production d’un indicateur en particulier (que ce soit au niveau macroéconomique, comme avec le PIB ou l’indice des prix, ou microéconomique, dans des organisations comme des entreprises) en se penchant sur les conditions de sa production et sur les choix qui ont présidé à son élaboration. L’accent peut également être mis sur l’usage : à quoi servent les nombres dans la société ? Dans quels buts sont-ils produits ? La critique des indicateurs constitue également une voie à suivre. Enfin, on peut se pencher sur les indicateurs alternatifs, construits dans des institutions qui entendent penser autrement et agir différemment dans et sur la société.

Les méthodes mis en œuvre dans les sciences sociales de la quantification sont variées. Elles relèvent des différentes sciences sociales qui la composent (économie, sociologie, histoire) et sont aussi diverses que la statistique descriptive, l’analyse de données, le travail sur archives, l’entretien, l’observation… Elles peuvent être mises en place dans des institutions de recherche (comme des laboratoires) mais également dans des organisations variées (administrations publiques, entreprises, associations…).

 



Langue du cours : Français

quantifying reality, that is the project of social science of quantification. A combination economics, sociology and history, without abandoning other disciplines, they aim to provide to graps the place of numbers in our society. Various guidance can be adopted.

It can be studying the production of a specific indicator (in macroeconomic level, like GDP or price indicator; or microeconomic, in organizations like companies) by looking at the conditions of its production and choices that has presided its development. The focus may also be on the use: what is the purpose of numbers in society? What purposes they are produced? Indicator review is also a way forward. Finally, we can look at alternative indicators, built in institutions that act differently in and on the society.

The implemented methods in social science of quantification are varied. They are based on the various social sciences within it (economics, sociology, history) and are as diverse as descriptive statistics, data analysis, work with archives, maintenance, observation... They can be implemented in research institutions (such as laboratories), but also in varied organizations (public administrations, companies, associations...).

 

Course language: French

Responsable: Jérôme Sackur
E-mail : jerome.sackur@gmail.com

 

COGNITION ET NEUROSCIENCE

Perception visuelle anorthoscopique d’objets

Lorsqu’un objet (ou une scène visuelle) est vu au travers d’une fente (« slit viewing »), comme cela peut être le cas dans la vie réelle lorsque l’on perçoit une scène au travers d’un store ou d’une barrière par exemple , le système visuel est capable d’identifier et reconnaitre cet objet, bien que la même région de la rétine soit stimulée d’instant en instant. Quels sont les mécanismes qui permettent la reconstruction de cet objet et de le reconnaitre ? Quelle est la part de la dynamique du mouvement et des informations de formes dans ce processus ?

 

  • Transfert inter hémisphérique de traitements visuels

La perception du champ visuel droit et gauche est assurée par les hémisphères gauche et droit, respectivement. Lorsqu’une stimulation visuelle franchit le méridien vertical, quelles sont informations, prédictions et traitements transférés d’un hémisphère à l’autre (vraisemblablement par l’intermédiaire du corps calleux qui réunit les deux hémisphères) ?  Des observations informelles suggèrent que les traitements corticaux réalisés dans un hémisphère ne sont pas transférés à l’autre, et que les traitements visuels –en particulier ceux nécessaire à la perception du mouvement- doivent être recalculés. Le projet vise à quantifier cette observation et à identifier les constantes de temps mise en jeux.

  • Oculomotricité et « Eye-Gaming »

l’étude de l’oculomotricité et de son répertoire (fixation, saccade, poursuite, vergence, activité pupillaire) est généralement réalisée en laboratoire avec des paradigmes stricts, mais peu attirants (faire 100 saccade vers une cible, par exemple). Le projet vise à collecter des données oculomotrices dans le cadre de « jeux sérieux » impliquant les mouvements oculaires (« Eye-Gaming ») et de déterminer si les mouvements oculaires mis en œuvre  dans ces situations sont susceptibles d’apporter des informations pertinentes pour l’étude du système oculomoteur (et de « remplacer » ou compléter les paradigmes expérimentaux de laboratoire). A plus long terme, le projet vise à développer des bornes interactives utilisant les mouvements oculaires pour le pilotage d’interfaces, de collecter etd’ étudier ces mouvements oculaires sur une grande population (Cohorte).

  • Sonification des mouvements oculaires

Bien que les yeux bougent sans arrêt (3 saccades par seconde), ces mouvements sont largement non-conscient, et souvent perturbés dans nombres de pathologies. Le projet vise à déterminer dans quelle mesure la sonification des mouvements oculaires (couplages mouvement oculaires/sons) est utile pour faciliter et améliorer le contrôle oculomoteur. A long terme ce projet vise à développer des applications cliniques pour le diagnostic et la remédiation de troubles oculomoteurs.

  • La réponse pupillaire comme mesure de l'attention visuelle

La taille de la pupille varie en fonction de l'illumination de la scène, mais reflète aussi des fonctions cognitives telles que l'orientation de l'attention. En effet, lorsqu'on prête attention à un objet lumineux placé en périphérie, la pupille se rétracte par rapport à la situation où l'objet auquel on prête attention est sombre. L'oscillation de la luminance (sombre-clair) à une certaine fréquence induit des oscillations de la pupille (jusqu'à 3Hz environ). Il est possible de présenter différents objets dont la luminance oscille à différentes fréquences, et de déterminer celui auquel le sujet prête attention et regardant l'amplitude des fréquences dans une décomposition de Fourier du signal pupillaire - une technique appelée "frequency tagging". L'objectif de ce stage est de déterminer les contraintes spatiales de ce frequency tagging de manière à exploiter la réponse pupillaire comme mesure attentionnelle.

Ce stage comprend toutes ou une partie des étapes suivantes: la mise en place du protocole expérimental, programmation de l'expérience (matlab), formation à l'utilisation d'un oculomètre et aux méthodes psychophysiques pertinentes pour récolter les données, analyse des données.

  • Développement d'un jeu pour évaluer les rythmes attentionnels des enfants

La capacité à rester concentré sur une même tâche varie considérablement dans la population générale, sans parler des pathologies de l'attention comme le Trouble Déficit de l'Attention / Hyperactivité (TDAH).  Une manière traditionnelle d'étudier cela en sciences cognitives consiste à questionner à intervalles irréguliers des participants pendant qu'ils et elles effectuent une tâche (la lecture d'un texte rébarbatif par exemple) afin de déterminer si et quand leur pensée vagabonde. Le projet serait la première étape d'un autre approche, consistant à déterminer pour chaque sujet un "biais d'alternance" entre deux tâches. Pour ce faire, il faudrait concevoir une tâche bi-partite qui pourrait prendre ensuite la forme d'un jeu vidéo, dans laquelle les participants devraient répartir leur attention sur deux sous-tâches (deux parties de l'écran). Il faudrait concevoir une contrainte telle que, en fonction des performances de chacun-e, nous puissions déterminer le taux d'alternance optimal, qui ne serait pas accessible au sujet. Nous pourrons alors mesurer le biais de chaque sujet par rapport à ce taux optimal.

Les étapes du stage sont : 1/ définir les contraintes du jeu ; 2/ effectuer des simulations pour tester leur robustesse ; 3/ concevoir et analyser une expérience de laboratoire pour valider la mesure du biais ; 4/ réaliser la version « jeu vidéo ».

 

Pré-requis: programmation.

 

Les projets suivants sont en lien avec l'équipe d'Emmanuel Dupoux « The Synthetic Language Learner ». Ils demandent de bonnes connaissances en algèbre linéaire ou statistique ainsi qu'en programmation.

  • Deep language learning from scratch

Deep Neural Networks (DNNs) have recently broken ground on state-of-the-art in several areas (image recognition, speech recognition, etc.) . However, these algorithms depend on large human annotated datasets. Yet, infants spontaneously achieve similar performance without direct supervision; the internship explores various ideas to 'de-supervise' deep learning using side information, loss functions or architectures inspired by research in human infants .

  • Learning the laws of physics with a deep recurrent network

Recurrent networks can be used to learn regularities in video or audio sequences . This internship will use a game engine to learn the underlying physical regularities of interactions between macroscopic objects and compare it to results of infant's perception of possible versus impossible events . It will be conducted in collaboration with Facebook AI Research.

  • Time invariance in speech perception.

Speech perception is invariant with respect to large variations in speech rate . How is this achieved ? The internship will explore time normalization using various computational architectures for speech recognition (convolutional coding, networks of oscillators, etc.) and compare the results to human data .

  • The role of prosody in language bootstrapping.

Speech prosody is the 'melody' and 'rhythm' of language, and infants are very sensitive to it. We think that it provides bootstrapping into linguistic structures at many levels (lexical, grammatical). The internship will explore this using a variety of speech technology techniques  (signal processing, spoken term discovery, word segmentation, etc.) .

  • Rules and meaning

The human language faculty is unique in its ability to combine a finite number of categories to express infinitely varied meanings . The internship addresses how the basic constituents of langage (categories and rules) could be learned during infancy focusing on two ideas: extracting proto categories and rules from the sensory inputs using clustering or sparse coding techniques , and using mutual constraints linking the different levels of linguistic structures .

  • Multimodal language learning

At four months of age, infants recognize a few very common words (their names, mommy, daddy, etc) , even though they are unable to produce them. This internship tests whether multimodal DNNs can simultaneously learn words and their approximate meaning on a parallel dataset of audio and video tracks This internship will be conducted in collaboration with Microsoft Research at Redmond, USA.

  • Massive baby home data collection

Big baby data is essential to uncover the mysteries of early language acquisition . Here, we develop dense data recording in baby's homes using arrays of audio/3D video sensors , as well as toy-based evaluation of preverbal infant language acquisition, and we analyze the data in relation to computational models with unsupervised algorithms.

  • Cracking the neural code for speech

How does the brain encode speech sounds? Progress in neuroimaging (ECoG, intracerebral electrical recording, etc) have resulted in a flow of data, both in human and animals. The internship will apply neural decoding methods and apply to neural data and data generated from deep neural architectures to explore hypotheses about the neural code for speech.

 

Langue du cours : Français
Credits ECTS : 20

Responsable : Frédéric Brechenmacher (Tél à l'X 3354)
E Mail : frederic.brechenmacher@polytechnique.edu

Cette proposition de stages offre le choix entre deux types d'activités distinctes : 1) recherches en histoire des sciences ; 2) travaux d'ingénierie sur les outils informatiques utilisés en sciences sociales.

1) En tant que champ de recherche, l'histoire des sciences présente un caractère fortement interdisciplinaire, intégrant notamment de nombreuses approches d'histoire générale, de philosophie, de sociologie ou encore des études littéraires. Ce champ permet ainsi non seulement de penser les sciences et les techniques mais aussi d'acquérir des outils d'analyse des défis sociétaux que pose le monde contemporain et ses évolutions futures.

Cette offre de stage donne l'occasion à chaque élève de mener des travaux correspondant à ses propres intérêts (domaine scientifique particulier, période historique, enjeux etc.). Ces travaux s'appuieront sur les fonds d'archives de l'École. La richesse de ces fonds d'archives offre une grande variété de thématiques de recherches, tant du point de vue des champs scientifiques et technologiques que d'objets technologiques ou d'autres domaines comme les arts, la philosophie, les entreprises etc.

Afin de valoriser ces productions, le sujet du stage sera élaboré avec chaque élève non seulement en fonction de ses intérêts mais aussi en relation avec des thèmes porteurs de la recherche contemporaine en histoire des sciences (projets jeunes chercheurs, thèses en cours, réseaux internationaux, équipes de recherches régionales etc.)

Le stage aura lieu en partie au Centre historique de l'École pour les travaux d'archives. Selon le sujet choisi, il pourra également s'implanter dans un réseau de recherche thématique international ou dans un laboratoire d'histoire des science (Équipe "histoire des sciences mathématiques" de l'Institut de mathématiques de Jussieu, Centre Koyré de l'EHESS, GHDSO de l'Université Paris-Sud 11, UMR SPHERE de l'Université Paris-7, UMR STL de l'Université Lille 1, Archives Henri Poincaré à Nancy, etc.)

A titre d'exemples de sujets possibles, citons, entre autres :
- Histoire des mathématiques, en relation avec le projet international jeunes chercheurs CaaFÉ (http://caafe.math.cnrs.fr )
- Science et littérature aux XIXe et XXe siècle, en relation avec le projet international jeunes chercheurs "Histoire croisée"
- Constitution d'archives audiovisuelles des acteurs contemporains de l'École (enseignants, chercheurs, élèves, etc.)
- Biographie scientifique
- Le journal de l'École polytechnique, en relation avec le projet international sur l'histoire de la presse scientifique
- Les correspondances scientifiques : étude et numérisation d'un fond d'archive
- Les contributions des polytechniciens à la géométrie, la cristallographie et la cinématique au XIXe siècle, en relation avec trois thèses en cours (Brésil, Canada, France)
- Machines et instruments dans les archives de l'École

Selon le thème choisi, le stage pourra donner lieu à différents types de productions :
- publication (journaux et/ou sites internet)
- exposition
- constitution / valorisation d'archives (en participant notamment au Musée virtuel de l'École)
- film documentaire
- etc.

2) Les élèves qui le souhaitent pourront choisir de mener un projet d'ingénierie sur des outils informatiques utilisés par les chercheurs en histoire des sciences, en lien avec des recherches en cours. Parmi les activités possibles mentionnons :
- interface et contenu du Musée virtuel de l'École
- participation au développement de logiciels pour un projet de numérisation (comme les oeuvres complètes de d'Alembert)
- utilisation de graphes pour la visualisation de réseaux de citations intertextuelles
- problèmes posés par les différents formats bibliographiques
- amélioration des interfaces de programmation des utilisateurs
- développement d'une variante du langage de mysql afin de permettre des requêtes sur les liens entre données et non seulement sur ces données.

 

Langue du cours : Français
Credits ECTS : 20

Responsable : Thomas Lindemann (Tél à l'X 3363)
                     Anne Dulphy (Tél à l'X 3357)
E-mail : lindemannt@yahoo.com

 

Les stages de géopolitique s'adressent aux étudiants soucieux d'acquérir un haut niveau d'expertise en matière de conflits et de politiques de sécurité et de prévention de la violence. Les stages permettent de mieux appréhender la pluralité des situations conflictuelles (par exemple guerres ou pratiques « terroristes »). Ils préparent à une insertion directe dans le monde professionnel à travers une préparation aux métiers de la sécurité et de la prévention (diplomatie publique et privée, département sécurité-prévention au sein de think tank spécialisés dans les relations internationales, métiers d’ingénierie de la sécurité auprès d’acteurs publics ou privés, armée, police, gendarmerie) mais également à des fonctions d’analyse (analyse risque-pays, chargés d’études, etc.) dans des organisations privées et publiques. Plusieurs thématiques peuvent être proposées pour des stages dans le domaine de la géopolitique : les origines et les causes des violences internationales, la prévention et la gestion  des crises et des conflits, les stratégies militaires, la sécurité globale.

La question des origines et des causes des violences internationales est à l’origine même de la discipline des Relations internationales, avec la création d’une première chaire à l’Université d’Aberystwyth en 1919, et elle continue de faire objet de nombreuses recherches aussi bien quantitatives (banque de données sur la fréquence, la durée et l’intensité des conflits armés ainsi que leur « corrélation » avec des variables politiques ou économiques) que qualitatives.  Plus récemment, les problématiques se sont élargies à l’étude des conflits non-étatiques transnationaux avec une attention accrue aux conflits asymétriques.  Il existe de nombreux organismes en Europe qui recrutent des stagiaires pour participer à des recherches sur les violences internationales : le PRIO (Peace Research Institut of Oslo), le SIPRI (Stockhom International Peace Research Institut), le HSFK (Hessische Stiftung für Friedens-und Konfliktforschung) à Francfort ou le  HIIL (Heidelberger Institut für Internationale Konfliktforschung).

Pour la prévention et la gestion des crises et des conflits, il s’agit d’anticiper idéalement des situations de crise, voire de violence interne ou internationale. Nous disposons de contacts pour des stages au sein du ministère de l’Intérieur dans le département « planification de sécurité nationale et gestion des crises ». En outre l’IRSEM (l’Institut de Recherche Stratégique à l’Ecole de Guerre) est disposé à accueillir des stagiaires, notamment sur les thématiques de gestion des crises internationales ou de rivalité entre grandes puissances (Chine, Russie, Etats-Unis).

Pour l’analyse des stratégies militaires et de leur élaboration, des politiques d’armement et de la gestion des conflits armés, des stages peuvent être envisagés au CESA (Centre d'études stratégiques aérospatiales), à la DAS (Délégation générales des relations internationales), mais aussi à l’IRSEM, voire dans un think tank à l’étranger (comme RAND Corporation).

Enfin, des stages peuvent être organisés sur les questions de sécurité globale, où il s’agirait par exemple d’évaluer la « fiabilité » des partenaires économiques dans des pays « à risques ».

 

Langue du cours : Français
Credits ECTS : 20

Que ce soit pour intérêt pour les sciences sociales et leurs objets, ou que ce soit pour se préparer à un cursus avec application sur des données réelles (data science, mathématiques appliquées, etc.), il est possible de réaliser un stage en sociologie.

Le stage offre la possibilité de s'initier concrètement à la pratique de cette discipline. Traiter une base de données, réaliser des entretiens, voire mener une enquête de terrain en immersion plonge dans le quotidien de la recherche. La discussion récurrente avec des chercheurs confirmés permet de progresser rapidement.

Les sujets sont nombreux, et seront à déterminer entre l'étudiant et son encadrant. Ils peuvent bien sûr porter sur l'X et sa scolarité, les formes de sociabilité, le devenir des étudiants, etc. Mais ils peuvent tout aussi bien porter sur un autre sujet de la discipline, classique ou émergent : la genèse des goûts, le choix du conjoint, les mobilisations collectives, les transformations du marché du travail et du capitalisme, les logiques d'engagement dans une démarche religieuse à l'âge adulte, la place des profanes dans le champ politique contemporain, l'usage des nouvelles technologies, le journalisme et ses acteurs, etc.

Le stage peut aussi mettre l'accent sur des questions de méthodes, où la formation d'ingénieur peut être directement mise à profit. C'est particulièrement vrai dans le cas du traitement de données numériques massives, qui permettent de poser à nouveaux frais des questions classiques de la discipline. Les sites de rencontre modifient-ils la tendance bien établie à l'homogamie? (à partir de données d'interaction en ligne), les registres de la protestation ont-ils changé (des cahiers de doléance aux registres en ligne du grand débat national)? Les données massives modifient-elles les campagnes politiques (sur la base d'indicateurs créés par des partis, des start-ups)?

Les méthodes issues de l'apprentissage automatique qui ont pu être étudiées lors du cursus polytechnicien peuvent alors être appliquées et approfondies. Construire un classifieur de reconnaissance de visages pour aider les archivistes à repérer des personnalités célèbres sur des photographies, affiner un modèle de reconnaissance vocale pour faire de l'analyse de discours, mettre en oeuvre des méthodes d'analyse textuelle sur un corpus de presse sont autant de points d'entrée possible pour mettre la technique au service des sciences sociales, tout en la développant.

Ces quelques exemples donnent à voir la multitude des approches et questionnements possibles. Les étudiants intéressés peuvent contacter l'enseignant directement pour échanger à ce sujet.

Cette option propose une initiation à la recherche en anthropologie afin de réaliser une première recherche originale sur une société contemporaine, proche ou lointaine. 

Elle consiste à rédiger un mémoire de recherche en anthropologie sociale sur un sujet déterminé librement par l’étudiant en fonction de ses intérêts (thématique, aire culturelle etc.), en collaboration avec le responsable, qui l’orientera dans cette étape préliminaire. Ils choisiront ensemble un chercheur spécialiste du thème dans un laboratoire d’anthropologie généraliste, un laboratoire de type "aire culturelle" (mondes africains, mondes américains, Inde et Asie du sud, Chine, Asie du Sud-Est etc.) voire un musée (Musée du Quai Branly-Jacques Chirac, Musée de l’Homme etc.). Ce chercheur assurera un encadrement individualisé des différents aspects de la recherche : documentation en bibliothèque, dans les archives ou les collections, travail de recherche sur le terrain et questionnements théoriques. L’activité scientifique inclut en outre le contact avec les chercheurs en sciences sociales au sein des unités de recherche et la participation à des séminaires de recherche et des colloques.

Ce travail pourra être effectué uniquement sur la base de documents mais, préférablement, inclura des données collectées personnellement lors d'une enquête de terrain de quelques semaines. La rédaction du mémoire sera supervisée par le chercheur-tuteur et le responsable.  

En quoi les données de masse façonnent-elles les décisions marketing ?
Comment ces données sont-elles collectées et exploitées ?
Quels en sont les enjeux ?

 

Objectifs et positionnement du cours

Le volume de données sans précédent (« Big data ») dont les entreprises disposent aujourd’hui pour baser leurs décisions remodèle complètement l’approche marketing. Les données de masse représentent pour les entreprises une opportunité de repenser leur approche du marché, leur proposition de valeur pour le client, leur communication, en vue d’une expérience client toujours améliorée. Les données possédées permettent même de dépasser et anticiper les attentes des clients.

Les entreprises ont plus que jamais besoin de dirigeants familiers de ces nouvelles logiques, et dotés de connaissances fines sur ce nouvel écosystème pour leur permettre de prendre les décisions optimales. L’analyse et l’exploitation des données clients dépassent la seule direction marketing et concernent, du point de vue stratégique et opérationnel, l'ensemble des services de l'entreprise.

Ce cours propose un cheminement pédagogique à la croisée de la stratégie d’entreprise, du marketing et de la technologie, dans l’optique d’atteindre une meilleure approche de ces questions. Il accueillera des « grands témoins », ingénieurs de l’Ecole Polytechnique, qui ont fait le choix des métiers du Data Marketing et viendront partager leur expertise, leur parcours et leur vision avec le groupe.

Les séances finales seront consacrées à la participation à un data challenge grandeur nature, sur la base de données d’entreprises réelles anonymisées, en équipe avec des étudiants du Master PIC de l’Ecole et des étudiants de l’Université Panthéon-Assas, spécialisés en Droit & Communication. (Ce challenge a remporté le prix de l’innovation pédagogique en sciences de gestion en 2020).

path that combines company, marketing and technology strategies, in order to reach a better approach of these questions. It will welcoming "great witnesses", engineers from the Ecole Polytechnique, who have chosen to work in Data Marketing, and will be sharing their expertise, experience and vision with the group.

Final sessions will be dedicated to the participation in a full-scale data challenge, based on anonymised data from real companies, in groups with students of the PIC Master's programme at the Ecole and students of the Université Panthéon-Assas, specialized in Law & Communication. (This challenge won the pedagogical innovation in management science award in 2020)

DESCRIPTIF DU COURS
Ce cours traite de la réception des innovations par les consommateurs et de l’importance des données dans
les pratiques actuelles du marketing de l’innovation. Pour cela, les étudiants participent notamment à un
data challenge (co-organisé avec Assas et l’entreprise Numberly) avec des étudiants d’autres formations.
OBJECTIF PEDAGOGIQUE
L’objectif de ce cours est double. Il vise à faire réfléchir les étudiants sur la manière de commercialiser une
innovation et fournit une expérience originale et vivante de la pratique des données de masse.
STRUCTURE DU SEMINAIRE
Séance 1 et 2 : le consommateur en situation d’innovation
Séance 3 : kit de survie du marketing des données
Séance 4 : data challenge
Séance 5 : restitutions data challenge
BIBLIOGRAPHIE INDICATIVE
Le Nagard-Assayag, E., & Manceau, D. (2011). Le marketing de l’innovation-2e éd.: De la création au lancement
de nouveaux produits. Dunod.
Mohr, J. J., Sengupta, S., & Slater, S. F. (2009). Marketing of high-technology products and innovations.
Pearson Prentice Hall.
Moore, G. A. (2009). Crossing the Chasm: Marketing and Selling Technology Project. Harper Collins.

Catégorie: Master 2 / MScT 2A

DESCRIPTIF DU COURS
Ce cours traite de la réception des innovations par les consommateurs et de l’importance des données dans
les pratiques actuelles du marketing de l’innovation. Pour cela, les étudiants participent notamment à un
data challenge (co-organisé avec Assas et l’entreprise Numberly) avec des étudiants d’autres formations.
OBJECTIF PEDAGOGIQUE
L’objectif de ce cours est double. Il vise à faire réfléchir les étudiants sur la manière de commercialiser une
innovation et fournit une expérience originale et vivante de la pratique des données de masse.
STRUCTURE DU SEMINAIRE
Séance 1 et 2 : le consommateur en situation d’innovation
Séance 3 : kit de survie du marketing des données
Séance 4 : data challenge
Séance 5 : restitutions data challenge
BIBLIOGRAPHIE INDICATIVE
Le Nagard-Assayag, E., & Manceau, D. (2011). Le marketing de l’innovation-2e éd.: De la création au lancement
de nouveaux produits. Dunod.
Mohr, J. J., Sengupta, S., & Slater, S. F. (2009). Marketing of high-technology products and innovations.
Pearson Prentice Hall.
Moore, G. A. (2009). Crossing the Chasm: Marketing and Selling Technology Project. Harper Collins.

Catégorie: Master 2 / MScT 2A

DESCRIPTIF DU COURS
Ce cours traite de la réception des innovations par les consommateurs et de l’importance des données dans
les pratiques actuelles du marketing de l’innovation. Pour cela, les étudiants participent notamment à un
data challenge (co-organisé avec Assas et l’entreprise Numberly) avec des étudiants d’autres formations.
OBJECTIF PEDAGOGIQUE
L’objectif de ce cours est double. Il vise à faire réfléchir les étudiants sur la manière de commercialiser une
innovation et fournit une expérience originale et vivante de la pratique des données de masse.
STRUCTURE DU SEMINAIRE
Séance 1 et 2 : le consommateur en situation d’innovation
Séance 3 : kit de survie du marketing des données
Séance 4 : data challenge
Séance 5 : restitutions data challenge
BIBLIOGRAPHIE INDICATIVE
Le Nagard-Assayag, E., & Manceau, D. (2011). Le marketing de l’innovation-2e éd.: De la création au lancement
de nouveaux produits. Dunod.
Mohr, J. J., Sengupta, S., & Slater, S. F. (2009). Marketing of high-technology products and innovations.
Pearson Prentice Hall.
Moore, G. A. (2009). Crossing the Chasm: Marketing and Selling Technology Project. Harper Collins.

Catégorie: Master 2 / MScT 2A

Initiation aux structures des données, à l'algorithmique et à l'analyse des algorithmes (amphis).
Perfectionnement à la programmation en Java (TDs).
Ce cours est également l'occasion de se perfectionner en Java. Les TDs explorent en profondeur une partie du matériel présenté en amphi.

Évaluation : Un contrôle continu (pale machine ou devoir à la maison), un examen classant en salle (3h).


Catégorie: Ingénieur 2A

L'analyse de données moderne s'appuie sur des langages de haut niveau comme Python ou R pour la manipulation et le traitement des données. Toutefois, derrière les bibliothèques standard comme Scikit-Learn se cachent des implémentations dans des langages de bas niveau comme C ou C++ pour une exécution optimisée et une gestion efficace des ressources mémoire ou de calcul.

Références:

En analyse de données :

  • Hastie, Tibshirani, Friedman: The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd ed.). Springer, 2017.
  • Scott and Stain: Multi-dimensional Density Estimation. In Handbook of Statistics, volume 23 (Data Mining and Computational Statistics), 2004.

En C++ :

  • Stroustrup. The C++ Programming Language (4th ed.). Addison-Wesley, 2013.
  • Weiss: C++ for Java Programmers. Prentice Hall, 2003.

 

Catégorie: Ingénieur 2A
Outre son importance pour le loisir numérique (jeux vidéos, effets spéciaux, films d'animation 3D), l'informatique graphique 3D est indispensable au prototypage virtuel industriel (design d'objets ou de mécanismes destinés à être fabriqués), aux simulateurs d'apprentissage et autres "serious games", ainsi qu'à la visualisation scientifique, par exemple pour l'exploration visuelle de données ou de résultats de simulation.
Ce cours présente l'ensemble de l'informatique graphique, en se concentrant sur son volet interactif. Il couvre en particulier les techniques de modélisation géométrique, le rendu projectif, et les bases de l'animation 3D.
 
 

 

Catégorie: Ingénieur 2A

Le Web regorge de sources de données que l'on souhaite manipuler à grande echelle. L'approche actuelle est de représenter ces données sous la forme d'un graphe de données ou de connaissance; par exemple les données ouvertes et connectées (open data), les réseaux sociaux, des encyclopedies en lignes. Cette approche est même présente dans les grandes industries du Web, Alphabet (dans Google) et Meta (Facebook).


L'avantage des graphes de connaissances est de pouvoir les interroger à l'aide de langages logiques mais aussi de pouvoir apprendre des propriétés structurelles sur ceux-ci.

Si les graphes de connaissances sont des outils très importants pour la gestion de données sur le Web, toutes les données sur le Web ne sont pas éditées dans un tel model. Il est alors nécessaire de fouiller et d'apprendre dans les textes et autres contenus moins structurés pour construire de nouveaux graphes.


Ce cours introduit les différentes grandes étapes qu'un ingénieur en data science a besoin d'opérer pour extraire des connaisssances de grand volumes de données.
Il vous familiarisera avec des outils concrets pour:

 

Sample graph

Manipuler et visualiser des graphes.
 

Classification des noeuds et des sous-graphes à l'aide des graph embeddings.

 
Raisonner dans des graphes de connaissances, utilisant les technologies du Web Sémantique.
 
Tisser des graphes de connexions entre des textes et des concepts, à l’aide de la sémantique.
 
Fouiller des données textuelles.
 
 
Les 6 premières séances seront destinées à la présentation des concepts et outils, puis vous réaliserez des projets en binôme.
 

 

Catégorie: Ingénieur 2A

This course is a mandatory part of the M1 Graduate Degree Internet of Things: Innovation and Management Program (IoT-IM)

INF552-detailed_description.pdfINF552-detailed_description.pdf

Visualisation des données

La représentation visuelle de données tire pleinement avantage du système visuel humain en termes de perception est de cognition. Les modèles complexes, les points de données intéressants et les valeurs aberrantes peuvent être facilement identifiés ; les points et ensembles de données individuelles peuvent être comparés et contrastés efficacement, à condition que les données sont correctement réprésentées. La visualisation permet aux utilisateurs d'explorer leurs données de manière interactive, d'obtenir des vus d'ensemble et détaillées en suivant des processus qui permettent d'obtenir des informations qu'il serait difficile d'obtenir à l'aide de techniques d'analyse de données entièrement automatisées à partir de domaines comme le data mining ou l'apprentissage machine. Ils ont des objectifs différents mais peuvent se compléter mutuellement efficacement. La visualisation peut, par exemple, aider à formuler des hypothèses qui peuvent ensuite être testées à l'aide de tests statistiques ou d'autres techniques d'analyse de données élaborées. Au-delà de ces aspects d'exploration, la visualisation de données peut aussi appuyer la prise de césision et joue un rôle central dans la communication des résultats auprès d'un large public.

Ce cours commencera par un aperçu du domaine de la visualtion de données. Il abordera ensuite les principes fondamentaux de la perception visuelle humaine, en mettant l'accent sur la manière dont ils contribuent à informer la conception de visualisations. Les cours suivants seront sur les techniques de visualisation pour des structures de données spécifiques et les analyseront en détails du point de vue de la conception et de la mise en oeuvre, y compris : données multivariantes, structures hiérarchiques, réseaux, séries temporelles, données statistiques et géographiques.

 

Tous les exercices sont basés sur les technologies du web, y compris la bibliothèque de logiciels D3 (Data-Driven Documents) et la grammaire graphique intéractive Vega-lite. Bien qu'ils se situent à des niveaux d'abstraction différents, ils permettent aux développeurs de concevoir une série de visualisations interactives et basées sur le web et fonctionnant sur de nombreuses plateformes, allant des bureaux aux appareils mobiles.

 

Requis : une expérience du développement Web (Javascript) est un plus mais n'est pas une exigence absolue.

Plus d'information sur : http://www.enseignement.polytechnique.fr/informatique/INF552/

Matériel pédagogique : http://www.enseignement.polytechnique.fr/informatique/INF552/

Langue : Matériel pédagogique en Anglais. Cours en Francais ou Anglais, à la convenance des élèves.

Course Syllabus

  • Data Modeling: ER model, Relational Model
  • Relational Algebra, Relational Calculus
  • SQL (Structured Query Language)
  • Schema Refinement and Normal Forms
  • Disks, Files, Buffers
  • Tree- and Hash-Structured Indexes
  • Evaluation of Relational Operators (selection, join, group-by aggregation, sorting)
  • Relational Query Optimization (query plans, algebraic equivalence, plan space, cost estimation, search algorithm)
  • Transaction Management
  • Concurrency Control

Nous sommes entrés dans l'ère des mégadonnées. L'explosion de données disponibles dans unlarge éventail de domaines d'applications suscite de nouveaux enjeux dans une pléthore de disciplines, allant des sciences de l'ingénieur au commerce et à la société en générale. Un enjeux principal émerge dans la question de comment prendre l'avantage de ces échelles de données, de manière à acquérir de nouvelles idées et connaissances pour améliorer la qualité des services offerts. C'est là que l'apprentissage machine et profond viennent en capitalisant sur les techniques et les méthodologies issues de l'exploration de données (profilage statistique, visualisation), visant à identifier des schémas, des corrélations, des modélisations et des prévisions. Dans ce domaine, l'apprentissage profond est devenu un élément très important pour la résolution de problèmes de prévision à grande échelle ces dernières années.

 

 

Big Data Era. The explosion of available data in a wide range of application domains give rise to new challenges and opportunities in a plethora of disciplines – ranging from science and engineering to business and society in general. A major challenge arises in the question of how to take advantage of this unprecedented scale of data, in order to acquire further insights and knowledge for improving the quality of the offered services. This is where Machine and Deep Learning comes in capitalizing on techniques and methodologies from data exploration (statistical profiling, visualization), aiming to identify patterns, correlations, groupings, modeling and predicting. In this domain, Deep learning is becoming a very important element for solving large scale prediction problems in recent years. 

Lien de la page du cours : cliquez ici

 

Objectifs :  

L'Analyse de Données Topologiques est un phénomène émergent dans l'exploration d'analyse données et de data mining. ces dernières années. L'idée d'utilisier des outils topologiques pour relever les défis de jeux de données, notamment ceux pour lesquels les observations se situent sur ou à proximité de structures géométriques non triviales qui peuvent tromper les techniques classiques. Les méthodes topologiques sont en effet capable d'extraire des données des informations utiles à propos de ces structures géométriques, et exploiter cette information pour améliorer l'analyse du pipeline.

 

Lectures suggerées :

Herbert Edelsbrunner and John Harer, Computational Topoogy: An Introduction, AMS press
S. Oudot. Persistence Theory: From Quiver Representations to Data Analysis. AMS Surveys and Monographs, Vol. 209, 2015
James R. Munkres. Elements of Algebraic Topology. Perseus, 1984

 

Langue : Le matériel du cours est en Anglais. Les cours peuvent être en français ou en anglais, selon la préférence des étudiants.

Evaluation : Examen final écrit, possibilité d'ajouter un cours en laboratoire noté

Retours de l'année dernière : Si vous vous venez de MP, ce cours est pour vous ; si vous ne venez pas de MP, ce cours est aussi pour vous, bien que vous devrez travailler plus dur. Dans tous les cas, les objectifs restent atteignables et ! Vous pouvez visiter la page du cours pour plus d'information, ou contacter le responsable si vous avez des questions.

Le 21e siècle devient le siècle du data-driven. Les interactions avec les objets de tous les jours peuvent entraîner un d'information, en particulier lorsque : si dans un appartement la porte du réfrigirateur est régulièrement ouverte et fermée, il est probable que l'appartement est inhabité ; si un verre est vide, il est probable que l'habitant est bien vivant, est reste hydraté ; si le barbecue ou le four est fréquemment utilisé, l'habitant est peut-être (et donc un client potentiel pour des régimes alimentaires) ou reçois souvent (et donc un client potentiel pour des articles de fête) ; quelque chose qui analyserait le schéma d'utilisation de la sonnette pourrait révéler...

Pour être capable d'analyser le schéma d'utilisation et les interactions il faut bien sûr que ces actions physiques soient capturées et transformées en données, et que ces données soient communiquées par des objets de tous les jours avec et via l'Internet, et vers le cloud.

Le 21e siècle est donc également le siècle connecté : téléphones, montres, réfrigirateurs, brosses à dent, verres, cafetières, implants médicaux, barbecues, plantes de bureau et fourchettes deviennent des objects connectés qui génèrent des données et donc, qui font partie de l'Internet.

En dehors du marché de consommation, connaître l'état d'une machine, d'un moteur d'avion ou d'une sous-station électique, permet de prévoir des maintenances de prévention et éviter les accidents. Des capteurs intégrés capables de capturer et de communiquer cet état sont une prémisse indispensable.

En effet, une companie qui aujourd'hui, lance un produit qui n'exécute pas d'application et qui ne se connecte pas à Internet est une companie qui n'a tout simplement pas compris les besoins (ou du moins les désirs) de son marché ; tout comme le type qui installe son porte-vélos sur la gauche, qui a clairement mal compris son "marché cible"

De façon à ce que VOUS ne devenez pas celui ou celle qui crée un produit qui rate misérablement le marché, ce cours vous fournit les compétences de base nécessaires pour développer des systèmes connectés.

 

Ce cours est autonome : il demande quelques connaissances en programmation et beaucoup de curiosité, il introduira le reste au fur et à mesure. Chaque cours consistera en un cours magistral, suivi de 2h de laboratoire (TD). Ce cours est conçu de manière à ce que l'étudiant passe 1 à 2 heures par semaine en dehors des cours, pour réviser et/ou terminer les exercices.

 

Recquis :

And so, the 21th century is necessarily also the connected century: smartphones, watches, fridges, toothbrushes, drinking glasses, coffee machines, medical implants, BBQs, office plants, and forks are all becoming connected objects, generating data — and thus, becoming part of the Internet.

Outside of the consumer market, knowing the state of a machine, of an airplane engine, or of a power substation, permits scheduling predictive maintenance and avoid accidents — embedded sensors able to capture, and communicate, this state is a necessary premise.

As a matter of fact, a company launching a product today that doesn't "run an app" and "connects to the Internet" is a company, which just hasn't grasped the needs (or, at least, the desires) of its market - much as the guy installing the bike rack on the left, clearly misunderstood his "target market".

In order to ensure that YOU do not end up being that gal/guy, building a product miserably missing the market, this course provides you with the core competencies, necessary for developing connected systems.

 

This course is self-contained: it assumes some programming skills, and a lot of curiosity — and will introduce the rest as it goes along. Each lesson will consist of a lecture, followed by 2h of lab (TD). This course is calibrated so that a student should expect to spend 1-2h/week outside of class, reviewing material and/or finishing exercises.

 

Requirements:

A good dose of curiosity is required.
(Having followed INF321 or INF311+411 probably won’t hurt)

 

Evaluation mechanism:

Weekly submissions (either of homework, or of quizzes) worth 50% of the final grade, and a final exam QCM worth the other 50% of the grade.

Language:

English (with, at least, bilingual teaching staff)

Avec l'émergence de processeur multi-coeur (et maintenant manycore avec plusieurs dizaines d'unités d'exécution), l'expression du parallélisme est obligatoire pour permettre des hautes performances dans différents types d'applications (calcul scientifique, mégadonnées...). Dans ce contexte, ce cours détaille de multiples paradigmes de programmation parallèle pour permettre l'exploitation d'un grand nombre de coeurs sur différentes architectures cibles (CPU et GPU). Il comprend le modèle de mémoire distribuée (MPI), le modèle de mémoire partagée (OpenMP) et le modèle hétérogène (CUDA). Toutes ces approches permettraient de tirer parti des performances de différents ordinateurs (allant des petits serveurs jusqu'à de très larges superordinateurs du Top500).

 

Niveau requis : INF431 ou équivalent
Modalités d'évaluation : Projet
Langue du cours : Anglais

INF563 — Introduction à la Théorie de l'Information

Responsable : Thomas Debris-Alazard (thomas.debris@inria.fr)


Objectifs :

La théorie de l'information consiste à trouver les limites fondamentales de la compression d'un signal, du stockage des données ou de la communication des informations de manière fiable sur un canal bruyant par exemple. Il s'avère que toutes ces limites peuvent être exprimées en termes d'une seule quantité, qui est l'entropie. Les fondements de ce domaine ont été posé par Shannon qui a quantifié de manière très élégantes ces limites.

Nous aborderons pendant ce cours ses résultats principaux et nous donnerons également une réponse moderne à ce type d'enjeu qui fournissent des schémas très efficaces pour compresser ou protéger les données contre les bruits. Ajourd'hui cette théorie a aussi trouvé des applications dans de nombreux autres secteurs tels que la cryptographie, la biologie, l'informatique quantique, la linguistique, la détection de plagiat ou la reconnaissance des formes. Nous aborderons certains de ces auters applications pendant le cours.

 

Lecture suggérée : T. Cover, J. Thomas, "Elements of Information Theory". Wiley Series in Telecommunications, 1991.

Langue : Le support de cours est en anglais. Les cours peuvent être donnés en frnaçais ou en anglais, à la convenance des étudiants.

Evaluation : Le cours se valide par un examen oral.

 

Prérequis :

  • Des connaissances de base en statistiques ou en théorie des probabilités est recommandée mais pas obligatoire.

  • En informatique : des connaissance en algorithmique et en programmation comme INF411 ou INF421.

 

En raison de percées récentes, de la croissance rapide des collections de données et d'une pléthore d'applications passionnantes, l'intelligence artificielle fait l'objet d'un intérêt et d'un investissement massifs de la part des milieux universitaires et industriels.

Ce cours choisi un nombre de sujets avancés pour explorer l'apprentissage machine et les agents autonomes. Bien que ces sujets soit divers et flexibles, ce cours est développé autour d'un thème commun qui les connecte tous, /////////////////////

Les cours magistraux aborderont la théorie et les TD familiariseront les étudiants avec ces sujetsd'un point de vue pratique. Certains devoirs de TD seront notés et un groupe de travail sur l'apprentissage de renforcement constituera un élément essentiel de la note - l'objectif étant de développer et de déployer un agent dans un environnement et de rédiger un rapport analysant les résultats.

Ce cours porte sur les principes de conception et les fondements algorithmiques des systèmes logiciels influants pour les mégadonnées analytiques. Le cours commence par la conception de grands entrepôts de données d'entreprises, les techniques de traitement des requêtes pour le traitement analytique en ligne et le data mining dans l'entrepôt de données. Le cours étudie ensuite les changements architecturaux fondamentaux vers cluster de serveurs partagé, notamment les bases de données parallèles, MapReduce, columnstore et la prise en charge de traitement par lots, d'algorithmes itératifs, de l'apprentissage machine et des analyses intéractives dans ce nouveau contexte.

 

Evaluation : série devoirs écrits et de programmation + examen final

Langue : Anglais

La synthèse d'images, ou "rendu photoréaliste", est un thème central de l'infographie 3D qui combine un ensemble de méthodes d'imagerie artificielle pour générer automatiquement des images numériques à partir de modèles de scènes virtuelles en 3D. Le rendu est un sujet transdisciplinaire situé à la frontière entre l'informatique, la physique, les mathématiques appliquées et la perception. Il est couramment utilisé dans les domaines de la conception assistée par ordinateur (CAO), de la réalité virtuelle et augmentée, des effets spéciaux visuels, de l'animation numérique, des jeux vidéo, de la simulation et de l'architecture.

Ce cours présente les principes, algorithmes et techniques de la synthèse d'images. Il

Dans ce cours, nous introduisons la technologie bioinformatique fondamentale pour l'analyse des données de séquençage. Nous nous concentrerons sur la compréhension des méthodes informatiques fondamentales qui permettent le traitement direct et d'importantes analyses en aval. Le cours consacre environ un tiers de son temps à discuter des algorithmes de graphes pour l'assemblage des génomes ainsi que de la structure d'index pour la cartographie des données de séquençage de la prochaine et de la troisième génération. Nous présenterons ensuite des méthodes d'annotation, d'alignement et de recherche de motifs et consacrerons une partie à la phylogénomique. Un autre domaine d'intérêt est l'analyse des expériences basées sur le séquençage de l'ARN, afin de révéler la structure et les interactions des ARN. Nous nous pencherons ici sur la combinaison de la structure de l'ARN et de la prédiction des interactions, en insistant sur leur intégration avec les données expérimentales. De plus, nous discuterons des applications des techniques d'apprentissage automatique dans l'analyse, par exemple les méthodes de noyaux spécialisés.

Stages de recherche en Sciences de Données (Data Science)

Les stages de recherche en Sciences de Données abordent un ensemble large et varié de questions, qui illustrent l’importance et la diversité des recherches contemporaines en Intelligence Artificiel, Machine Learning and Bigdata. Ces questions vont de problèmes théoriques auxquels les élèves apportent parfois des réponses innovantes aux applications industrielles, mais toujours avec une composante scientifique ou technologique forte.

Les stages proposés sont issus d’une demande large dans les meilleurs centres de recherche internationaux académiques et industriels. Ils permettent de prendre conscience que les développements innovants, en particulier dans le monde industriel, s’appuient la plupart du temps sur un solide corpus de connaissances théoriques. Ils permettent également de prendre conscience de la complexité, sans précédent historique, des systèmes informatiques construits aujourd’hui. Ainsi derrière un banal processeur se cache toute la chaîne de production informatisée qui va de la conception modulaire jusqu’au dessin des masques, en passant par les algorithmes de preuve symbolique des circuits. De même, la complexité de l’écriture de logiciels devant s’exécuter simultanément et de façon coordonnée sur plusieurs milliers de machines est d’une nature telle qu’il est impossible d’espérer un fonctionnement correct, sans une méthodologie systématique.

Les élèves décidés à faire une carrière dans la recherche das ce domaine y trouveront matière à confirmer leur vocation pour un domaine particulier et découvriront la vie des laboratoires. Les autres élèves pourront se familiariser avec le monde de la recherche et de l’innovation, que la quasi-totalité d’entre eux sera amenée à côtoyer d’une manière ou d’une autre au cours de sa carrière. Ce stage sera aussi l’occasion, pour certains, d’opter pour une formation par la recherche, sanctionnée par un doctorat, qui est souvent le diplôme de référence dans l’industrie informatique mondiale.

Il est fortement conseillé d’avoir suivi l’un des programmes d’approfondissement en Sciences de Données proposés par le département d’informatique pour profiter pleinement de son stage.

 

Niveau requis: M1 en informatique ou équivalent.
Modalités d’évaluation: Les élèves rédigent un mémoire de stage, qu’ils soutiennent devant un jury.

Objectives :

 

This course will introduce students to advanced topics in modern geometric 3D data analysis with focus on a) mathematical foundations (discrete differential geometry, mapping, optimization), and b) deep learning for best performing methods. We will give an overview of the foundations in 3D shape analysis and processing before moving to modern techniques based on deep learning for solving problems such as shape classification, correspondence, parametrization, etc.

Content :

 

The course is divided into four lectures and four lab sessions. The topics covered include:

  • Intro to 3D Shape Representaiton and Discrete Differential Geometry,

  • Optimization of geometric energies,

  • Deep learning on curved surfaces,

  • Analysis and machine learning on point clouds

Language :

The course will be taught in English by Maks Ovsjanikov and Etienne Corman.

 

Evaluation :

Oral paper presentation.

Catégorie: Master 2

(English version below)

Ce cours comporte deux parties, l’une avec Daniel Augot sur la
cryptographie dans les  blockchains, l’une avec Bernadette Charron-Bost sur
les fondamentaux de l'algorithmique distribuée et du problème du
consensus.

 

Le cours de Daniel Augot présente plusieurs sujets abordés
dans le monde des blockchains: rappels sur les fonctions de hachage et les signatures, les nombreuses utilisations
des fonctions de hachage cryptographique; UTXOs, Merkle trees, Ethereum «smart contracts»;
lightning, zero-knowledge, zk-snarks;

Il est structué en 6 blocs de 4h00: 1h30 de cours et 2h30 de TP.

 

Les TP sont en ligne de commande à faire sur votre ordinateur personnel.  You need to preinstall Docker  et docker-compose.

 

 

Bernadette Charron-Bost's course is  as follows (no labs). In agreement problems, each agent of a networked system has an input value and outputs a series of values;  it is required that all the agents eventually output the same value and that this common value is one (or a function) of the input values. Agreement problems arise in a number of applications including consistency in replicated databases, motion of autonomous agents or, more recently, in the blockchain technology. The (exact) consensus problem is a fundamental agreement problem where each agent is aware that agreement has been reached, as opposed to the stabilizing consensus problem where agents are just required to eventually stabilize on the same input value. The blockchain consensus, also called the Nakamoto consensus, corresponds to an intermediate type of agreement. The  goal of this course is to explore the solvability and the complexity of these different agreement problems in various contexts,  depending on the synchrony model, the failure model, and on other features like the fact that the system is open or closed (permissioned vs. permissionless systems).

Catégorie: Master 2

In this course you will be introduced to embedded security with a designer and attacker points of view. More precisely, you will discover that even if you chose a strong cryptographic algorithm to protect data, some secrets may leak during its computation on a mobile device. To do that, you will learn how to program such devices (e.g. smart cards) and how to intercept secrets by using physical probes. From this knowledge you will design some countermeasures to defeat these hardware attacks (e.g. side-channels).

Catégorie: Master 2

In the discovery Lab sessions students will be introduced to basic experimental techniques, data analysis and interpretation, and documentation of experimental work.

Up to 6 experimental labs constitute this course, covering three main disciplines: Mechanics, Physics and Chemistry. Examples of projects carried out in previous years are harmonic oscillators, forces and equilibrium; kinematics and collisions; determination of fundamntal phyiscal constants (e.g. speed of light, Planck constant); construction and test of a lithium battery; polymers in molecular cuisine.

Catégorie: Bachelor 1

Préparez-vous à réussir l'examen TOEFLiBT grâce à ce cours dynamique et engageant. Grâce à des activités interactives et des exercices pratiques, vous maîtriserez les principales techniques d'enseignement et les stratégies d'examen. Ce cours est conçu pour les étudiants qui souhaitent gagner en confiance et réussir le TOEFLiBT.

Catégorie: Ingénieur 2A

Introduction
Le cours fournit aux étudiants un aperçu général de l’industrie des technologies de l’information.
Ils apprendront le vocabulaire pour décrire le marché, les produits et services, les acteurs, la concurrence et les enjeux.

Catégorie: Ingénieur 2A

Course Description

 

From medieval alchemy to Da Vinci’s works to present-day art+science labs, art and science have always collaborated. This course catches a glimpse of those collaborations and questions the relationship of art and science. Topics may include any kind of art (visual arts which is the most often convened, but also poetry, dance, drama, music, etc.) and any scientific discipline or area (data science, AI, quantum physics, gene editing, ecology, etc.), providing they intersect. Through a sample of those practices, we will try to refine our ideas about what science and art do, what they have in common, what they bring to each other, in the hope that by the end of the course you will look at both art and science differently.

Catégorie: Ingénieur 2A

Alors que la Grande-Bretagne se retire de la scène européenne, que la frontière irlandaise complique les futures négociations commerciales et que l’Écosse menace de reconsidérer sa position au sein du Royaume-Uni, on pourrait nous pardonner de douter du génie stratégique à long terme des récents gouvernements conservateurs.

En plus d'essayer de comprendre les problèmes contemporains, nous reviendrons également sur certaines périodes clés de l'histoire britannique, en nous appuyant sur les perspectives d'une variété d'artistes, d'écrivains et de comédiens.

Les cours comprennent de courtes présentations, la rédaction d'essais et de nombreux travaux en groupe et en binôme.

Catégorie: Ingénieur 2A

The objective of this course is to take an in-depth look at the “Other”. We’ll think about and discuss the concept itself, hone in on the norms and techniques that have been used to identify and marginalize groups of people, and highlight some of the concrete roles “others” have played in the shaping of our communities.

From a historical perspective, the course will focus in on different instances wherein "others" have played a crucial role in societal change. From a cross-cultural perspective, we will become acquainted with the different practices, institutions and norms that contribute to "othering" not only people, but also wildlife, the world we inhabit and technical objects.

Students will be invited to conduct anthropological investigations: through critical use of advertising, political institutions, ethnography, film, literature, news media, social media data gathering, pop culture etc. you will isolate some of the techniques through which types of othering occur and are perpetuated.

Finally, a philosophical component will help us understand what the terms “other”, “otherness” and “othering” might mean for those who wish to use them: not only theorists, but also poets, playwrights and novelists have contributed to our understanding of alterity and the human condition.

Coursework includes: some reading in preparation for class (theory, poetry, prose and empirical studies); stimulating class discussion; a group “decoding” project (e.g., video, advert, visual analysis…), one 5 page research paper OR fictional work exploring our theme.  

Ce cours s'adresse aux arabophones confirmés (niveau fort). Un cours à contenu thématique sera prévu pour aborder des sujets de société, de civilisation et de culture liés au monde arabe. Pour cela nous exploiterons divers supports (films, documentaires, vidéos, texte anciens et modernes, presse, caricatures, ...) qui donneront l'occasion d'approfondir le thème retenu et de susciter des échanges entre les élèves.

Évaluation: participation positive et active en cours + assiduité


Evaluation: positive and active participation in class + attendance

Catégorie: Ingénieur 2A

Ce cours s'adresse aux arabophones confirmés (niveau fort). Un cours à contenu thématique sera prévu pour aborder des sujets de société, de civilisation et de culture liés au monde arabe. Pour cela nous exploiterons divers supports (films, documentaires, vidéos, texte anciens et modernes, presse, caricatures, ...) qui donneront l'occasion d'approfondir le thème retenu et de susciter des échanges entre les élèves.

Évaluation: Exposé oral + Contrôle écrit final (Etude de documents, composition, dissertation, traduction) + participation positive et active en cours + assiduité

Catégorie: Ingénieur 2A

Il s'agit d'un cours de perfectionnement. Il s'adresse à des arabophones ou arabisants confirmés, d'un niveau "C" selon le Cadre Européen de Référence pour les Langues.
L'objectif est de consolider les acquis des élèves, aussi bien culturels que linguistiques, à l'écrit comme à l'oral. Un accent particulier est cependant mis sur la préparation à l'échange oral et à la compréhension de textes divers et de documents sonores, dans l'esprit de l'enseignement d'une langue arabe vivante. Les cours se déroulent entièrement en arabe standard.

Le point de départ est un thème en lien avec le monde arabe. Des documents variés, principalement textuels permettent d'introduire la problématique. Ils sont aussi l'occasion, le cas échéant, de consolider l'apprentissage des méthodes de l'analyse textuelle et d'aborder des problèmes linguistiques, notamment grammaticaux. Le souci est ainsi permanent d'allier langue et culture.

Après l'étude du document qui fournit des informations sans lesquelles le débat est souvent stérile, la parole est donnée aux élèves, soit après une préparation, soit en improvisation, pour débattre. La prise de parole en continue est ainsi systématiquement sollicitée et travaillée, mais dans le cadre de débats organisés et informés. Il est aussi confié des exposés aux élèves, à préparer individuellement ou en groupes, qui donnent lieu également à des débats.
L'évaluation prend en compte aussi bien l'écrit que l'oral.
Exemples de thèmes proposés:

Le statut de la langue arabe dans le monde (langue régionale /langue internationale).
La relation arabe standard arabe dialectal.

Les voyageurs arabes et le voyage dans la culture arabe.

Relation entre poésie et pouvoir.

Les voies de transmission de l'héritage culturel arabo-islamique à travers les différentes époques. 

Cités et habitat dans le monde arabe.

Catégorie: Ingénieur 2A

Ce cours s'adresse aux arabophones confirmés (niveau fort – B2/C1/C2). Un cours à contenu thématique sera prévu pour aborder des sujets de société, de civilisation et de culture liés au monde arabe. Pour cela nous exploiterons divers supports (films, documentaires, vidéos, texte anciens et modernes, presse, caricatures, ...) qui donneront l'occasion d'approfondir le thème retenu et de susciter des échanges entre les élèves.

De l’alchimie médiévale aux labs d’art+science d’aujourd’hui en passant par les travaux de Léonard de Vinci, l’art et la science ont toujours collaboré. Ce cours propose un aperçu de telles collaborations et interroge la relation entre l’art et la science. Toute forme d’art peut y être traitée (les arts visuels en priorité, mais également la poésie, la danse, le théâtre, la musique, etc.) et toute discipline scientifique peut y être convoquée (data science, intelligence artificielle, biologie, physique quantique, etc.) pourvu qu’elles aient collaboré dans un cadre artistique. A travers un échantillon de ces pratiques, nous affinerons nos idées sur ce que font l’art et la science, ce qu’ils ont en commun, ce qu’ils s’apportent mutuellement, avec l’idée que ce cours vous donne une nouvelle vision de l’art comme de la science.

Catégorie: Ingénieur 2A

Alors que la Grande-Bretagne se retirait de la scène européenne, que la frontière irlandaise compliquait les négociations commerciales et que l’Écosse menacait de reconsidérer sa position au sein du Royaume-Uni, on pouvait pardonner au public britannique de douter du génie stratégique à long terme des récents gouvernements conservateurs. Enfin de retour au pouvoir comment les travaillistes jouissent-ils de leur écrasante majorité?

En plus de chercher à comprendre les problèmes contemporains, nous reviendrons également sur certaines périodes clés de l'histoire britannique, en nous appuyant sur les perspectives d'une variété d'artistes, d'écrivains et de comédiens.

Les cours comprennent de courtes présentations, la rédaction d'essais et de nombreux travaux en groupe et en binôme. Certains documents (vidéo notamment) utilisés lors du cours pouvant poser un défi de compréhension ce cours est recommandé pour les bons B2 et au-dessus.

Catégorie: Ingénieur 2A

Introduction
Le cours fournit aux étudiants un aperçu général de l’industrie des technologies de l’information.
Ils apprendront le vocabulaire pour décrire le marché, les produits et services, les acteurs, la concurrence et les enjeux.

Catégorie: Ingénieur 2A
  • Comics Part 2: L'Aventure continue!

    Vous avez apprécié Comics Part 1? Vous êtes prêts à explorer de nouvelles productions de pop culture reflétant la société contemporaine, aux Etats Unis et au-delà? Ce cours est fait pour vous!

    Il vous permettra d'élargir vos connaissances culturelles, d'aiguiser votre sens critique, et de perfectionner vos compétences écrites et orales - tout en explorant votre créativité! Prêts pour un voyage plein de surprises dans le monde de la BD et des Comics?

Students will be required to participate actively in class, complete regular reading assignments, and write one essay.

 

Catégorie: Ingénieur 2A

Alors que la Grande-Bretagne se retirait de la scène européenne, que la frontière irlandaise compliquait les négociations commerciales et que l’Écosse menacait de reconsidérer sa position au sein du Royaume-Uni, on pouvait pardonner au public britannique de douter du génie stratégique à long terme des récents gouvernements conservateurs. Enfin de retour au pouvoir comment les travaillistes jouissent-ils de leur écrasante majorité?

En plus de chercher à comprendre les problèmes contemporains, nous reviendrons également sur certaines périodes clés de l'histoire britannique, en nous appuyant sur les perspectives d'une variété d'artistes, d'écrivains et de comédiens.

Les cours comprennent de courtes présentations, la rédaction d'essais et de nombreux travaux en groupe et en binôme.

Catégorie: Ingénieur 2A






Ce cours est un cours basé sur la discussion pour familiariser les étudiants avec différentes controverses et théories du complot, apprendre à les analyser, les déconstruire, les tester avec la logique, la raison et les faits, et exercer leur esprit critique. Il vise à aider à améliorer les compétences en anglais oral, le vocabulaire et les méthodes de recherche. Les étudiants doivent faire des présentations sur une controverse ou une théorie du complot et diriger la discussion en classe, participer activement aux autres discussions de la classe et s'intéresser à l'actualité, aux nouvelles et aux médias.

L'objectif de ce cours est d'examiner en profondeur la notion de l'« Autre ». Nous réfléchirons et discuterons du concept lui-même; ensuite, nous nous pencherons sur les normes et les techniques qui ont été utilisées pour identifier et marginaliser des groupes de personnes, et nous mettrons en évidence certains des rôles concrets que les « autres » ont joué dans la formation de nos communautés.
D'un point de vue historique, le cours se concentrera sur différents cas où les « autres » ont joué un rôle crucial dans l'évolution de la société. D'un point de vue interculturel, nous nous familiariserons avec les différentes pratiques, institutions et normes qui contribuent à « l'altérité » non seulement des personnes, mais aussi de la faune et de la flore, du monde que nous habitons et des objets techniques.
Les étudiants seront invités à mener des enquêtes anthropologiques : par l'utilisation critique de la publicité, des institutions politiques, de l'ethnographie, du cinéma, de la littérature, des médias d'information, de la collecte de données sur les médias sociaux, de la culture pop, etc. vous isolerez certaines des techniques par lesquelles les types d'altération se produisent et se perpétuent.
Enfin, une composante philosophique nous aidera à comprendre ce que les termes « autre », « altérité » et « altération » peuvent signifier pour ceux qui souhaitent les utiliser : non seulement les théoriciens, mais aussi les poètes, les dramaturges et les romanciers ont contribué à notre compréhension de l'altérité et de la condition humaine.
Le travail de cours comprend : des lectures préparatoires (théorie, poésie, prose et études empiriques) ; des discussions stimulantes en classe ; un projet de « décodage » en groupe (par exemple, vidéo, publicité, analyse visuelle...), un travail de recherche de 3-5 pages OU une œuvre de fiction explorant notre thème.

Ce cours est conçu comme un atelier de recherche basé sur la discussion, le travail en groupe et en binôme, impliquant le débat, la présentation et la narration, qui tente de comprendre les structures de pouvoir sophistiquées et les forces visuelles influentes qui se cachent derrière les choix de consommation que nous faisons dans notre vie de tous les jours. C'est un moyen d'examiner les histoires qui se cachent derrière l'industrie et les produits, tout en explorant clairement les besoins, les souhaits et les désirs qui motivent nos décisions à la fois collectivement et individuellement. C'est aussi un moyen de repenser la façon dont la vitesse pure de notre époque sert d'intrant à un accès qui conduit invariablement à une production d'excès sans limites. Qu'il s'agisse de l'IA qui anime les cabinets d'architectes ou les films hollywoodiens, ou des leviers socio-économiques qui se cachent derrière la Fast Fashion, le Big Ag ou le Big Data, nous aborderons une série de sujets qui permettront de mieux comprendre ce qui a été, mais surtout ce qui est à venir.

L'étudiant peut :

  • Comprendre des phrases isolées et des expressions fréquemment utilisées en relation avec des domaines de l'environnement quotidien (par exemple, informations personnelles et familiales simples, achats, travail)
  • Pouvoir communiquer lors de tâches simples et habituelles ne demandant qu'un échange d'informations simple et direct sur des sujets familiers et habituels
  • Savoir décrire avec des moyens simples sa formation, son environnement immédiat et évoquer des sujets qui correspondent à des besoins immédiats
Catégorie: Bachelor 1

Dans ce cours, les étudiantes et étudiants, de niveau A2, auront la possibilité d’acquérir des connaissances sur la structure grammaticale du français et en particulier de tournures très employées à l’oral (révisions du présent de l’indicatif, du futur proche et du passé récent, formation de l’imparfait et du passé composé, initiation au conditionnel présent). Ils et elles pourront acquérir un vocabulaire lié aux situations du quotidien (environnement proche, loisirs, habitudes, transports) et à la culture française. Ils et elles s’entraîneront à se confronter à des situations diverses pour être capables d’entrer avec davantage de confiance en communication avec des personnes de langue maternelle française.  

Les connaissances et compétences acquises seront évaluées tout au long du semestre avec, en fin de semestre, des objectifs de niveau B1.

Le cours d’italien niveau débutant est destiné aux élèves qui souhaitent apprendre rapidement les bases de la langue afin de pouvoir comprendre et se faire comprendre, engager une conversation courante, lire, écrire. L’apprentissage de la grammaire constitue la base de l’enseignement, à l’aide d’exercices intensifs et interactifs à l’écrit comme à l’oral. Aucun aspect de l’apprentissage n’est négligé : lecture, traduction, écoute, transcription de textes de chansons, chant, opéra, théâtre, cinéma. Situations, vocabulaire, gestuelles, culture, seront intégrés dans le but de rendre les élèves acteurs de leur apprentissage. La grammaire sera abordée selon une progression cohérente dans le cadre de situations d’apprentissage contextualisées.
Les pratiques de communication constitueront donc l'objectif prioritaire de l'apprentissage. Leur enseignement demeurera indissociable de l’étude de la culture dans laquelle les pratiques linguistiques s’insèrent.

Catégorie: Ingénieur 2A

Ce cours C1/C2 permet aux apprenants de progresser dans leur apprentissage de la langue chinoise: acquérir du vocabulaire et des nouvelles structures grammaticales du niveau avancé, acquérir certaines connaissances culturelles pour mieux comprendre la société chinoise d’aujourd’hui, donc pour pouvoir communiquer, intervenir et interagir de manière pertinente, préparer le test de compétence linguistique (HSK, indispensable pour postuler pour des universités chinoises)

Catégorie: Ingénieur 2A

MAA204 is an introductory course in statistics, with complements in probability. Topics include displaying and describing data in one or two dimensions, writing a statistical model, providing probabilistic properties of this model and establishing limit theorem. This will finally allow the introduction of the first basics in inferential statistics (estimators, confidence intervals and hypothesis testing).

The final grade is computed with the formula 

max(exam grade, 0.5*(exam grade + small classes grade))

A litteral grade is then given based on the following rule 

[0,7[ = E ; [7,9[ = D ; [9,10[ = C ; [10,11[ = B- ; [11,12[ = B ; [12,14[ = B+ ; [14,16[ = A- ; [16,18[ = A ; [18,20] = A+.

To validate the minimal grade is C.

 

Catégorie: Bachelor 2

Deep Learning is one key element of modern data science. This course will explore several instances of Deep Neural Networks, each one being specifically adapted to solve a particular learning task (classification, image recognition, text mining, dimensionality reduction). An introduction to current research topics on neural network will be presented during the last part of the course.

Catégorie: Master 2

L’aléa joue un rôle déterminant dans des contextes variés et il est souvent nécessaire de le prendre en compte dans de multiples aspects des sciences de l’ingénieur, citons notamment les télécommunications, la reconnaissance de formes ou l’administration des réseaux.

Plus généralement, l’aléa intervient aussi en économie (gestion du risque), en médecine (propagation d’une épidémie), en biologie (évolution d’une population) ou en physique statistique (théorie des transitions de phases).

Dans les applications, les données observées au cours du temps sont souvent modélisées par des variables aléatoires corrélées dont on aimerait prédire le comportement. L’objet de ce cours est de formaliser ces notions en étudiant deux types de processus aléatoires fondamentaux en théorie des probabilités : les chaînes de Markov et les martingales. Des applications variées seront présentées pour illustrer ces concepts.


Référence bibliographique 


"Promenade aléatoire: chaînes de Markhov et martingales", Thierry Bodineau (2023)

Level required: Good knowledge of core course MAP361.

Evaluation methods : A grading test at the end of the course.

 

Catégorie: Ingénieur 2A

Objectives

Statistics is the essence behind data science. It is clearly essential to have a deep understanding of the theory and the methods. This is a prerequisite before following a machine learning course.

 

Syllabus

  • Elements of decision theory: risk, loss, decision rules
  • Optimal decisions, unbiasedness, equivariance, sufficient statistics
  • Pointwise estimator: Z-estimator, M-estimator
  • Asymptotical results: law of large numbers, central limit theorem, consistency, asymptotic normality
  • Maximum likelihood, Fisher information, Kullback Leibler, asymptotic optimality
  • Tests: definitions, the Neyman-Pearson lemma, Uniformly Most Powerful test, p-value

Langue du cours : Anglais

Objectives

The objective of this course is to introduce linear. Regression plays a key role in many problems and it is absolutely essential for a datascientist to understand the theory and the practice of regression analysis. It is also an important vehicle to address the statistical challenges in statistical learning : model selection, penalisation, resampling (bootstrap, cross-validation) robustness, detection of outliers, and also methods to detect deviations from an assumed model. The course will also serve as a motivation to sharpen the understanding of statistical techniques, covering both estimation and tests.

Syllabus

1.    Introduction to statistical learning
Regression: Learning objectives and applications
Linear models : interpretation, examples
Least-Square estimators properties (bias, variance)
Case study: univariate and multivariate regression
Multivariate Linear Regression: Parametric casee
Construction of least-square estimators
2.    Parametric true model
Distribution of least-squares estimatorsAsymptotic properties
Gaussian case (distribution of the parameters, confidence regions)
Confidence intervals and tests
Classical regression diagnostic (leverage points)
Case studyAlgo: understanding  multiple linear regression with R (lm summary, detecting outliers, understanding classical regression diagnosis)

3.    Residual analysis (homoscedasticity, non-linear dependence)
    Outlier detection (leverage effects, influence, introduction to robsut statistics)
Functional modelintroduction to non-parametric regression : from parameters to functions
Multiple models for a single problemFunction classes, model selection
Variable choice / Basis / Spline
Bias / Variance (Approximation error / Estimation Error)
Case study : Spline regression

4.    Model Selection and Resampling
Approximation Error / Estimation Error
Learning Error / Generalization Error
Resampling based method: jacknife, bootstrap, and Cross Validation
Case study: model selection with CV

5.    Model Selection and Unbiased Risk Estimation
Unbiased Risk Estimation
AIC/BIC Penalization and Exhaustive Exploration
Forward / Backward and Stochastic Exploration
Multiple tests

6.    Model Selection and Penalization
Restricted Model and Penalization
Ridge and Lasso
Numerical algorithm: Gradient Descent and Coordinate Descent
Case study: Coordinate Descent and Lasso



Langue du cours : Anglais

Data_camp_capgemini_session2019_syllabus.pdfData_camp_capgemini_session2019_syllabus.pdf

Objectifs :

Students will put their basic machine learning and data analysis knowledge to test for solving practical data science problems in scientific or industrial applications. Typically, we will treat two/three concrete problems coming from scientific or industrial applications (e.g., brain imaging, astrophysics, biology/chemistry, ad placement, insurance pricing). We describe and formalize the motivating problem, discuss the possible solutions, choose one, and assist the students in solving the problem. We will provide data, advise students on their choice of tools, and set up a challenge environment where students can submit their solutions. Evaluation will be based on homework assignments and performance in the challenges.

Validation :

Evaluation at the end of each data camp

Objectives :
Machine learning is a scientific discipline that is concerned with the design and development of algorithms that allow computers to learn from data. A major focus of machine learning is to automatically learn complex patterns and to make intelligent decisions based on them. The set of possible data inputs that feed a learning task can be very large and diverse, which makes modelling and prior assumptions critical problems for the design of relevant algorithms.
This course focuses on the methodology underlying supervised and unsupervised learning, with a particular emphasis on the mathematical formulation of algorithms, and the way they can be implemented and used in practice. We will therefore describe some necessary tools from optimization theory, and explain how to use them for machine learning. Numerical illustrations will be given for most of the studied methods.

We will follow the book from Hastie, Tibshirani and Friedman called "Elements of Statistical Learning". This will define the structure of the course even if we will sometime complement the book during the lectures


Syllabus :

  1. Overview of Supervised Learning (Chap 1, new)
  2.  Linear method for regression (Chap 2, compl.)
  3. Linear Methods for Classification (Chap3, compl.), Kernel Smoothing Methods (Chap 6, compl.)
  4. Model Assessment and Selection (Chap 7, new)
  5. Trees (Chap 9, new), Boosting (Chap 10, new)
  6. Averaging (Chap 8, new), Random Forests (Chap 15, new), Ensemble Methods Chap 16, new)
  7. Neural networks (Chap 11, new)
  8. Support Vector Machines (Chap 12, compl.)

Language : English

MAP542 Numerical processing of financial data
 
We will start with a short tutorial on Pandas with examples based on financial data.
 
The course will tackle the following topics:
 
· Sequential data in one dimension (main example: equity indices - SP500, Eurostoxx) : missing values, missing dates, interpolation. Estimation of volatilities, autocorrelations.
· Sequential data multi-dimensional : correlations, scarcity of data for high dimensional correlations estimation, inversion of covariance matrices.
· Order book data : volumes, information at bid and ask sides, slippage, market impact of a trade (data: order books on cryptocurrencies)
· Yield curves reconstruction/interpolation : from bonds, from futures (e.g. on cryptocurrency).
· Options data :
  • option prices (on large equity index such as SP500), reconstruction of forward and discount factor from put-call parity.
  • Black Scholes formula with some justification (without continuous time stochastic calculus), computation of implied volatilities (bisection method, Newton method).
  • Static no-arbitrage conditions on option prices and implied volatilities, fitting of a parametric implied volatility smile (SVI, SSVI).

This a Data Camp based on the challenges proposed by the ENS: https://challengedata.ens.fr/

You can choose any of the proposed challenges. You will have to work in groups in groups of three to four students and have to provide a solution by the end of march. To help you, we will organize non mandatory coaching sessions on Mondays afternoon.

L'apprentissage machine est une discipline scientifique la conception et le développement d'algorithmes qui permettent aux ordinateurs d'apprendre à partir de données. est d'apprendre des schémas complexes automatiquement et de faire des décisions intelligentes fondées sur ces modèles.

Ce cours se concentre sur la méthodologie sous-jacent l'apprentissage supervisé eet non supervisé, en insistant particulièrement sur la formulation mathématiques des algorithmes et la façon dont ils peuvent être mis en oeuvre et utilisés en pratique. Nous allons donc décrire quelques outils indispensables issus de la théorie de l'optimisation et expliquer comment les utilisés pour l'apprentissage machine. Un aperçu sur les garentis théoriques, tels que les limites supérieurs sur l'erreur en généralisation, sera fourni lors du dernier cours.

La méthodologie sera la principale préoccupation des cours, tandis que certaines preuves seront réalisées pendant les PC. La pratique sera réalisé par le biais d'un défi.

Connu dans un premier temps pour ses succès dans le domaine des télécommunications, le traitement du signal fait désormais partie de tous les domaines de traitement des données qui demande d'analyser, d'extraire et de transformer des informations numériques. Ce cours est une introduction au domaine du traitement du signal et requiert donc les connaissances de base d'analyse (transformée de Fourier), de probabilités (variables aléatoires, processus aléatoire) et d'algèbre linéaire.

Le cours commence par une présentation d'analyse de Fourier et de filtrage analogique avec des exemples explicatifs tels que la modulation et l'optique de Fourier en astronomie. Ensuite nous introduirons l'échantillonage de signaux et le filtrage du signal numérique qui est devenu le standard de fait dans les applications pratiques. Nous étudierons le très important algorithme de la transformée de Fourier rapide et discuterons des exemples de filtrage dans le traitement de l'image. Nous étudierons ensuite les aspects aléatoires/stochastiques des signaux et le filtrage linéair optimal du signal et du bruit lorsqu'ils sont modélisés comme des processus stochastiques. sera également pris comme exemple pour l'étude des modèles autorégressifs. La dernière partie du cours présentera brièvement plusieurs représentations de signaux couramment utilisés, comme la transformée en cosinus discrète (TCD) et les transformées d'ondelettes utilisées dans l'encodage de JPEG et les reconstruction d'images. La transformée de Fourier à court terme sera également présentée pour modéliser les signaux non stationnaires. Enfin, quelques approches récentes basées sur l'apprentissage machine seront présentées, comme le dictionnaire d'apprentissage et reconstruction du signal par l'apprentissage profond.

Ce cours sera complété par des travaux pratiques en Python/Numpy qui permettront aux étudiants de mettre en oeuvre les méthodes vues en cours sur des problèmes pratiques tels que la génération d'un sgnal audio et le filtrage.

 

Le cours sera en anglais ou en français selon le public, avec un support de cours en anglais.
Des connaissances sur Python/Numpy sont fortement recommendées pour les travaux pratiques.

**Evaluation** : rapports de travaux pratiques et examen final théorique + pratique

Syllabus:

Le but de ce cours est de présenter un panorama rigoureux de techniques statistiques modernes permettant de répondre à des questions fondamentales de modélisation et d'estimation se posant en pratique.

Nous nous intéresserons notamment aux valeurs extrêmes, aux dépendances multidimensionnelles présentes dans les données, ainsi qu'aux aspects dynamiques. Les domaines d'application des méthodes étudiées dans ce cours sont entre autres la finance et l'économie, la biologie (dynamique des populations, sismologie, épidémiologie...), la climatologie, l'analyse des réseaux ou encore le sport (données de match, données de performance...). 

L'objectif de ce cours est de montrer aux étudiants comment les statistiques sont utilisées dans la pratique pour répondre à une question précise, en introduisant une série d'approches importantes basées sur des modèles.

Les étudiants apprendront à sélectionner et utiliser les méthodologies stratégiques appropriées et à aquérir des compétences solides et pratiques à l'aide d'exemples concrets d'ensembles de données réelles issus de différents domaines y compris, entre autres, de la médecine, génomique, écologie.

Toutes les analyses seront réalisées sur un logiciel R. Des connaissances en programmation R ne sont pas requises (seulement en script de base).

 

https://jchiquet.github.io/MAP566/

Evaluation : 1 ou 2  projects de groupe + 1 rapport de PC + un examen final
Langue du cours : Français

Les récents développements dans les apporches du réseau neuronal (plus connu sous le nom de "apprentissage profond") ont considérablement changé le paysage de plusieurs domaines de recherche tels que la classification d'images, la détection d'objets, la reconnaissance vocale, les voitures autonomes et bien plus. En raison de sa promesse d'exploiter de grandes (et parfois petites) quantités de données de bout en bout, c'est-à-dire former un modèle pour qu'il puisse extraire lui-même des caractéristiques et apprendre à partir de celles-ci, l'apprentissage profond est de plus en plus populaire auprès d'autres secteurs d'activité : médecine, analyse des séries temporelles, biologie, simulation...

Ce cours est une étude approfondie des détails pratiques des architectures d'apprentissage profond, dans lesquelles nous essayons d'expliquer l'apprentissage profond et de vous inciter à l'utiliser dans votre propre domaine d'intérêt. Pendant ce cours vous permetrta de mieux comprendre les bases de l'apprentissage profond et serez familiarisé avec ses applications. Nous vous montrerons comment configurer, entraîner, déboguer et visualiser votre propre réseau neuronal. Nous fournirons également des astuces d'ingénierie pratique pour entraîner ou adapter les réseaux neuronaux à de nouvelles tâches.

Directeur d'option:
Grégoire Allaire
Mail : stages-map591@cmap.polytechnique.fr

Secrétariat du Département de Mathématiques Appliquées
Tél.: 01 69 33 46 07
Fax : 01 69 33 46 46.
Mail : leyla.marzuk@polytechnique.edu

 

L’analyse et le traitement automatique d’informations contenues dans des signaux ou des images est une branche importante du traitement des données dont les applications sont considérables. Les domaines d’applications sont très variés : imagerie médicale, apprentissage et reconnaissance (images ou parole), vision par ordinateur, problèmes inverses, compression, télécommunications...

Des stages sont offerts en France ou à l'étranger, en milieu industriel ou dans des centres de recherche.
Nos partenaires étrangers sont en Europe (UK, Allemagne, Autriche, Suisse), mais aussi aux Etats-Unis, en Australie, ...
Dans tous les cas, l’objectif est de donner aux élèves l’occasion de participer à un travail de recherche ou à un développement industriel innovant, tout en enrichissant leurs connaissances. Ces stages comportent tous une partie modélisation et implémentation dont le ratio dépend du stage.

Cette option est dans le sillage du cours MAP555 de Traitement du signal mais ce cours n'est en rien un prérequis.

Un catalogue de stage est disponible en ligne mais nous sommes à votre disposition pour vous aider à construire votre stage de rêve sur cette thématique.

 

Langue du cours : Français
Credits ECTS : 20

Responsables d'option
Vincent Bansaye - Probabilités
Mail : bansaye@cmap.polytechnique.fr

Eric Moulines - Statistiques
Mail : eric.moulines@polytechnique.edu

Aymeric Dieuleveut - Machine Learning
Mail : aymeric.dieuleveut@polytechnique.edu

Secrétariat du Département de Mathématiques Appliquées
Tél : 01 69 33 46 07
Fax : 01 69 33 46 46
Mail : leyla.marzuk@polytechnique.edu

 

Les stages de "Modélisation probabiliste et statistique" concernent généralement la construction et l'étude de modèles probabilistes destinés à décrire et analyser au mieux des phénomènes physiques, biologiques, informatiques ou économiques. Selon les objectifs visés, les modèles peuvent être des modèles issus du machine learning (apprentissage statistique) utilisés comme outils pour analyser des données et proposer des prévisions (estimation, tests, prévision..) ou être analysés avec des méthodes probabilistes afin d'en cerner leurs comportements et leurs limites. A noter qu'avec l'essor mondial de l'IA, les données, massives (big data) ou pas, et l'élaboration d'algorithmes de machine learning adapté sont au coeur de nombreux stages proposés.
Les domaines d'application de ces méthodes sont très divers : biologie (dynamique des populations, transmission du patrimoine génétique, sélection phylogéniques, réseaux de régulation biologique...), réseaux de communication (caractérisation du trafic, analyse probabiliste de protocoles, contrôle de la congestion), assurance (tarification, prévision des provisions...), économie (analyse et prévision d'agrégats macro-économiques...), etc.

Ces stages sont particulièrement destinés aux élèves ayant suivi le programme d'approfondissement de Mathématiques Appliquées (notamment les cours "Processus et estimation", "Réseaux de communication, algorithmes et probabilités", "Apprentissage statistique", "Modèles aléatoires en écologie et évolution").

 

 

Exemples de stages proposés les années précédentes :

IN FRANCE

  • EDF
    Uncertainty about prediction of electricity consumption.
    Analysis of the use of electrical interconnextions in Europe.

  • VEOLIA
    Biodiversity modelisation in basin of activated sludges.

  • SCHLUMBERGER
    Uncertainty assessment for CO2 geological storage integrity.

  • THOMSON
    Navigability with a bias.

  • TELECOM PARISTECH
    Dynamical share of bandwidth in the Internet.

  • INRIA
    Probabilistic methods for the Poisson-Boltzmann equation in molecular dynamics.

  • INRA
    Cyclostationary analysis of the Caledonian climate.
    Statistical models for the analysis of biological interaction network.
    Study of regrowth dynamics outside crop plots in an agro-ecosystem.

  • ORANGE
    Random walk in the city.

 

ABROAD

  • UNIVERSITY OF CALIFORNIA (Berkeley)
    Development of flow model based algorithms for highway traffic estimation (Mobile Millenium).
    Using mobile phones to estimate travel times in urban networks through the STARMA model.
    Traffic forecasting using statistical machine learning.

  • COLUMBIA UNIVERSITY (New York)
    Verification / testing of statistical decadal forecasts.
    Subnational Carbon Emissions from Selected Countries.

  • IMPERIAL COLLEGE (London)
    Influence in on-line social networks.
    Dissemination of Information in Distributed Networks.

  • EPFL (Lausanne)
    Stabilité des réseaux d'accès sans fil: impact de la topologie.

  • CMM-UNIVERSITY OF CHILE (Santiago)
    Mathematical modeling and analysis of metabolic interaction networks.

  • UNIVERSITA ROMA 3 (Rome)
    Mixing time for reversible Markov Chains and applications.

  • UNIVERSITY OF WATERLOO (Canada).
    Bandwidth allocation policies in Wireless Networks.

  • NRS (Montréal)
    Qualité de service et tarification des réseaux IP.

 

Course language: French

Responsables d'option :
Stefano De Marco
Mail : stages-map595@cmap.polytechnique.fr

Pierre Henry-Labordère
Email: stages-map595@cmap.polytechnique.fr

Nizar Touzi
Email: stages-map595@cmap.polytechnique.fr

Secretariat of the Applied Mathematics Department
Assistant of the departement: Leyla Marzuk
T. +33 (0)169334607 – leyla.marzuk@polytechnique.edu

 

Internships offered in Financial mathematics generally take place in centers of research of banks or other organisms, such as investment funds. For some internships, it is mandatory to have taken the Year-3 course of "Stochastic models in finance". Internships abroad take place either in the bank or in academical centers of research.

Some internships require several interviews with different teams.

 

Example of internships of the earlier years:

En France

  • AXA
    Optimization of pricing strategy

  • CMAP
    Principal-Agent to several agents and to a jump dynamic. Applications to the structuing and pricing of electricity contracts


    CREDIT SUISSE
    Genetical methods for portfolio optimization

  • KEPLER CHEVREUX
    Dynamics of order-book data and algorithm detection

  • SOCIETE GENERALE
    Pricing de produits structurés très long terme

  • UNIVERSITE PARIS 7
    Financial models with arbitraging, application to long-term asset and liability management

Abroad

  • BLOOMBERG LP
    Calibration of a Path Dependent Volatility model to the VIX and S&P markets

  • BNP PARIBAS London Branch
    Models for Overnight indexed swap rates and Libor dynamics, and related Market risk

  • BRITISH PETROLEUM
    Application de techniques de Machine Learning à la méthode de Monte-Carlo des moindres carrés

  • DEUTSCHE BANK Londres
    Pricing and risk management of interest rate derivatives

  • GOLDMAN SACHS
    Predictive flow Analytics & inventory optimization

  • IMC Trading
    Identification of the impact of market participants on the European Futures Market

  • JANE STREET
    The volume synchronized probability of informed trading

  • JP MORGAN
    Capital optimization, funding optimization, derivates clearing businesses, credit value adjustement

  • JUMP TRADING INTERNATIONAL
    Latent order book in the context of market impact and liquidity drought

  • MONASH UNIVERSITY
    Option pricing with linear market impact

  • SQUAREPOINT CAPITAL
    Multi-period portfolio optimization to manage tail risk in equities

  • UNIVERSITY OF OXFORD
    Numerics for the robust pricing and hedging problem in discrete time

The objective of this course is to provide a practical introduction to the field of machine learning. We will discuss the different machine learning problems from unsupervised (dimensionality reduction, clustering and density estimation) to supervised (classification, regression, ranking). In this course we will introduce for each method the problem, provide its modeling as an optimization problem and discuss the algorithms that are used to solve the problem. The practical aspect of each method will also be discussed along with python code and existing implementations.

The course will be completed by practical sessions that will allow the students to implement the methods seen in the course on practical problems such as image classification and time series prediction (biomedical and climate data). The objective of the practical session will be not only to learn to use the methods but also to interpret their models and results with respect to the data and the theoretical models.

Course overview:

  • Introduction
    • Machine learning problems
    • Knowing your data
    • Preprocessing
  • Unsupervised learning
    • Dimensionality reduction and
    • Dictionary learning and collaborative filtering
    • Clustering and generative modeling
    • Generative modeling
  • Supervised learning
    • Linear models and kernel methods for regression and classification
    • Nearest neighbors and bayesian decision
    • Trees and ensemble methods
  • ML in practice
    • Find your problem
    • Model selection

This course will be given in english with lecture material in english.

Evaluation : practical session reports and oral











Catégorie: Master 2

The course aims at introducing both concepts and methods used in clinical (or medical) research. It is integrated to the health science theme of the master program.The course will both emphasize the principles and concepts underlying the different goals of clinical research (prediction and causation) and develop on specific statistical methods that can be used to plan studies and analyze data in this context.

It will focus on notions and methods that are not covered by other courses of the master (e.g. design, survival analysis, causal inference), that will be tackled both from the theoretical and applied point-of-view.

Methods will be illustrated on several practical examples.

Catégorie: Master 2

Objectifs du cours :

  • Introduction to the concept of data stream processing
  • Learning the basics on and how to use Data Stream Management Systems (DSMS)
  • Understanding the main sampling techniques used for stream processing : sampling, sketching, etc.
  • Understanding and using the main data stream processing algorithms

 

Syllabus :  

 

This course deals with the algorithms and softwares commonly used to process large data streams. It aims at understanding the main difficulties and specificities of this type of data, knowing what different types of streams exist, what are the theoretical models and practical algorithms to analyze them, and what are the right tools to process these streams.

After an introduction of what data streams are from a conceptual point of view, this class covers the question of data stream processing from two different angles:

  1. A Machine Learning and Data Mining approach to cover the theoretical and algorithmic difficulties of learning from data streams: online learning vs incremental and batch learning, and sampling techniques.
  2. A more practical approach with an introduction to the various systems and software that are used to handle these data.

In terms of organization, the course will consist of an alternance of lectures and practical sessions. Finally, during the last class the students will have to present a recent research article of their choice on the subject of data stream processing. 

Prérequis : 

  • Basics in SQL language
  • Basics in Machine Learning (supervised and unsupervised)
  • A knowledge of Java programming is recommended but not mandatory

Évaluation :

  • The practical sessions will make ⅔ of the mark
  • The research paper presentation will make ⅓ of the mark

 

Catégorie: Master 2

Syllabus :  Nowadays many data learning problems require to analyze the structure of a high-dimensional matrix with remarkable properties; In recommender systems, this could be a column sparse matrix or a low-rank matrix but more sophisticated structures could be considered by combining several notions of sparsity; In graph analysis, popular spectrum techniques to detect cliques are based on the analysis of the Laplacian matrix with specific sparse/low-rank structure. In this course, we will review several mathematical tools useful to develop statistical analysis methods and study their performances. Such tools include concentration inequalities, convex optimization, perturbation theory and minimax theory. 

 

Numerus Clausus : 30

 

Class Time: P2 Wednesday morning

 

Grading – 2.5 ECTS:

Written Exam

Article

 

Topics covered:

  1. Principal Component Analysis
  2. Spectral clustering
  3. Matrix completion
  4. Robust Statistics
  5. Phase Retrieval
  6. Optimal Transport

 

Textbook:

  1. Vershynin. High-Dimensional Probability. Cambridge University.
  2. Gross, Recovering low-rank matrices from few coefficients in any basis, 2011, arXiv:0910.1879
  3. Guedon and R. Vershynin. Community detection in sparse networks viagrothendieck’s inequality.Probability Theory and Related Fields, 165(3-4):1025–1049,2016.
  4. Ma, R. Dudeja, J. Xu, A. Maleki, X. Wang. Spectral Method for Phase Retrieval: an Expectation Propagation Perspective. arXiv: 1903.02505
  5. M. Kouw, M. Loog. An introduction todomain adaptation and transfer learning, 2018. arXiv:1812.11806




Catégorie: Master 2

La majorité des problèmes d'apprentissage sont formulés comme des problèmes d'optimisation,
à partir de l'observation d'un échantillon de données (ensemble d'entraînement). L'optimisation
d'un objectif défini à partir de cet échantillon permet de proposer un estimateur qui a une bonne
performance sur l'ensemble d'apprentissage. Cependant, on s'intéresse généralement à la
capacité de généralisation de cet estimateur, c'est à dire sa performance sur une nouvelle
observation. Avec l'émergence des grandes quantités de données depuis les années 2000, le
lien entre l'algorithme utilisé et la capacité de généralisation de l'estimateur associé est devenu
un sujet majeur.
Aujourd'hui, la question de la généralisation est encore une problématique de recherche
majeure, tant pour ses aspects théoriques que pratiques.
Dans ce cours, on s'intéresse à l'ensemble des résultats tant théoriques que heuristiques qui
permettent d'aborder ce problème. Plus précisément, on étudiera dans un premier temps les
différentes approches qui permettent d'obtenir des garanties théoriques quant à la
généralisation des algorithmes, en particulier les approches liées à la complexité, à la stabilité
et aux méthodes d'arrêt anticipé (Early stopping, approximation stochastique). Dans une
seconde partie, on étudiera les approches heuristiques et les différences (expliquées ou
constatées) dans le cadre du deep learning (non convexe et over-parametrized).
Prérequis : connaissances élémentaires en optimisation convexe et statistiques. Avoir suivi le
cours d'optimisation pour les data-sciences permettra de mieux cerner les différents algorithmes
en jeu.
Liste de références (non exhaustive) : - Rademacher and Gaussian Complexities: Risk
Bounds and Structural Results, P. Bartlett, S. Mendelson - The Tradeoffs of Large Scale
Learning, L. Bottou, O. Bousquet - Stability and Generalization, O. Bousquet, A. Elisseef - Train
faster, generalize better: Stability of stochastic gradient descent, M. Hardt, B. Recht, Y. Singer -
Non-strongly-convex smooth stochastic approximation with convergence rate O(1/n), F. Bach,
E. Moulines - Understanding deep learning requires rethinking generalization, C. Zhang, S.
Bengio, M. Hardt, B. Recht, O. Vinyals - On early stopping in gradient descent learning, Y Yao,
L. Rosasco, and A. Caponnetto - Generalization properties of multiple passes stochastic
gradient method, S. Villa - Competing with the empirical risk minimizer in a single pass, R.
Frostig, R. Ge, S. M. Kakade, A. Sidford - Deep Learning and Generalization, O. Bousquet
Modalités de contrôle
Présentation d’article / projet

Catégorie: Master 2

In machine learning, there has been great progress in obtaining powerful predictive models, but these models rely on correlations between variables and do not allow for an understanding of the underlying mechanisms or how to intervene on the system for achieve a certain goal. The concepts of causality are fundamental to have levers for action, to formulate recommendations and to answer the following questions: "what would happen if » we had acted differently?

 

The questions of causal inference arise in many areas (socio-economics, politics, psychology, medicine, etc.): depending on the context which drug to use to improve the patient's health? what marketing strategy for product placement should be used to influence consumer buying behavior, etc. The formalism of causal inference makes it possible to study these questions as a problem of classical statistical inference. The gold standard for estimating the effect of treatment is a randomized controlled trial (RCT) which is, for example, mandatory for the authorization of new drugs in pharmaceutical and medical research. However, RCTs are generally very expensive in terms of time and financial costs, and in some areas such as economics or political science, it is often not possible to implement an RCT, for example to assess the effectiveness of a given policy.

 

The aim of this course is to present  the available methods to perform causal inference from observational data.  We focus on both the theoritical framework and practical aspects  (available software solution).

 

Numerus Clausus : 30

Instructor: Julie Josse julie.josse@polytechnique.edu

TA: Imke Mayer imke.mayer@polytechnique.edu

 

Class Time:

Monday  3 february, 10 february, 24 february, 2 mars, 9 mars,

8 :30-12:30

 

Office Hours:

 Monday 5:00-6:00 PM and by appointment

 

Grading – 2.5 ECTS:

Final project (100%)

It could be more practical with a data analysis or  presentations based on recent research papers.

 

Topics covered:

- The Neyman-Rubin potential outcome causal model for observational studies

- Matching, propensity scores

- Efficiency and double robustness, double machine learning

- Estimating treatment effect heterogeneity, learning decision rules

 

 - Causal discovery : causal models, graphical models and markov conditions

 

Textbook:

Hernan, Miguel A., and James M. Robins. Causal Inference. Chapman & Hall/CRC

Imbens, Guido W., and Donald B. Rubin. Causal Inference in Statistics, Social, and Biomedical Sciences

Jonas Peters, Dominik Janzing, Bernhard Schölkopf. Elements of Causal Inference: Foundations and Learning Algorithms

 

Articles : A  Survey of Learning Causality with Data: Problems and Methods
Guo, Ruocheng and Cheng, Lu and Li, Jundong and Hahn, P. Richard and Liu, Huan

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Catégorie: Master 2
Students will learn:
 
- why different families of AI (symbolic, machine learning) present different risk profiles
- how risks of bias and discrimination manifest themselves in AI systems, and approaches to mitigate those risks
- why explainability prevents machine learning from being used in certain critical applications
-  "meaningful human control" of AI systems
- the legal framework around AI: the European General Data Protection Regulation, Platform Regulation, the future AI Act, EU Charter of Fundamental Rights
Teaching will be structured around use cases, including autonomous lethal weapons, facial recognition, social media use of algorithms, algorithms to detect terrorist risk

Grading will be half based on multiple choice test, and half on a final paper.

 

Catégorie: Master 2

A new paradigm of generative models has emerged in AI in the last decade. It aims at designing a generative model mimicking a distribution described by a data set. It has mainly two applications: data augmentation, i.e. to generate new data statistically coherent with those of the initial (training) data set; digital twin, i.e. to replace a costly physical simulation model with an easy-to-use one. 

 

This has huge applications in image generation, fashion pictures, chemical molecules... this is called sometimes deepfakes.

 

A generative model is usually made of a random input (the latent space) and of a deterministic transformation function (usually made of neural networks) mapping the latent space into the data space.

In this course, we will describe how to mathematically model and solve this problem, starting from basic concepts and going to more advanced tools. We will investigate (with mathematical tools)

- how to measure the distance between probability distributions, the relations between these distances

- existence of transformation between two given distributions

- the design of the optimization problem of the generative model

- possible parameterizations based on GAN, VAE, SDE

- role of the latent dimension in the search for a numerical solution, quality/complexity bounds on examples

- some statistical analysis for the sampling effect

 

Catégorie: Master 2

Ce cours est une introduction à la topologie algébrique, et est destiné aux élèves du PA de mathématiques, ainsi qu’aux élèves des PA de MAP et INFO intéressés par les DataScience, ou l’informatique théorique, et qui souhaitent acquérir un bagage mathématique fort. Ce cours est une bonne préparation (sans être un prérequis) et complément au cours INF 556 (Topological Data Analysis), les outils introduits ayant trouvé des applications récents à l’étude des nuages de points.

Le cours se concentrera principalement sur l'étude des invariants des espaces topologiques, en particulier l'homologie. Après quelques rappels de topologie et l'étude de la notion d'équivalence d'homotopie, on introduit l'homologie simpliciale et singulière ainsi que leurs propriétés principales. Le groupe fondamental sera également introduit. La fin du cours sera consacrée à des idées générales d'algèbre homologique offrant des applications différentes de la partie principale du cours à l'étude d'autres objets mathématiques. Tout au long du cours, les idées et notions de la théorie des catégories seront introduites et utilisées.

 

 

Bibliographie

Glenn Bredon, Topology and Geometry, Graduate Texts in Mathematics, 139. Springer-Verlag, New York,
1997

Allen Hatcher, Algebraic topology, Cambridge University Press, Cambridge, 2002

Chuck Weibel, An introduction to homological algebra, Cambridge Studies in Advanced Mathematics, 38.
Cambridge University Press, Cambridge, 1994

 

Course language: French

L'EA de Topologie Algébrique, selon l'intérêt des élèves, permettra soit  d'étudier des applications de la topologie algébrique en informatique ou sciences de données, soit d'étudier des théorèmes et applications importantes des outils du cours en topologie ou autre domaine des mathématiques ou bien encore des invariants différents.

Après avoir listé les centres d'intérêts des élèves inscrits, chaque année nous avons trouvé une thématique commune développée pendant l'EA avant que les élèves ne se spécialisent sur un sous-sujet.

Parmi les sujets traités ces dernières années, il y en a eu en lien avec la géométrie algébrique ou différentielle, l'analyse des données, les modèles combinatoires des espaces topologiques, des invariants autres que l'homologie (K-théorie), les catégories abéliennes et triangulées, les foncteurs dérivés etc...

Langue du cours : Français

In the Discovery Labs, students will be introduced to basic experimental techniques, data analysis and interpretation, and documentation of experimental work.

Up to 6 experimental labs constitute this course, covering three main disciplines: Mechanics, Physics and Chemistry. Examples of projects carried out in previous years are harmonic oscillators, forces and equilibrium; kinematics and collisions; determination of fundamental physical constants (e.g. speed of light, Planck constant); construction and test of a lithium battery; polymers in molecular cuisine.

Catégorie: Bachelor 1

Dans ce cours, vous prélèverez votre propre échantillon environnemental et étudierez la diversité de sa population de micro-organismes. À cette fin, vous appliquerez le séquençage Oxford Nanopore en laboratoire et analyserez ensuite les résultats à l'aide de méthodes computationnelles de la bio-informatique.

La préparation et le séquençage de l'ADN vous permettront d'acquérir une expérience de premier contact en laboratoire. Dans la partie la plus importante de ce module, vous analyserez en profondeur les données générées en utilisant des outils bioinformatiques de pointe, par exemple l'assemblage de génomes, la prédiction de gènes, l'analyse de la diversité des espèces et la comparaison d'ensembles de données. Ainsi, ce module offre une combinaison complète d'expériences de biologie moléculaire et d'analyse informatique. Il vous initie au travail pratique dans la recherche moderne en biologie moléculaire et motive l'exploration des méthodes bioinformatiques à partir de demandes d'analyse concrètes.

Catégorie: Ingénieur 2A

The purpose of these Lecture series in Public Policy is to give students opportunities to interact with high public policy experts in areas related to the use of data. These meetings will allow both a return on past experiences but also a direct transfer of knowledge on projects that are still in progress. Through these testimonies, we will be focused not only on technical but also concrete and human aspects of data management in public policies. To make the most of these Lecture series, students will be central actors: they will have to draw up a portrait of the guest, introduce his or her subject during a short joust, contribute to animate the debate and make a reflexive report of it. 

Depuis la thèse de doctorat de Bachelier en 1900, une théorie du mouvement brownien cinq ans avant Einstein, notre compréhension des marchés financiers a raisonnablement progressé. Au cours des dernières décennies, l'ingénierie financière a connu une croissance énorme et a malheureusement dépassé notre compréhension. L'inadéquation des modèles utilisés pour décrire les marchés financiers est souvent responsable des pires crises financières, avec un impact significatif sur l'économie quotidienne. Du point de vue d'un physicien, comprendre les mécanismes de formation des prix – à savoir comment les marchés absorbent et traitent les informations de milliers d'agents individuels pour aboutir à un prix "juste" – est un problème vraiment fascinant et difficile. Heureusement, les marchés financiers modernes fournissent d'énormes quantités de données qui peuvent maintenant être utilisées pour tester des théories scientifiques avec des niveaux de précision comparables à ceux atteints dans les sciences physiques.

Ce cours présente l'approche adoptée par les physiciens pour analyser et modéliser les marchés financiers. Notre analyse sera, dans la mesure du possible, toujours fondée sur des données financières réelles. Plutôt que de s'en tenir à un formalisme mathématique rigoureux, nous chercherons à encourager la pensée critique et à développer l'intuition sur les "mécaniques" des marchés financiers, les ordres de grandeur, et certains problèmes ouverts.

Les approches de modélisation sont de plus en plus appliquées aux systèmes vivants. Ces approches servent à tester si un jeu d’hypothèses est suffisant pour expliquer le fonctionnement d’un système, à concevoir des méthodes pour agir sur ce système ou à suppléer à l’expérimentation lorsqu’elle est impossible. Ainsi, la majorité des domaines des sciences du vivant et de la bioingénierie sont concernés par la modélisation.  

Ce module donnera aux étudiants un aperçu du domaine, à travers des cours et l’étude d’articles de recherche, et les amènera à la réalisation d’un projet de modélisation en petits groupes. Chaque groupe définira son sujet, proposera des hypothèses à partir de données expérimentales, formulera le modèle correspondant, le résoudra numériquement et discutera comment tester le modèle expérimentalement.

Deep Learning is one key element of modern data science. This course will explore several instances of Deep Neural Networks, each one being specifically adapted to solve a particular learning task (classification, image recognition, text mining, dimensionality reduction). An introduction to current research topics on neural network will be presented during the last part of the course.

Catégorie: Master 2 / MScT 2A

Objectifs du cours :

  • Introduction to the concept of data stream processing
  • Learning the basics on and how to use Data Stream Management Systems (DSMS)
  • Understanding the main sampling techniques used for stream processing : sampling, sketching, etc.
  • Understanding and using the main data stream processing algorithms

 

Syllabus :  

 

This course deals with the algorithms and softwares commonly used to process large data streams. It aims at understanding the main difficulties and specificities of this type of data, knowing what different types of streams exist, what are the theoretical models and practical algorithms to analyze them, and what are the right tools to process these streams.

After an introduction of what data streams are from a conceptual point of view, this class covers the question of data stream processing from two different angles:

  1. A Machine Learning and Data Mining approach to cover the theoretical and algorithmic difficulties of learning from data streams: online learning vs incremental and batch learning, and sampling techniques.
  2. A more practical approach with an introduction to the various systems and software that are used to handle these data.

In terms of organization, the course will consist of an alternance of lectures and practical sessions. Finally, during the last class the students will have to present a recent research article of their choice on the subject of data stream processing. 

Prérequis : 

  • Basics in SQL language
  • Basics in Machine Learning (supervised and unsupervised)
  • A knowledge of Java programming is recommended but not mandatory

Évaluation :

  • The practical sessions will make ⅔ of the mark
  • The research paper presentation will make ⅓ of the mark

 

Catégorie: Master 2 / MScT 2A

Understanding and use the spatialization in LCA II

The aim of Life Cycle Assessment (LCA) course option is to describe why and how the spatialization can be useful and used in LCA. It provides the fundamental notions required to perform spatialized LCA, to use spatialization tools and to interpret and use spatialized LCA results in decision-making process. Students will have to carry out a specific question concerning spatialization in LCA.

 

Teaching staff

- Lynda Aissani, Research Engineer, INRAE

- Pierre Thiriet, Research Engineer, INRAE

- Samuel Le Féon, Research Engineer, INRAE

 

Course outline

  • Why spatialize LCA?

- Exploring the need to spatialise and contextualise LCA using a small case study

- Based on a case study

- With some theoretical elements

 

  • Bringing to light the problem of implementing the spatialisation of LCA

 

  • How to spatialize?

- Work on 4 issues to be resolved (geographical grid, indicators, data required and tools required)

- With some theoretical elements for each of the 4 issues

- Work in groups to solve them at the end of the day

 

  • Making progress on resolving the problem of implementing the spatialization of LCA

 

  • With which tools?

- Based on the 4 points resolved in the previous lesson, implement the method using tools based on a combination of theory and practice.

- Work in groups to solve a question on the spatialization of LCA

  • Understand the contribution of tools (R, possibly QGIS) to operationalise the resolution of the problem and be able to draw on the methodological lessons of the course
  • Oral presentation of case study resolution

- Students present the solution for their question concerning spatialization

 

The module includes 10 hours of courses and 10 hours of practical work.

 --------------------------------------------

Level required: Basic knowledge of LCA

Language: English

Credits ECTS: 3

Supervisor: Lynda Aissani

 

Catégorie: Master 2 / MScT 2A

Ces projets s'appuient sur un cours ou un EA et permettent d'approfondir les notions abordées en mettant en oeuvre, sur un problème concret, une démarche complète de projet. Il s'inscrit dans le Parcours d'Approfondissement 'Sciences pour les Défis de l'Environnement' et est conçu pour faire appel à plusieurs des disciplines enseignées: mécanique, physique, biologie, économie et humanités et sciences sociales. Si le code (MEC513) n'inclut pas les abréviations des cinq départements, c'est par souci de simplicité administrative: par exemple, un projet interdisciplinaire entre biologie et économie peut être géré sous ce code.

Une liste des sujets proposés est progressivement mise à jour sur http://www.coriolis.polytechnique.fr/SDE/SDE_1617/MEC513.html

Les méthodes mises en oeuvre dépendront du problème, des disciplines mises en jeu, et de l'encadrement. Elles pourront inclure des l'analyse de données, de la modélisation numérique, du travail expérimental ou des recherches bibliographiques. 

Vous travaillerez en binôme et pourrez généralement orienter votre étude dans la direction de votre choix. Vous bénéficierez d'un encadrement scientifique sur le sujet lui-même et technique sur la mise en oeuvre.

 

Validation :

    Fin de P1 : Rédaction d'un rapport bref non noté et entretien.
    Fin de P2 : Rédaction d'un rapport scientifique (20 à 30 pages) et soutenance orale (30 minutes + questions).

Langue du cours : Français

English below: quantité de données produites dans les sciences de l'environnement (énergie et climat) ouvre la voie à de nouvelles applications. Bien que les méthodes statistiques traditionnelles restent essentielles, les méthodes avancées d'apprentissage automatique sont de plus en plus nécessaires pour donner un sens aux megadonnées, que ce soit pour les analyser ou pour faire des prédictions. L'un des objectifs de l'apprentissage automatique est d'extraire des modèles identifiables de ces ensembles de données complexes. Ces modèles peuvent ensuite être utilisés pour prendre des décisions réfléchies. Un autre objectif est de modéliser les relations entre différentes variables, puis d'utiliser ces modèles pour prédire une variable à partir d'informations sur l'autre.

Exemple de jeux de données :

  • Si nous voulons optimiser la performance énergétique d'un bâtiment, nous pouvons placer des capteurs à différents endroit du bâtiment qui noud donneront une bonne vision
  • Le GIEC fournit des prévisions de la température moyenne pour les 100 prochaines années. prochaines années. Ces prévisions sont basées sur environ 30 prévisions réalisées par des modèles complexes. L'apprentissage automatique permet de repérer des modèles dans ce jeux de données.

 

LIEN AVEC LES OBJECTIFS DE DEVELOPPEMENT DURABLE (ODD)

  • ODD 7 : Garantir l'accès à une énergie abordable, fiable, durable et moderne pour tous
  • ODD 13 : Prendre des mesures urgentes pour lutter contre le changement climatique et ses conséquences

Comment ce cours prend-il en compte ces ODD ?

L'objectif de ce cours est d'acquérir les bases de l'apprentissage automatique afin d'appliquer ces méthodes à des problèmes liés à la science du climat et à l'étude des systèmes énergétiques. Ces deux thématiques sont liées du fait que la consommation d'énergie et la production d'énergie renouvelable sont directement affectées par les conditions météorologiques et les changements climatiques à long terme. Les systèmes climatique et énergétique partage donc des propriétés communes telles qu'être complexe, être étendu dans l'espace et variable. Par ailleurs, leur étude traite en particulier de l'extraction d'informations à partir de jeux de données volumineux. Ainsi, bien que ce ne soit pas l'objectif principal de ce cours, les étudiants apprennent des méthodes qui peuvent s'avérer utiles pour améliorer notre compréhension du système climatique et de son interaction avec les sociétés et pour aider à gérer les systèmes énergétiques avec une plus grande part d'énergies renouvelables variables.

L'objectif de ce cours est de fournir une introduction à l'apprentissage automatique afin d'aider les étudiants à appliquer des méthodes pertinentes pour analyser des jeux de données spécifiques. Nous aborderons différentes famille de méthodes supervisées et non supervisées, tout en fournissant une approche générale pour valider et tester les résultats. Nous encourageons les étudiants à développer leur esprit critique lorsqu'ils sont confrontés à un nouveau jeu de données et qu'ils appliquent un méthode afin de tirer des conclusions fiables. Nous illustrons ce cours avec des exemples en sciences de l'environnement. Ces jeux de données correspondent à des cas concrets d'analyse présentés sous forme de notebook IPhthon.

 

PREREQUIS

  • Analyse de données élémentaire en Python avec
  • Algèbre linéaire ()
  • Eléments de probabilités et de statistiques ()

MODALITES D'EVALUATION

  • 25% participation (petits QCM en début de cours)
  • 25% exercice de codage et d'analyse et questions de cours à mi-semestre
  • 50% présentation finale avec notebook final et implication dans le projet.

LANGUE

Anglais

 

COURSE PHILOSOPHY

The amount of data produced in environmental sciences (energy and climate) paves the way to new applications. While traditionnal statistical methods are still essential, advanced machine-learning methods are more and more needed to make sense of big data, whether for analysis or to make predictions. One goal of machine learning is to extract identifiable patterns from these complex data sets. These patterns can then be used to take informed decisions. Another is to model relationships between different variables and then use these models to predict one variable from information of the other.

Examples of such big data sets are:

  • If we want to optimize the energy performance of a building, we can set sensors in different places of the building that will give us a good overview of the energy consumption and energy loss. Analyzing such data set with machine learning will help us predict or optimize our energy consumption.
  • The IPCC provides forecast of the average temperature for the next 100 years. This forecast is based on about 30 different predictions made by complex models. Machine learning provides a way to track reliable patterns in this complex data set.

The objective of this course is to provide an introduction to machine learning in order to help the students apply relevant methods to analyze specific data sets. Different families of unsupervised and supervised methods will be covered, while also providing a general approach to validate and test results. We encourage students to develop their critical thinking skills when facing a new dataset and applying a method in order to draw robust conclusions. We illustrate this course with examples from environmental sciences. These datasets correspond to concrete cases of analysis presented in the form of ipython notebooks.

 

COURSE LINK TO N (SDGs)

This course allows students to acquire knowledge prior to approaching the following SDGs and deals with an area related to these SDGs:

  • SDG 7: Ensure access to affordable, reliable, sustainable and modern energy for all
  • SDG 13: Take urgent action to combat climate change and its impacts

How does the course take these SDGs into account?

The aim of this course is to acquire the fundamentals of machine learning in order to apply these methods to problems in climate science and energy systems studies. These two topics are related since energy consumption and renewable energy production are directly affected by meteorological conditions and their long term climatic change. Climate and energy systems thus share common properties such as being complex, spatially extended and variable. Furthermore, their study involves in particular extracting information from big datasets. Thus, while not the main focus of this class, students learn methods that can prove useful in improving our understanding of the climate system and its interaction with societies and in helping manage energy systems with larger shares of variables renewable energies.

 

PREREQUISITES

  • Elementary data analysis in Python with numpy, pandas and matplotlib,
  • Linear algebra (linear systems, inverse, eigenvalues and eigenvectors),
  • Elements of probabilities and statistics (probability distribution and density, random variable, conditional expectation, variance, covariance, sample estimates).

GRADING POLICY

  • 25% participation (short in-class MCQs at beginning of class),
  • 25% mid-course coding and analysis exercise and course questions,
  • 50% final presentation including final notebook and involvment in project.

LANGUAGE

English

Cet enseignement d'approfondissement complète les cours de Mécanique des Fluides (mécanique des fluides générale, aérodynamique compressible). A travers la réalisation de projets de recherche en laboratoire et en binôme, l’objectif du cours est de découvrir les phénomènes, les concepts et  les méthodes de l’aérodynamique sur des sujets de nature appliquée ou fondamentale : vol battu, contrôle du décrochage, dynamique des tourbillons marginaux, aéroacoustique d’une cavité, dynamique des jets sous/sur-détendus, interaction onde de choc/couche limite en conditions transsoniques pour ne citer que quelques exemples. Le module commence par une séance d’introduction sur l’aérodynamique et les applications en aéronautique. Les étudiants sont par la suite, au fil de la progression des projets, formés aux principales notions théoriques et pratiques de l’aérodynamique. Des outils de traitement de données sont apportés afin de faciliter l’exploitation des données obtenues. Les travaux s’appuient sur des articles scientifiques fournis aux étudiants en début de projet, qui sont restitués lors d’une présentation de mi-parcours. Les projets expérimentaux sont réalisés dans les souffleries des TREX. Les projets numériques mettent en œuvre des codes de simulation professionnels. Une visite des souffleries de l’ONERA Meudon est organisée afin de découvrir des installations de grande échelle, des moyens métrologiques de pointe et les recherches en cours.

 

Evaluation : présentation de mi-projet, rapport et présentation finale
Langue du cours : Anglais


 

Mise à jour : 24 avril 2020

L'objectif du cours est de donner les outils théoriques et  numériques pour la compréhension et la modélisation des matériaux et systèmes de l'ingénieur faisant intervenir des couplages multi-physiques. De tels fondements sont indispensables à la conception de systèmes complexes et des matériaux innovants pour des applications variées telles que la récupération, le transfert et le stockage de l'énergie et des données, le biomédical, la durabilité de matériaux et structures sous environnement sévère, les nouveaux capteurs et actionneurs, etc.

 

Prequis : Mécanique des milieux continus (MEC431)

Modalités d'évaluation : Examen final écrit et note de participation

Langue du cours : Français

Mise à jour : 17 avril 2020

L'objectif du cours est de faire le lien entre les approches "essentiellement physique" et "essentiellement données" des cours de base, et de sensibiliser/former les étudiants au grand défi de l'ingénierie qu'est l'interaction modèles-données et aux problématiques scientifiques associées. Plus précisément, on étudiera comment introduire des données dans un modèle, ou encore comment utiliser un modèle pour traiter des données, voire les deux en même temps.

L'objectif de ce cours est d'introduire les principes de base de la modélisation statistique et de l'analyse de données (notions de probabilité utiles en statistique, statistiques descriptives, estimation, tests) ainsi que quelques méthodes statistiques exploratoires avancées. Les concepts présentés seront mis en œuvre en R et Python sur des études de cas concrets, après une brève introduction à ces langages de programmation.

 

 

Responsables :
Lutz Lesshafft - Ladhyx
E-mail : lesshafft@ladhyx.polytechnique.fr
Tel: 01.69.33.52.56

Christophe Clanet - Ladhyx
E-mail : clanet@ladhyx.polytechnique.fr
Tel: 01.69.33.52.58


Description générale de l’option
Le développement de nouvelles générations de véhicules aérospatiaux (avions atmosphériques et spatiaux, hélicoptères, missiles, lanceurs), maritimes (navires, sous-marins, engins d’exploration profonde, plates-formes d’exploitation océanique) ou terrestres soulève de nombreux défis en Mécanique des fluides qu’il faut correctement appréhender bien avant le stade de construction de prototypes. Les contraintes de performances toujours accrues avec des préoccupations de coût de plus en plus sévères concernent notamment les aspects suivants:

  • mobilité (vitesse, manoeuvrabilité),
  • consommation (rendement propulsif),
  • sécurité et confort (stabilité et contrôle, vibrations),
  • bruit rayonné (cette option peut accueillir des stages a coloration acoustique)


Dans cette compétition, les capacités de modélisation, issues de la recherche fondamentale, sont un atout déterminant.

Thèmes
De nombreux problèmes d’écoulements complexes rencontrés sont communs à l’aérodynamique et l’hydrodynamique car liés aux phénomènes fondamentaux comme la turbulence, les décollements, les sillages tourbillonnaires. Ainsi les mêmes modèles numériques (Euler, Navier-Stokes,...) et les mêmes moyens d’essais (souffleries, tunnels hydrodynamiques) sont souvent mis en oeuvre pour traiter les problèmes d’aérodynamique subsonique et les problèmes d’hydrodynamique. Toutefois, aérodynamique et hydrodynamique se distinguent par des effets spécifiques.

En hydrodynamique, on peut citer :

  • la masse élevée du fluide (interactions gravitaires et inertielles entre le fluide et les structures),
  • la présence d’une surface libre (diffraction-rayonnement de la houle par les obstacles),
  • l’existence de mélange diphasique (phénomène de cavitation notamment).


En aérodynamique, les problèmes spécifiques sont ceux liés aux grandes vitesses :

  • effets de la compressibilité de l’air (ondes de choc),
  • effets thermiques,
  • effets physico-chimiques à haute température (combustion, écoulements hypersoniques) ou à haute altitude (raréfaction).


Des progrès considérables ont été réalisés ces dernières années dans la connaissance et la prédiction des écoulements complexes, aussi bien par voie théorique ou numérique (méthodes numériques et utilisation de super-ordinateurs, théorie de la turbulence) que par voie expérimentale (mesures fines par vélocimétrie laser, nouveaux moyens d’essais à grande échelle).

L’aérodynamique et l’hydrodynamique sont des disciplines anciennes mais qui traversent actuellement une profonde mutation due en grande partie au développement des grands moyens informatiques et expérimentaux. Cette option se propose de mettre les élèves au contact direct des aspects les plus récents de ces disciplines et des défis industriels auxquels elles sont confrontées.

Les stages
Les sujets de stages peuvent être à caractère fondamental (étude fine de phénomènes complexes dans des configurations simples) ou plus appliqué (étude plus globale de configurations de la réalité).

L’accent est mis tantôt sur l’application de méthodes analytiques, tantôt sur la mise en oeuvre ou l’amélioration de codes numériques ou encore l’acquisition, le traitement et l’interprétation de données expérimentales. Souvent, différents aspects sont associés, le sujet convenant alors mieux à un travail en binôme.

Exemples de stages proposés
Le catalogue des stages de l'année dernière peut être consulté. La majorité des stages sont maintenant éffectués à l'étranger.


Marche a suivre en cas d'intérêt pour cette option

Cette option fonctionne en proposant chaque année une liste de stages suggérés par nos contacts durant le mois de septembre. Cette liste donne lieu à un catalogue distribué aux élèves qui en font la demande à la réunion de présentation des options du Département de Mécanique ou par simple e-mail adressé aux responsables. Nous incitons les élèves à choisir un sujet au sein de ce catalogue car nous connaissons les encadrements nationaux et internationaux qui proposent ces stages. Toutefois, nous pouvons également finaliser d'autres stages d'option avec un élève qui a une idée et une motivation très précises. Dans ce but, nous contacter après lecture du catalogue ET NOTER QUE LA DEFINTION DU STAGE DOIT S'EFFECTUER EN CONCERTATION AVEC LES RESPONSABLES DE L'OPTION. LES STAGES N'OFFRANT PAS DE CONTENU SCIENTIFIQUE SUFFISANT SERONT REFUSES.

Langue du cours : Français

Département Mécanique

Responsable
Hervé LE TREUT
LMD, Ecole Polytechnique, 91128 Palaiseau Cedex
E-mail : letreut@lmd.jussieu.fr ou letreut@lmd.polytechnique.fr
Tél. : X -poste 51 03 ou 51 01

Co-Responsable :
Albert HERTZOG
LMD, Ecole Polytechnique, 91128 Palaiseau Cedex
E-mail : hertzog@lmd.polytechnique.fr
Tél. : X -poste 5160


L’option propose des stages dans le domaine de la mécanique des fluides géophysiques, la dynamique de l'océan, de l'atmosphère, ou encore de la géophysique interne. De nombreux stages abordent des problèmes d’environnement, tels que la pollution, la gestion de l'eau, l'impact de la déforestation sur le climat, le changement climatique du à l'effet de serre, la gestion de l'eau et l'hydrographie, la détection de signaux sismiques et les tremblements de terre. Ces thèmes se caractérisent par leur forte interdisciplinarité. Les aspects mécaniques et physiques (parfois chimiques ou biologiques) se mêlent souvent à des questions plus appliquées, relatives aux techniques de la mesure ou à l'analyse d'observations globales ou in-situ.

Les stages disponibles sont caractérisés par une triple diversité.

1. Thématique : puisqu’il peut s’agir d’océanographie, de météorologie, d’études de processus locaux (courants côtiers, ondes de reliefs, vagues, avalanches…), d’études globales (climat du passé, prévision des climats du futurs, rôle et étude du processus El Nino, prévision des cyclones, cycle du carbone dans l’atmosphère, ), de géophysique interne, ou encore d'études appliquées à caractère industriel (plutôt en France).
2. Technique: beaucoup de sujets ont une composante numérique importante (permettant souvent une bonne initiation à des langages informatiques tels que le FORTRAN), mais certains sont de nature plus expérimentale (qu’il s’agisse d’expériences en laboratoire, de mesures in situ, de traitement de données globales ou de mesures spatiales) et d'autres sont de nature plus théorique (théorie des écoulements turbulents, des ondes ou instabilités atmosphériques ou océaniques,…).
3. Géographique : presque tous les pays du monde ont une recherche active dans les domaines concernés par l'option. Des stages sont donc proposés dans de nombreux pays mais aussi en France, à Paris comme en province. Les stages effectués hors d'Europe se déroulent généralement dans le monde académique (centres de recherche au sein d'universités), alors que les stages réalisés en France et en Europe sont effectués de manière indifférenciée dans le monde académique ou au sein d'entreprises privées (bureaux d'études, petites ou moyennes entreprises innovantes, grandes entreprises ayant une activité dans le monde de l'environnement).

Il est demandé aux élèves intéressés de se mettre en contact aussi rapidement que possible avec les responsables de l'option pour préciser l'orientation possible du stage.
L'option est également proposée dans le département de physique, avec le code PHY596 (responsable : Jean-François Roussel, roussel@onera.fr).

Voici quelques exemples d'institutions ayant encadré des stages les années précédentes :

* Météorologie : UCLA, MIT, Université de Floride, Université McGill (Montréal), Météo Canadienne (Vancouver), Université de Reading, Université de Hambourg Université McQuarie (Sydney), Météo Australienne (Melbourne), Université de Buenos-Aires, Université de Montevideo, Institut de Physique de l’Atmosphère de Beijin, Université de Tokyo, Cochin University (Indes), IAP (Moscou).
Mais aussi en France: LMD (Paris-Palaiseau), LATMOS (Paris), LAMP (Clermont-Ferrand), Météo-France (Toulouse)
* Océanographie : Scripps Institution (Californie), Institut océanographique (Palma de Majorque), CSIRO (Hobart, Australie), SOC (Southampton, Grande-Bretagne), AWI (Bremerhaven, Allemagne)
En France: LOCEAN (Paris), LEGI (Grenoble), Ifremer (Brest)
* Géophysique: IPG (Paris), Total (France), Observatoire Volcanologique et Sismologique de Gouadeloupe
* Instrumentation : Université de Toronto, DLR (Munich, Allemagne)
en France: LMD (Paris), le LOCEAN (Paris), SAUR (traitement des eaux, Paris).
* Études théoriques : Cambridge, Oxford, Université de Monash, MIT, Imperial College (Londres),
en France: LMD, LOCEAN ou INL (Nice).

La quasi-totalité de ces institutions sont prêtes à accueillir à nouveau des stagiaires de l'X : la liste est indicative et non limitative.

 

Modalités d'évaluation : Les étudiants sont évalués sur le document manuscrit rendu à l'issue du stage ainsi que sur leur présentation orale de leur stage.

Langue du cours : Français

Description
The course is divided in three main parts: (1) Characterizing waves and describing the important
physical processes governing oceanic and nearshore wave propagation, (2) Numerical modeling of
wave propagation, and (3) Wave-structure interactions. The course is organized in 9 sessions comprised of lectures and project development.

Catégorie: Master 2 / MScT 2A

This course introduces the mechanisms controlling atmospheric composition in the lower atmosphere in both remote and polluted environments. A particular focus is placed on the understanding of the oxidation capacity of the troposphere and the composition and properties of atmospheric aerosols. The main processes involved in the development of air pollution episodes at urban and regional scales, as well as the tools used in the scientific community and air quality management services for the monitoring and forecasting of air quality, are then described. The specific structure of the boundary layer and the associated chemical and dynamical processes are detailed, including emissions, deposition, and chemical evolution.
All aspects are introduced theoretically before providing a specific description of the practical application in modelling platforms. These models are presented in the context of the current air quality policies in Europe and key locks are presented to understand realistic reduction choices being discussed for air quality improvement and climate change mitigation strategies. Various current applications are described as extreme case analysis, scenario studies until operational forecast, pollution health impacts evaluation, chemistry-climate analyses.


Implementation
Each course will be divided into a lecture and an associated tutorial with applied examples. In addition, students will work in groups on different practical projects with 2 sessions as numerical practical class. Example of project subjects:
• Chemical regimes: understanding the strategies to implement for the regulation of photo-oxidant pollution episodes (ozone) in the Paris area (modelling project);
• Atmospheric observation of air quality: what complementarities between observing systems? (data analysis project);

Course outline

1) Tropospheric composition (Lectures 1 – 2)
• General chemical composition of the troposphere gaseous and particles species to study relative amounts, life time, trends;
• Gaseous atmospheric chemistry
o The radical cycle
o Photochemical equilibrium
o NOx and VOCs chemistry
• Chemical regimes

2) Introduction to aerosols (Lecture 3)
• Characteristics of a population of aerosol: chemical composition and size distribution;
• Formation of atmospheric aerosols.

3) Modelling emissions, deposition, chemistry and transport (Lecture 4-5)
• General concepts and modelling choices: from box models to 3D Earth system models;
• Example of modelling platforms
• For the main natural and anthropogenic emissions sources: Description of the process, species emitted and inventory construction;
• Wet and Dry deposition.


4) Polluted boundary layer and air quality management (Lecture 6)
• Meteorological characteristics of the boundary layer
• Dispersion of pollutants
• Development of pollution episodes
• Impacts of air pollution
o Impact on environment: feedbacks between vegetation and surface atmospheric concentrations;
o Impact on health in urbanized environments


5) Interactions between air quality and climate (Lecture 7)
• Radiative forcing of trace species;
• Atmospheric pollution in a changing climate:
• Impact on meteorological conditions
• Impact on emissions
• Impact on chemistry
Implementing strategies for future mitigation assessments

Catégorie: Master 2 / MScT 2A

This course introduces the mechanisms controlling atmospheric composition in the lower atmosphere in both remote and polluted environments. A particular focus is placed on the understanding of the oxidation capacity of the troposphere and the composition and properties of atmospheric aerosols. The main processes involved in the development of air pollution episodes at urban and regional scales, as well as the tools used in the scientific community and air quality management services for the monitoring and forecasting of air quality, are then described. The specific structure of the boundary layer and the associated chemical and dynamical processes are detailed, including emissions, deposition, and chemical evolution.
All aspects are introduced theoretically before providing a specific description of the practical application in modelling platforms. These models are presented in the context of the current air quality policies in Europe and key locks are presented to understand realistic reduction choices being discussed for air quality improvement and climate change mitigation strategies. Various current applications are described as extreme case analysis, scenario studies until operational forecast, pollution health impacts evaluation, chemistry-climate analyses.


Implementation
Each course will be divided into a lecture and an associated tutorial with applied examples. In addition, students will work in groups on different practical projects with 2 sessions as numerical practical class. Example of project subjects:
• Chemical regimes: understanding the strategies to implement for the regulation of photo-oxidant pollution episodes (ozone) in the Paris area (modelling project);
• Atmospheric observation of air quality: what complementarities between observing systems? (data analysis project);

Course outline

1) Tropospheric composition (Lectures 1 – 2)
• General chemical composition of the troposphere gaseous and particles species to study relative amounts, life time, trends;
• Gaseous atmospheric chemistry
o The radical cycle
o Photochemical equilibrium
o NOx and VOCs chemistry
• Chemical regimes

2) Introduction to aerosols (Lecture 3)
• Characteristics of a population of aerosol: chemical composition and size distribution;
• Formation of atmospheric aerosols.

3) Modelling emissions, deposition, chemistry and transport (Lecture 4-5)
• General concepts and modelling choices: from box models to 3D Earth system models;
• Example of modelling platforms
• For the main natural and anthropogenic emissions sources: Description of the process, species emitted and inventory construction;
• Wet and Dry deposition.


4) Polluted boundary layer and air quality management (Lecture 6)
• Meteorological characteristics of the boundary layer
• Dispersion of pollutants
• Development of pollution episodes
• Impacts of air pollution
o Impact on environment: feedbacks between vegetation and surface atmospheric concentrations;
o Impact on health in urbanized environments


5) Interactions between air quality and climate (Lecture 7)
• Radiative forcing of trace species;
• Atmospheric pollution in a changing climate:
• Impact on meteorological conditions
• Impact on emissions
• Impact on chemistry
Implementing strategies for future mitigation assessments

Catégorie: Master 2 / MScT 2A

Objectives: We describe and compare the general circulations of the troposphere, the stratosphere and the mesosphere. This clearly highlights the two main thermodynamical drivers of the atmosphere: in the troposphere, the absorption of the infrared radiation from the ground and oceans by the greenhouse gases and / or the convection; in the stratosphere and mesosphere, the direct absorption of solar UV radiation by ozone. The global scale circulations produced by these global thermodynamical forcings are nevertheless unstable and modulated by waves that control in good part the weather and the climate variability, and that we described with details. Although the nature of these waves vary a lot from one situation to the other, we show that their dynamics is controlled by only two restoring mechanisms, one is the force of gravity (gravity waves) the other is related to the gradient of potential vorticity (Rossby waves). We also present how these waves control the local weather and its slow variations (Rosby waves and blockings in the mid-latitude, Madden Julian Oscillation in the tropics). The course also
describes the interactions between the waves and the large-scale circulation, yielding to planetary scale modes of variability like the Arctic oscillation in the midlatitudes troposphere, the blockings again, the Sudden Stratospheric Warmings in the midlatitude stratosphere and if time permits the Quasi-Biennal Oscillation in the equatorial lower stratosphere.


The course is based on analysis of meteorological observations and global datasets covering the middle latitudes as well as the tropics, the troposphere as well as the stratosphere. In this sense its content is in good part descriptive, but the interpretations of the observations is made by using precise tools of geophysical fluid dynamics, like the Eliasen Palm fluxes, and simplified dynamical models. Some of these tools are also introduced with details, but a systematic derivation of the quasi-geostrophic dynamics, baroclinic instability or equatorial wave theory is left to more advanced geophysisical fluid dynamics courses. Following such courses is not a pre-requisite of this one.

Prerequisite: Fluid Mechanics, basics in meteorology and climatology

Outlines:
1) Zonal mean climatologies and fundamental equations;
2) General circulation of the neutral atmosphere (troposphere-stratospheremesosphere);
3) Meridional circulations and the role of the Eddies;
4) Midlatitude tropospheric synoptic variability
5) The midlatitude low frequency variability of climate;
6) The sudden stratospheric warming and the arctic oscillation;
7) The equatorial waves and the Madden-Julian oscillation.
8) Stratospheric equatorial variability

Catégorie: Master 2 / MScT 2A

L’aérodynamique vise à prédire l’influence des écoulements d’air et des formes des objets sur les efforts mécaniques et les transferts de chaleur dans des applications allant des avions, aux véhicules terrestres et aux bâtiments. C’est un sujet extrêmement riche et vivant sur les plans de la recherche fondamentale et appliquée que nous abordons à travers une série de 4 cours magistraux et de séances d’exercices. Les étudiants apprendront les lois fondamentales de l'aérodynamique incompressible, en abordant séquentiellement les forces aérodynamiques, l'origine de la portance et de la traînée, et enfin en établissant les modèles physiques et le cadre mathématique qui permettent de traiter l'essentiel des problèmes d'intérêt. Le cours approfondit largement les notions qui auront pu être abordées avant, notamment en M1. L’accent est mis sur la phénoménologie des écoulements, à l’aide de nombreuses illustrations. Les cours sont suivis de séances d’approfondissement avec des exercices qui visent à fournir des outils pour calculer les forces aérodynamiques et les propriétés des écoulements sur un ensemble d'applications concrètes. Une dernière session est consacrée à la réalisation de simulations numériques de l'écoulement autour d’un profil d’aile, avec application sur une configuration d’ailes en tandem et en effet de sol.

Contenu

  • Cours 1 : Rappels de Mécanique des Fluides, Portance - traînée, phénoménologie, écoulements potentiels, condition de Kutta
  • Cours 2 : Théorie des profils minces, portance d’un profil d’aile
  • Cours 3 : Théorie de la ligne portante, aile elliptique de traînée minimale
  • Exercice 1 : Méthode des panneaux, méthode des images et effet de sol pour un profil d’aile
  • Exercice 2 : Portance d’un profil d’aile, application à l’aile de Joukowski, effets de volet pour accroître la portance d’un profil
  • Exercice 3 : Modélisation des tourbillons marginaux, application au vol en formation et à l’effet de sol pour une aile d’envergure fine
  • Projet : en binôme, réalisation de simulations numériques d’un profil d’aile par résolution des équations d’Euler pour approfondir les concepts vus en cours, application aux ailes en tandem et en effet de sol.

Enseignant 

Vincent Brion, professeur assistant au Département de Mécanique de l’Ecole Polytechnique, ingénieur de recherche à l’ONERA, département d’aérodynamique, aéroélasticité, acoustique (DAAA). vincent.brion@onera.fr

Niveau requis

Un cours de mécanique des fluides présentant les équations de Navier-Stokes

Modalité d’évaluation

projet par binôme, examen écrit

Langue de cours

anglais

Crédits ECTS

1.5

 

Mise à jour : le 10 avril 2020



Course 1: Reminders of Fluid Mechanics, Lift - drag,
phenomenology, potential flows, Kutta condition
Course 2: Theory of thin profiles, lift of a wing profile
Course 3: Lifting line theory, elliptical wing of minimum drag
Exercise 1: Panel method, image method and ground effect
for a wing profile
Exercise 2: Lift of a wing profile, application
to Joukowski's wing, flap effects to increase the lift of a profile
Exercise 3: Modeling of marginal vortices,
application to formation flight and to the ground effect
for a wing of fine span
Project: in pairs, realization of numerical simulations
of a wing profile by solving the Euler equations to deepen the concepts seen in progress, application to the wings in tandem and ground effect.




Evaluation


projet, exam


Language


English


ECTS credits


1.5


 


 updated 24/04/2020


Catégorie: Master 2 / MScT 2A

Eligibility/Pre- requisites :  

Due to the use of experimental facilities, the number of students is limited to 24.

This course requires basic knowledge of fluid mechanics and structure.

Learning outcomes 

  • Global vision of wind power and the evolution of wind turbines
  • Ability to analyze wind data on a site and calculate the potential of wind energy
  • Understand the operation and control of the energy transfer chain formed by the wind turbine.
  • Understand the basic aerodynamic models for the wind turbine rotor
  • Acquisition of experience in simulating flow through wind turbines
  • Become familiar with wind tunnel experiments and wind turbine performance tests
  • Gain experience in writing a scientific article and its oral public presentation
Course main content
 
1.    General presentation of wind energy and wind turbines
 
Evolution and classification of wind turbines. Wind turbine components. Overview of the wind power industry in the European Union and worldwide. Considerations in wind farm siting and operation
 
2.    Wind characteristics and wind energy potential
 
Characteristics of wind. Meteorological aspects. Weibull distribution. Calculation of theoretical wind energy potential. Calculation of produced energy by a given wind turbine. General presentation of atmospheric boundary layer. Wind velocity measurements.
 
3.    Aerodynamics of wind turbines
 
Aerodynamics of an airfoil, forces and coefficients. Operation in normal and stall mode. Rotor aerodynamics, momentum theory, Betz’ law, blade element momentum theory
 
4.    Mechanical Design
 
Normal and extreme loads as defined by the standards. Blade design. Presentation of employed materials. Mechanical behavior and test. Aeroelasticity of blades. Rotor in operation.
 
5.    Control and Regulation of wind turbines
 
Wind turbine control strategy: stall, pitch control.
 
6.    Introduction to CFD principles and numerical simulation of a wind turbine. 
 
Definition of the numerical domain, set-up of the boundary conditions and grid generation. Selection of numerical models and grid independence study. Analysis and synthesis of results. Submission of a report.
 
7.    Experimental investigation in ENSAM wind tunnel.
 
Tests of a wind turbine and determination of its characteristic curves: torque and power. Analysis of results and submission of the test report.
 
8.    Initiation to scientific communication.

The student is invited to carry out personal work, in a small group, on a research topic in the field of wind energy. A specific bibliographic review must be prepared. This work must be finalized in written form respecting a given template and also in the form of an oral presentation.

 

Examination and final grade  requirements

Students are graded through: 

- Written final exam (open book) 60%

- Numerical simulation session and report 10%

- Wind tunnel experiments and report 10%

- Written bibliographic revue and oral presentation 20%  

 

Coordinator Instructors  

Fawaz MASSOUH

Marc RAPIN, Tommaso CAPURSO

Langue du cours : Anglais

Credits ECTS : 6

Catégorie: Master 2 / MScT 2A

The course is divided in 2 main parts.

The first part entitled “Introduction to imaging” aims to provide students with basic knowledge in the field of imaging for the study of fundamental processes in biology and for biomedical diagnostics. An overview of the main imaging techniques currently in use for these applications is provided.

The basic physical principles of imaging are introduced. Moreover the main physical processes which determine the tissue-light interaction (dispersion, scattering and absorption) are illustrated. Finally the computational methods enabling to use images to solve a larger biomedical problem through image processing, image analysis and downstream data analysis are introduced.

The second part, entitled "Biomaterials", aims to provide students with basic knowledge in the field of biomaterials and tissue engineering, focusing on the strengths and limits of the existing systems, as well as on the future developments. The basic concepts of drug delivery are also illustrated. In particular, the advantages, drawbacks and limits of some examples of oral, transdermal and topical drug delivery systems are presented. The domain of nanomedicine will be also introduced with focus on the description of innovative systems for nanodiagnostics and nanotherapeutics. Finally, some examples of clinical and industrial developments (drug coated stents, scaffolds, cardiac valves, nano/micro systems for imaging, etc.) are introduced and discussed.

 

 

Catégorie: Master 2 / MScT 2A

Ces projets s'appuient sur un cours ou un EA et permettent d'approfondir les notions abordées en mettant en oeuvre, sur un problème concret, une démarche complète de projet. Il s'inscrit dans le Parcours d'Approfondissement 'Sciences pour les Défis de l'Environnement' et est conçu pour faire appel à plusieurs des disciplines enseignées: mécanique, physique, biologie, économie et humanités et sciences sociales. Si le code (MEC513) n'inclut pas les abréviations des cinq départements, c'est par souci de simplicité administrative: par exemple, un projet interdisciplinaire entre biologie et économie peut être géré sous ce code.

Une liste des sujets proposés est progressivement mise à jour sur http://www.coriolis.polytechnique.fr/SDE/SDE_1617/MEC513.html

Les méthodes mises en oeuvre dépendront du problème, des disciplines mises en jeu, et de l'encadrement. Elles pourront inclure des l'analyse de données, de la modélisation numérique, du travail expérimental ou des recherches bibliographiques. 

Vous travaillerez en binôme et pourrez généralement orienter votre étude dans la direction de votre choix. Vous bénéficierez d'un encadrement scientifique sur le sujet lui-même et technique sur la mise en oeuvre.

 

Validation :

    Fin de P1 : Rédaction d'un rapport bref non noté et entretien.
    Fin de P2 : Rédaction d'un rapport scientifique (20 à 30 pages) et soutenance orale (30 minutes + questions).

Langue du cours : Français

L'objectif du cours est de donner les outils théoriques et  numériques pour la compréhension et la modélisation des matériaux et systèmes de l'ingénieur faisant intervenir des couplages multi-physiques. De tels fondements sont indispensables à la conception de systèmes complexes et des matériaux innovants pour des applications variées telles que la récupération, le transfert et le stockage de l'énergie et des données, le biomédical, la durabilité de matériaux et structures sous environnement sévère, les nouveaux capteurs et actionneurs, etc.

 

Prequis : Mécanique des milieux continus (MEC431)

Modalités d'évaluation : Examen final écrit et note de participation

Langue du cours : Français

Mise à jour : 17 avril 2020

Cet enseignement d'approfondissement complète les cours de Mécanique des Fluides (mécanique des fluides générale, aérodynamique compressible). A travers la réalisation de projets de recherche en laboratoire et en binôme, l’objectif du cours est de découvrir les phénomènes, les concepts et  les méthodes de l’aérodynamique sur des sujets de nature appliquée ou fondamentale : vol battu, contrôle du décrochage, dynamique des tourbillons marginaux, aéroacoustique d’une cavité, dynamique des jets sous/sur-détendus, interaction onde de choc/couche limite en conditions transsoniques pour ne citer que quelques exemples. Le module commence par une séance d’introduction sur l’aérodynamique et les applications en aéronautique. Les étudiants sont par la suite, au fil de la progression des projets, formés aux principales notions théoriques et pratiques de l’aérodynamique. Des outils de traitement de données sont apportés afin de faciliter l’exploitation des données obtenues. Les travaux s’appuient sur des articles scientifiques fournis aux étudiants en début de projet, qui sont restitués lors d’une présentation de mi-parcours. Les projets expérimentaux sont réalisés dans les souffleries des TREX. Les projets numériques mettent en œuvre des codes de simulation professionnels. Une visite des souffleries de l’ONERA Meudon est organisée afin de découvrir des installations de grande échelle, des moyens métrologiques de pointe et les recherches en cours.

 

Evaluation : présentation de mi-projet, rapport et présentation finale
Langue du cours : Anglais


 

Mise à jour : 24 avril 2020

L'objectif du cours est de faire le lien entre les approches "essentiellement physique" et "essentiellement données" des cours de base, et de sensibiliser/former les étudiants au grand défi de l'ingénierie qu'est l'interaction modèles-données et aux problématiques scientifiques associées. Plus précisément, on étudiera comment introduire des données dans un modèle, ou encore comment utiliser un modèle pour traiter des données, voire les deux en même temps.

Responsables :
Lutz Lesshafft - Ladhyx
E-mail : lesshafft@ladhyx.polytechnique.fr
Tel: 01.69.33.52.56

Christophe Clanet - Ladhyx
E-mail : clanet@ladhyx.polytechnique.fr
Tel: 01.69.33.52.58


Description générale de l’option
Le développement de nouvelles générations de véhicules aérospatiaux (avions atmosphériques et spatiaux, hélicoptères, missiles, lanceurs), maritimes (navires, sous-marins, engins d’exploration profonde, plates-formes d’exploitation océanique) ou terrestres soulève de nombreux défis en Mécanique des fluides qu’il faut correctement appréhender bien avant le stade de construction de prototypes. Les contraintes de performances toujours accrues avec des préoccupations de coût de plus en plus sévères concernent notamment les aspects suivants:

  • mobilité (vitesse, manoeuvrabilité),
  • consommation (rendement propulsif),
  • sécurité et confort (stabilité et contrôle, vibrations),
  • bruit rayonné (cette option peut accueillir des stages a coloration acoustique)


Dans cette compétition, les capacités de modélisation, issues de la recherche fondamentale, sont un atout déterminant.

Thèmes
De nombreux problèmes d’écoulements complexes rencontrés sont communs à l’aérodynamique et l’hydrodynamique car liés aux phénomènes fondamentaux comme la turbulence, les décollements, les sillages tourbillonnaires. Ainsi les mêmes modèles numériques (Euler, Navier-Stokes,...) et les mêmes moyens d’essais (souffleries, tunnels hydrodynamiques) sont souvent mis en oeuvre pour traiter les problèmes d’aérodynamique subsonique et les problèmes d’hydrodynamique. Toutefois, aérodynamique et hydrodynamique se distinguent par des effets spécifiques.

En hydrodynamique, on peut citer :

  • la masse élevée du fluide (interactions gravitaires et inertielles entre le fluide et les structures),
  • la présence d’une surface libre (diffraction-rayonnement de la houle par les obstacles),
  • l’existence de mélange diphasique (phénomène de cavitation notamment).


En aérodynamique, les problèmes spécifiques sont ceux liés aux grandes vitesses :

  • effets de la compressibilité de l’air (ondes de choc),
  • effets thermiques,
  • effets physico-chimiques à haute température (combustion, écoulements hypersoniques) ou à haute altitude (raréfaction).


Des progrès considérables ont été réalisés ces dernières années dans la connaissance et la prédiction des écoulements complexes, aussi bien par voie théorique ou numérique (méthodes numériques et utilisation de super-ordinateurs, théorie de la turbulence) que par voie expérimentale (mesures fines par vélocimétrie laser, nouveaux moyens d’essais à grande échelle).

L’aérodynamique et l’hydrodynamique sont des disciplines anciennes mais qui traversent actuellement une profonde mutation due en grande partie au développement des grands moyens informatiques et expérimentaux. Cette option se propose de mettre les élèves au contact direct des aspects les plus récents de ces disciplines et des défis industriels auxquels elles sont confrontées.

Les stages
Les sujets de stages peuvent être à caractère fondamental (étude fine de phénomènes complexes dans des configurations simples) ou plus appliqué (étude plus globale de configurations de la réalité).

L’accent est mis tantôt sur l’application de méthodes analytiques, tantôt sur la mise en oeuvre ou l’amélioration de codes numériques ou encore l’acquisition, le traitement et l’interprétation de données expérimentales. Souvent, différents aspects sont associés, le sujet convenant alors mieux à un travail en binôme.

Exemples de stages proposés
Le catalogue des stages de l'année dernière peut être consulté. La majorité des stages sont maintenant éffectués à l'étranger.


Marche a suivre en cas d'intérêt pour cette option

Cette option fonctionne en proposant chaque année une liste de stages suggérés par nos contacts durant le mois de septembre. Cette liste donne lieu à un catalogue distribué aux élèves qui en font la demande à la réunion de présentation des options du Département de Mécanique ou par simple e-mail adressé aux responsables. Nous incitons les élèves à choisir un sujet au sein de ce catalogue car nous connaissons les encadrements nationaux et internationaux qui proposent ces stages. Toutefois, nous pouvons également finaliser d'autres stages d'option avec un élève qui a une idée et une motivation très précises. Dans ce but, nous contacter après lecture du catalogue ET NOTER QUE LA DEFINTION DU STAGE DOIT S'EFFECTUER EN CONCERTATION AVEC LES RESPONSABLES DE L'OPTION. LES STAGES N'OFFRANT PAS DE CONTENU SCIENTIFIQUE SUFFISANT SERONT REFUSES.

Langue du cours : Français

Département Mécanique

Responsable
Hervé LE TREUT
LMD, Ecole Polytechnique, 91128 Palaiseau Cedex
E-mail : letreut@lmd.jussieu.fr ou letreut@lmd.polytechnique.fr
Tél. : X -poste 51 03 ou 51 01

Co-Responsable :
Albert HERTZOG
LMD, Ecole Polytechnique, 91128 Palaiseau Cedex
E-mail : hertzog@lmd.polytechnique.fr
Tél. : X -poste 5160


L’option propose des stages dans le domaine de la mécanique des fluides géophysiques, la dynamique de l'océan, de l'atmosphère, ou encore de la géophysique interne. De nombreux stages abordent des problèmes d’environnement, tels que la pollution, la gestion de l'eau, l'impact de la déforestation sur le climat, le changement climatique du à l'effet de serre, la gestion de l'eau et l'hydrographie, la détection de signaux sismiques et les tremblements de terre. Ces thèmes se caractérisent par leur forte interdisciplinarité. Les aspects mécaniques et physiques (parfois chimiques ou biologiques) se mêlent souvent à des questions plus appliquées, relatives aux techniques de la mesure ou à l'analyse d'observations globales ou in-situ.

Les stages disponibles sont caractérisés par une triple diversité.

1. Thématique : puisqu’il peut s’agir d’océanographie, de météorologie, d’études de processus locaux (courants côtiers, ondes de reliefs, vagues, avalanches…), d’études globales (climat du passé, prévision des climats du futurs, rôle et étude du processus El Nino, prévision des cyclones, cycle du carbone dans l’atmosphère, ), de géophysique interne, ou encore d'études appliquées à caractère industriel (plutôt en France).
2. Technique: beaucoup de sujets ont une composante numérique importante (permettant souvent une bonne initiation à des langages informatiques tels que le FORTRAN), mais certains sont de nature plus expérimentale (qu’il s’agisse d’expériences en laboratoire, de mesures in situ, de traitement de données globales ou de mesures spatiales) et d'autres sont de nature plus théorique (théorie des écoulements turbulents, des ondes ou instabilités atmosphériques ou océaniques,…).
3. Géographique : presque tous les pays du monde ont une recherche active dans les domaines concernés par l'option. Des stages sont donc proposés dans de nombreux pays mais aussi en France, à Paris comme en province. Les stages effectués hors d'Europe se déroulent généralement dans le monde académique (centres de recherche au sein d'universités), alors que les stages réalisés en France et en Europe sont effectués de manière indifférenciée dans le monde académique ou au sein d'entreprises privées (bureaux d'études, petites ou moyennes entreprises innovantes, grandes entreprises ayant une activité dans le monde de l'environnement).

Il est demandé aux élèves intéressés de se mettre en contact aussi rapidement que possible avec les responsables de l'option pour préciser l'orientation possible du stage.
L'option est également proposée dans le département de physique, avec le code PHY596 (responsable : Jean-François Roussel, roussel@onera.fr).

Voici quelques exemples d'institutions ayant encadré des stages les années précédentes :

* Météorologie : UCLA, MIT, Université de Floride, Université McGill (Montréal), Météo Canadienne (Vancouver), Université de Reading, Université de Hambourg Université McQuarie (Sydney), Météo Australienne (Melbourne), Université de Buenos-Aires, Université de Montevideo, Institut de Physique de l’Atmosphère de Beijin, Université de Tokyo, Cochin University (Indes), IAP (Moscou).
Mais aussi en France: LMD (Paris-Palaiseau), LATMOS (Paris), LAMP (Clermont-Ferrand), Météo-France (Toulouse)
* Océanographie : Scripps Institution (Californie), Institut océanographique (Palma de Majorque), CSIRO (Hobart, Australie), SOC (Southampton, Grande-Bretagne), AWI (Bremerhaven, Allemagne)
En France: LOCEAN (Paris), LEGI (Grenoble), Ifremer (Brest)
* Géophysique: IPG (Paris), Total (France), Observatoire Volcanologique et Sismologique de Gouadeloupe
* Instrumentation : Université de Toronto, DLR (Munich, Allemagne)
en France: LMD (Paris), le LOCEAN (Paris), SAUR (traitement des eaux, Paris).
* Études théoriques : Cambridge, Oxford, Université de Monash, MIT, Imperial College (Londres),
en France: LMD, LOCEAN ou INL (Nice).

La quasi-totalité de ces institutions sont prêtes à accueillir à nouveau des stagiaires de l'X : la liste est indicative et non limitative.

 

Modalités d'évaluation : Les étudiants sont évalués sur le document manuscrit rendu à l'issue du stage ainsi que sur leur présentation orale de leur stage.

Langue du cours : Français

Description
The course is divided in three main parts: (1) Characterizing waves and describing the important
physical processes governing oceanic and nearshore wave propagation, (2) Numerical modeling of
wave propagation, and (3) Wave-structure interactions. The course is organized in 9 sessions comprised of lectures and project development.

Catégorie: Master 2

This course introduces the mechanisms controlling atmospheric composition in the lower atmosphere in both remote and polluted environments. A particular focus is placed on the understanding of the oxidation capacity of the troposphere and the composition and properties of atmospheric aerosols. The main processes involved in the development of air pollution episodes at urban and regional scales, as well as the tools used in the scientific community and air quality management services for the monitoring and forecasting of air quality, are then described. The specific structure of the boundary layer and the associated chemical and dynamical processes are detailed, including emissions, deposition, and chemical evolution.
All aspects are introduced theoretically before providing a specific description of the practical application in modelling platforms. These models are presented in the context of the current air quality policies in Europe and key locks are presented to understand realistic reduction choices being discussed for air quality improvement and climate change mitigation strategies. Various current applications are described as extreme case analysis, scenario studies until operational forecast, pollution health impacts evaluation, chemistry-climate analyses.


Implementation
Each course will be divided into a lecture and an associated tutorial with applied examples. In addition, students will work in groups on different practical projects with 2 sessions as numerical practical class. Example of project subjects:
• Chemical regimes: understanding the strategies to implement for the regulation of photo-oxidant pollution episodes (ozone) in the Paris area (modelling project);
• Atmospheric observation of air quality: what complementarities between observing systems? (data analysis project);

Course outline

1) Tropospheric composition (Lectures 1 – 2)
• General chemical composition of the troposphere gaseous and particles species to study relative amounts, life time, trends;
• Gaseous atmospheric chemistry
o The radical cycle
o Photochemical equilibrium
o NOx and VOCs chemistry
• Chemical regimes

2) Introduction to aerosols (Lecture 3)
• Characteristics of a population of aerosol: chemical composition and size distribution;
• Formation of atmospheric aerosols.

3) Modelling emissions, deposition, chemistry and transport (Lecture 4-5)
• General concepts and modelling choices: from box models to 3D Earth system models;
• Example of modelling platforms
• For the main natural and anthropogenic emissions sources: Description of the process, species emitted and inventory construction;
• Wet and Dry deposition.


4) Polluted boundary layer and air quality management (Lecture 6)
• Meteorological characteristics of the boundary layer
• Dispersion of pollutants
• Development of pollution episodes
• Impacts of air pollution
o Impact on environment: feedbacks between vegetation and surface atmospheric concentrations;
o Impact on health in urbanized environments


5) Interactions between air quality and climate (Lecture 7)
• Radiative forcing of trace species;
• Atmospheric pollution in a changing climate:
• Impact on meteorological conditions
• Impact on emissions
• Impact on chemistry
Implementing strategies for future mitigation assessments

Catégorie: Master 2

This course introduces the mechanisms controlling atmospheric composition in the lower atmosphere in both remote and polluted environments. A particular focus is placed on the understanding of the oxidation capacity of the troposphere and the composition and properties of atmospheric aerosols. The main processes involved in the development of air pollution episodes at urban and regional scales, as well as the tools used in the scientific community and air quality management services for the monitoring and forecasting of air quality, are then described. The specific structure of the boundary layer and the associated chemical and dynamical processes are detailed, including emissions, deposition, and chemical evolution.
All aspects are introduced theoretically before providing a specific description of the practical application in modelling platforms. These models are presented in the context of the current air quality policies in Europe and key locks are presented to understand realistic reduction choices being discussed for air quality improvement and climate change mitigation strategies. Various current applications are described as extreme case analysis, scenario studies until operational forecast, pollution health impacts evaluation, chemistry-climate analyses.


Implementation
Each course will be divided into a lecture and an associated tutorial with applied examples. In addition, students will work in groups on different practical projects with 2 sessions as numerical practical class. Example of project subjects:
• Chemical regimes: understanding the strategies to implement for the regulation of photo-oxidant pollution episodes (ozone) in the Paris area (modelling project);
• Atmospheric observation of air quality: what complementarities between observing systems? (data analysis project);

Course outline

1) Tropospheric composition (Lectures 1 – 2)
• General chemical composition of the troposphere gaseous and particles species to study relative amounts, life time, trends;
• Gaseous atmospheric chemistry
o The radical cycle
o Photochemical equilibrium
o NOx and VOCs chemistry
• Chemical regimes

2) Introduction to aerosols (Lecture 3)
• Characteristics of a population of aerosol: chemical composition and size distribution;
• Formation of atmospheric aerosols.

3) Modelling emissions, deposition, chemistry and transport (Lecture 4-5)
• General concepts and modelling choices: from box models to 3D Earth system models;
• Example of modelling platforms
• For the main natural and anthropogenic emissions sources: Description of the process, species emitted and inventory construction;
• Wet and Dry deposition.


4) Polluted boundary layer and air quality management (Lecture 6)
• Meteorological characteristics of the boundary layer
• Dispersion of pollutants
• Development of pollution episodes
• Impacts of air pollution
o Impact on environment: feedbacks between vegetation and surface atmospheric concentrations;
o Impact on health in urbanized environments


5) Interactions between air quality and climate (Lecture 7)
• Radiative forcing of trace species;
• Atmospheric pollution in a changing climate:
• Impact on meteorological conditions
• Impact on emissions
• Impact on chemistry
Implementing strategies for future mitigation assessments

Catégorie: Master 2

Objectives: We describe and compare the general circulations of the troposphere, the stratosphere and the mesosphere. This clearly highlights the two main thermodynamical drivers of the atmosphere: in the troposphere, the absorption of the infrared radiation from the ground and oceans by the greenhouse gases and / or the convection; in the stratosphere and mesosphere, the direct absorption of solar UV radiation by ozone. The global scale circulations produced by these global thermodynamical forcings are nevertheless unstable and modulated by waves that control in good part the weather and the climate variability, and that we described with details. Although the nature of these waves vary a lot from one situation to the other, we show that their dynamics is controlled by only two restoring mechanisms, one is the force of gravity (gravity waves) the other is related to the gradient of potential vorticity (Rossby waves). We also present how these waves control the local weather and its slow variations (Rosby waves and blockings in the mid-latitude, Madden Julian Oscillation in the tropics). The course also
describes the interactions between the waves and the large-scale circulation, yielding to planetary scale modes of variability like the Arctic oscillation in the midlatitudes troposphere, the blockings again, the Sudden Stratospheric Warmings in the midlatitude stratosphere and if time permits the Quasi-Biennal Oscillation in the equatorial lower stratosphere.


The course is based on analysis of meteorological observations and global datasets covering the middle latitudes as well as the tropics, the troposphere as well as the stratosphere. In this sense its content is in good part descriptive, but the interpretations of the observations is made by using precise tools of geophysical fluid dynamics, like the Eliasen Palm fluxes, and simplified dynamical models. Some of these tools are also introduced with details, but a systematic derivation of the quasi-geostrophic dynamics, baroclinic instability or equatorial wave theory is left to more advanced geophysisical fluid dynamics courses. Following such courses is not a pre-requisite of this one.

Prerequisite: Fluid Mechanics, basics in meteorology and climatology

Outlines:
1) Zonal mean climatologies and fundamental equations;
2) General circulation of the neutral atmosphere (troposphere-stratospheremesosphere);
3) Meridional circulations and the role of the Eddies;
4) Midlatitude tropospheric synoptic variability
5) The midlatitude low frequency variability of climate;
6) The sudden stratospheric warming and the arctic oscillation;
7) The equatorial waves and the Madden-Julian oscillation.
8) Stratospheric equatorial variability

Catégorie: Master 2

Program:

1. Introduction to the main exchanges between the continental biosphere and the climate system

2. Global CO2 cycle : from past to future (part 1)

3. Global CO2 cycle : from past to future (part 2)

4. Analysis of climate and land variables, and surface-atmosphere fluxes [practice with R, or excel, or any other tool ]

5. Simulation of a climate negociation

6. Present and future global nitrogen cycle

7. Carbon and nitrogen balance : a case study of an agricultural site

Catégorie: Master 2

The course is divided in 2 main parts.

The first part entitled “Introduction to imaging” aims to provide students with basic knowledge in the field of imaging for the study of fundamental processes in biology and for biomedical diagnostics. An overview of the main imaging techniques currently in use for these applications is provided.

The basic physical principles of imaging are introduced. Moreover the main physical processes which determine the tissue-light interaction (dispersion, scattering and absorption) are illustrated. Finally the computational methods enabling to use images to solve a larger biomedical problem through image processing, image analysis and downstream data analysis are introduced.

The second part, entitled "Biomaterials", aims to provide students with basic knowledge in the field of biomaterials and tissue engineering, focusing on the strengths and limits of the existing systems, as well as on the future developments. The basic concepts of drug delivery are also illustrated. In particular, the advantages, drawbacks and limits of some examples of oral, transdermal and topical drug delivery systems are presented. The domain of nanomedicine will be also introduced with focus on the description of innovative systems for nanodiagnostics and nanotherapeutics. Finally, some examples of clinical and industrial developments (drug coated stents, scaffolds, cardiac valves, nano/micro systems for imaging, etc.) are introduced and discussed.

 

 

Catégorie: Master 2

After the course the student should be able to

  • - use the basics of fluvial flows and tidal dynamics.
  • - understand the dynamics of atmospheric , fluvial or marine boundary layers
  • - understand the meteorological forcing and its variability
  • - estimate the wind, the fluvial or tidal energy potential of a particular site or region
  • - make the distinction between the amount of energy and the power available

- quantify the resource’s availability and its variability

Eligibility/Pre-requisites:

Basic knowledge in fluid mechanics, Bernoulli and Navier-Stokes equations.

Course main content:

The course is divided in three blocs dedicated to hydro , wind and marine resources.

1. 1 Introduction

                - Economical, environmental and political issues

                - Various units of energy, primary and final energy, capacity of some power plants

1. 2 Hydroelectric resource

                - Water cycle, potential temperature, precipitations

                - Gravitational energy: resource and energy

                - Conventional dam: principle, efficiency, power capacity, capacity factor

                - The mean total head H, head loss, maximum flow rate and power

                - Environmental impact and carbon budget of hydroelectric power plants

2. Laboratory demonstration (ENSTA)

Observations and quantification of free surface channel flows, fluvial-torrential transition, efficiency of small hydro-dam. Data analysis and personal homework.

 3. Fluvial hydraulics

                - Flow regimes, Froude number

                - Hydraulic load of a free surface flow

                - Fluvial-torrential transition

                - Hydraulic jump, dissipation

                - Energy and momentum conservation

                - Run of river electricity: principle, efficiency, power capacity, capacity factor

4. Basic Meteorology and wind resources

- Synoptic winds, global circulation

- local winds: sea breeze, mountain winds, …

- Wind variability, turbulence, Rayleigh decomposition

- Weibull distribution, wind spectra, turbulence intensity

5. Atmospheric or Oceanic boundary layers

- laminar boundary layer

turbulent boundary layer, logarithmic law

- stable or unstable boundary layers

- wind or hydro measurements within the boundary layer

- On-site resource assessment 

6. Wind or river turbines: Betz limits and turbines interactions

- The standard Betz law

- Betz law with a free surface

- Individual turbine wake and multiple turbines interaction

- On-site resource assessment

7. Laboratory demonstration (ENSTA) 

Head loss of a free surface flow: fluvial and torrential regime, turbulent boundary layer, bottom roughness, logarithmic law. Data analysis and personal homework.

8. Tidal wave and tidal power

                  - History: first uses of tidal power

                  - Astronomical forcing

                  - Ocean response: Kelvin waves and tidal waves

                  - Bay or estuary resonance: shallow-water model

                  - Impact of bottom friction

                  - Tidal power plant: principle, efficiency, power capacity

                - Environmental impact of tidal power plants

9. Tidal currents and tidal turbine

                - Tidal turbine: an emerging market

                - Tidal currents: variability, coastal amplification, tidal ellipses

                - French and UK resources

                - Bottom friction and boundary layer profile, turbine wake

                - Tidal turbine: principle, efficiency, power capacity, strengths and drawbacks.

 Examination and requirements for final grade:

The final grade is a combination of the reports from the laboratory sessions and a 3h individual examination with exercises (open book exam). 

Langue du cours : Anglais

Credits ECTS : 4

Catégorie: Master 2

Professors

Fawaz MASSOUH, Marc RAPIN, Tommaso CAPURSO 

Eligibility/Pre- requisites :  

Due to use of experimental facilities, the number of students is limited to 24
This course needs basic knowledge in fluid mechanics and in electricity 

Learning outcomes 

· Global vision of wind power and the evolution of wind turbines

· Ability to analyze wind data on a site and calculate the potential of wind energy

· Understanding the operation and control of the chain of energy transfer formed by

the wind turbine.
· Understanding of basic aerodynamic models for the rotor of wind turbines
· Experience in numerical simulation of flow around wind turbines
· Experience in wind tunnel testing to obtain wind turbine performance.

· Experience in writing a scientific paper and its oral public presentation  

__________________

 

Lecturer: Fawaz Massouh 

 

Course main content  

  1. General presentation of wind energy and wind turbines 

Evolution and classification of wind turbines, Wind turbine components. Overview of the wind power industry in European Union and worldwide. Considerations in wind farm siting and operation 

  1. Wind characteristics and wind energy potential 

Characteristics of wind. Meteorological aspects. Weibull distribution. Calculation of theoretical wind energy potential. Calculation of produced energy by a given wind turbine. General presentation of atmospheric boundary layer. Wind velocity measurements. 

  1. Aerodynamics of wind turbines 

Aerodynamics of an airfoil, forces and coefficients. Operation in normal and stall mode. Rotor aerodynamics. Momentum theory, Betz’ law, Blade element momentum theory, vortex theories. 

  1. Mechanical Design 

Normal and extreme loads as defined by the standards, Blade design, presentation of employed materials. Mechanical behavior and test. Aeroelasticity of blades. Rotor in operation. 

  1. Electrical Power conversion in wind turbines 

Fixed speed wind turbine. Variable speed wind turbine. Full power electronic converter. Double feed induction machine. Integration of wind turbines in electrical networks of transport and of distribution. 

  1. Control and Regulation of wind turbines 

Power electronic converter control 

Wind turbine control strategy: stall, pitch control. 

  1. Introduction to CFD and simulations of flow and wake of a wind turbine. Practice 

of CAO and preparation of the numerical model. Analysis and synthesis of results. 

Submission of a report. 

  1. Experimental investigation in ENSAM wind tunnel. 

Tests of a wind turbine and determination of its characteristic curves: thrust, torque 

and power. Analysis of results and submission of a testing report. 

  1. Initiation to scientific communication. 

The student is asked to do a personal work within a small group about a research subject in the field of wind enegy. A specific bibliographic revue must be prepared. This work must be finalized as a written paper respecting a given template and also as an oral presentation.  

Examination and requirements for final grade  

Students are graded through : 

- Written final exam (open book) 60%
- Numerical simulation session and report 10%
- Wind tunnel experiments and report 10%
- Written bibliographic revue and oral presentation 20%  

Coordinator Instructors  

Fawaz MASSOUH

Marc RAPIN, Tommaso CAPURSO

Langue du cours : Anglais

Credits ECTS : 4 

Catégorie: Master 2

L’aérodynamique vise à prédire l’influence des écoulements d’air et des formes des objets sur les efforts mécaniques et les transferts de chaleur dans des applications allant des avions, aux véhicules terrestres et aux bâtiments. C’est un sujet extrêmement riche et vivant sur les plans de la recherche fondamentale et appliquée que nous abordons à travers une série de 4 cours magistraux et de séances d’exercices. Les étudiants apprendront les lois fondamentales de l'aérodynamique incompressible, en abordant séquentiellement les forces aérodynamiques, l'origine de la portance et de la traînée, et enfin en établissant les modèles physiques et le cadre mathématique qui permettent de traiter l'essentiel des problèmes d'intérêt. Le cours approfondit largement les notions qui auront pu être abordées avant, notamment en M1. L’accent est mis sur la phénoménologie des écoulements, à l’aide de nombreuses illustrations. Les cours sont suivis de séances d’approfondissement avec des exercices qui visent à fournir des outils pour calculer les forces aérodynamiques et les propriétés des écoulements sur un ensemble d'applications concrètes. Une dernière session est consacrée à la réalisation de simulations numériques de l'écoulement autour d’un profil d’aile, avec application sur une configuration d’ailes en tandem et en effet de sol.

Contenu

  • Cours 1 : Rappels de Mécanique des Fluides, Portance - traînée, phénoménologie, écoulements potentiels, condition de Kutta
  • Cours 2 : Théorie des profils minces, portance d’un profil d’aile
  • Cours 3 : Théorie de la ligne portante, aile elliptique de traînée minimale
  • Exercice 1 : Méthode des panneaux, méthode des images et effet de sol pour un profil d’aile
  • Exercice 2 : Portance d’un profil d’aile, application à l’aile de Joukowski, effets de volet pour accroître la portance d’un profil
  • Exercice 3 : Modélisation des tourbillons marginaux, application au vol en formation et à l’effet de sol pour une aile d’envergure fine
  • Projet : en binôme, réalisation de simulations numériques d’un profil d’aile par résolution des équations d’Euler pour approfondir les concepts vus en cours, application aux ailes en tandem et en effet de sol.

Enseignant 

Vincent Brion, professeur assistant au Département de Mécanique de l’Ecole Polytechnique, ingénieur de recherche à l’ONERA, département d’aérodynamique, aéroélasticité, acoustique (DAAA). vincent.brion@onera.fr

Niveau requis

Un cours de mécanique des fluides présentant les équations de Navier-Stokes

Modalité d’évaluation

projet par binôme, examen écrit

Langue de cours

anglais

Crédits ECTS

1.5

 

Mise à jour : le 10 avril 2020



Course 1: Reminders of Fluid Mechanics, Lift - drag,
phenomenology, potential flows, Kutta condition
Course 2: Theory of thin profiles, lift of a wing profile
Course 3: Lifting line theory, elliptical wing of minimum drag
Exercise 1: Panel method, image method and ground effect
for a wing profile
Exercise 2: Lift of a wing profile, application
to Joukowski's wing, flap effects to increase the lift of a profile
Exercise 3: Modeling of marginal vortices,
application to formation flight and to the ground effect
for a wing of fine span
Project: in pairs, realization of numerical simulations
of a wing profile by solving the Euler equations to deepen the concepts seen in progress, application to the wings in tandem and ground effect.




Evaluation


projet, exam


Language


English


ECTS credits


1.5


 


 updated 24/04/2020


Catégorie: Master 2

The purpose of these Lecture series in Public Policy is to give students opportunities to interact with high public policy experts in areas related to the use of data. These meetings will allow both a return on past experiences but also a direct transfer of knowledge on projects that are still in progress. Through these testimonies, we will be focused not only on technical but also concrete and human aspects of data management in public policies. To make the most of these Lecture series, students will be central actors: they will have to draw up a portrait of the guest, introduce his or her subject during a short joust, contribute to animate the debate and make a reflexive report of it. 

Catégorie: Master 2

En quoi les données de masse façonnent-elles les décisions marketing ?
Comment ces données sont-elles collectées et exploitées ?
Quels en sont les enjeux ?

 

Objectifs et positionnement du cours

Le volume de données sans précédent (« Big data ») dont les entreprises disposent aujourd’hui pour baser leurs décisions remodèle complètement l’approche marketing. Les données de masse représentent pour les entreprises une opportunité de repenser leur approche du marché, leur proposition de valeur pour le client, leur communication, en vue d’une expérience client toujours améliorée. Les données possédées permettent même de dépasser et anticiper les attentes des clients.

Les entreprises ont plus que jamais besoin de dirigeants familiers de ces nouvelles logiques, et dotés de connaissances fines sur ce nouvel écosystème pour leur permettre de prendre les décisions optimales. L’analyse et l’exploitation des données clients dépassent la seule direction marketing et concernent, du point de vue stratégique et opérationnel, l'ensemble des services de l'entreprise.

Ce cours propose un cheminement pédagogique à la croisée de la stratégie d’entreprise, du marketing et de la technologie, dans l’optique d’atteindre une meilleure approche de ces questions. Il accueillera des « grands témoins », ingénieurs de l’Ecole Polytechnique, qui ont fait le choix des métiers du Data Marketing et viendront partager leur expertise, leur parcours et leur vision avec le groupe.

Les séances finales seront consacrées à la participation à un data challenge grandeur nature, sur la base de données d’entreprises réelles anonymisées, en équipe avec des étudiants du Master PIC de l’Ecole et des étudiants de l’Université Panthéon-Assas, spécialisés en Droit & Communication. (Ce challenge a remporté le prix de l’innovation pédagogique en sciences de gestion en 2020).

path that combines company, marketing and technology strategies, in order to reach a better approach of these questions. It will welcoming "great witnesses", engineers from the Ecole Polytechnique, who have chosen to work in Data Marketing, and will be sharing their expertise, experience and vision with the group.

Final sessions will be dedicated to the participation in a full-scale data challenge, based on anonymised data from real companies, in groups with students of the PIC Master's programme at the Ecole and students of the Université Panthéon-Assas, specialized in Law & Communication. (This challenge won the pedagogical innovation in management science award in 2020)

DESCRIPTIF DU COURS
Ce cours traite de la réception des innovations par les consommateurs et de l’importance des données dans
les pratiques actuelles du marketing de l’innovation. Pour cela, les étudiants participent notamment à un
data challenge (co-organisé avec Assas et l’entreprise Numberly) avec des étudiants d’autres formations.
OBJECTIF PEDAGOGIQUE
L’objectif de ce cours est double. Il vise à faire réfléchir les étudiants sur la manière de commercialiser une
innovation et fournit une expérience originale et vivante de la pratique des données de masse.
STRUCTURE DU SEMINAIRE
Séance 1 et 2 : le consommateur en situation d’innovation
Séance 3 : kit de survie du marketing des données
Séance 4 : data challenge
Séance 5 : restitutions data challenge
BIBLIOGRAPHIE INDICATIVE
Le Nagard-Assayag, E., & Manceau, D. (2011). Le marketing de l’innovation-2e éd.: De la création au lancement
de nouveaux produits. Dunod.
Mohr, J. J., Sengupta, S., & Slater, S. F. (2009). Marketing of high-technology products and innovations.
Pearson Prentice Hall.
Moore, G. A. (2009). Crossing the Chasm: Marketing and Selling Technology Project. Harper Collins.

Catégorie: Master 2

This course is an introduction to the field of Computational Geometry and Topology (the later has become popular under the name Topological Data Analysis). Fundamental questions to be addressed are : how can we represent complex shapes (in high-dimensional spaces)? how can we infer properties of shapes from samples? how can we handle noisy data? how can we walk around the curse of dimensionality?

Catégorie: Bachelor 2

In the Beginner’s Physics Lab sessions, students will have the opportunity to apply the knowledge they have acquired in LAB103 in five distinct lab sessions of 4-hour duration. Students will learn basic experimental techniques, data analysis and interpretation, and documentation of experimental work. Students will cover, in-depth: the Lorentz Force and the measurement of the specific charge (e/m) of the electron, quantization of the matter with the Franck-Hertz experiment, geometrical optics and the prism spectrometer, the speed of sound, forces and torques.

Catégorie: Bachelor 1

Le cours PHY 204 propose une exploration approfondie de l'électrodynamique classique, une branche fondamentale de la physique qui sous-tend de nombreuses avancées technologiques. En s'appuyant sur les connaissances acquises en PHY 104, ce cours vise à :
• Maîtriser les équations de Maxwell : Les étudiants étudieront les équations de Maxwell sous leurs formes intégrales et locales, en approfondissant leur compréhension des phénomènes électriques et magnétiques dans divers milieux.
• Explorer les applications concrètes : Le cours abordera des applications variées telles que la propagation des ondes électromagnétiques, l'optique et le rayonnement.
• Développer des compétences en simulation numérique : À travers un projet, les étudiants mettront en pratique leurs connaissances en simulant des phénomènes électromagnétiques réels.

Le cours débutera par un rappel des concepts d'électrostatique et de magnétostatique avant de plonger dans l'étude des phénomènes dynamiques. Les étudiants acquerront ainsi une solide base théorique en électromagnétisme et seront en mesure d'appréhender les principes fondamentaux qui régissent notre monde technologique.

Catégorie: Bachelor 2

Python have reaches n°4 of the top programming language in 2019 (Tiobe Index). Many applications and researches are based on this language. The Python rises is due to its large implementation over the last years in data sciences and machine learning and is became a must requirement for many job positions. Python for Beginners is a course for people who don’t have any background about programming. During this course you will learn how to install and call Python in your computer, how to manage the basic operations, how to organize your program, how to define and use a function, how to use files (csv), how to draw figures, how to use other functionalities like libraries and finally you will have exercises to practice what you have learnt.

Physique des systèmes vivants : réseaux, traitement de l'information, comportement

L'interface entre la physique et la biologie est en pleine expansion, grâce aux progrès des méthodes de mesure (liées aux nanotechnologies, à la microfluidique, aux manipulations de molécules uniques, aux méthodes d'imagerie optique, au séquençage massif, ...). Ces progrès permettent à la fois d'améliorer notre compréhension fondamentale des processus vivants, et de rendre possibles de nouvelles applications biomédicales ou en bio-ingénierie.

L'objectif du cours sera double :

- introduire des concepts et des méthodes quantitatives, empruntés à la physique statistique, à la théorie de l'information et à l'apprentissage automatique pour analyser, modéliser et étudier les systèmes biologiques, en mettant l'accent sur les effets collectifs soutenant les fonctions et les calculs biologiques ;

- appliquer ces méthodes à des systèmes réels issus de tous les domaines de la biologie, en particulier les neurosciences, l'immunologie, la génomique, la biologie moléculaire, la biologie évolutive, etc. En pratique, les étudiants recevront des données de mesures expérimentales et les traiteront, en écrivant des codes Python, et discuteront les résultats obtenus. L'accent sera mis sur la mise en place des méthodes et sur les concepts, et non sur la programmation en elle-même.

Niveau requis : PHY433 - Physique statistique - Aucun prérequis en biologie n'est nécessaire.


Langue du cours : Anglais

 

English below :

 

Les modèles sont partout, et surtout lorsqu'il est question de transitions énergétiques et de climat. Ils permettent de justifier la prise de décision et de constituer la méthode standard pour tester et améliorer notre compréhension. Cependant, la définition d'un "modèle" peut être très différente d'un acteur à l'autre. De plus, les modèles doivent être utilisés avec une certaine prudence méthodologique : chaque modèle est développé pour répodre à des questions précises, dans une intervalle de validité précise, avec des hypothèses précises. Cependant, alors que les résultats et les conclusions des modèles sont souvent facilement utilisés et débattus, la méthodologie et la validité des hypothèses et des résultats ne sont pas assez souvent examinées de près.

En tant que scientifiques impliqués dans les transitions énergétiques et climatiques, vous serez confrontés à de nombreux modèles différents, que vous les ayez développés vous-mêmes ou que vous utilisiez simplement leurs résultats.

Attention, il ne s'agit pas d'un cours de mathématiques appliquées : une programmation efficace est importante, de même qu'un choix judicieux des algorithmes, mais cela vient après que le cadre général a été choisi et la direction fixée. Il ne s'agit pas non plus d'un cours sur l'analyse des mégadonnées. Un algorithme efficace peut produire des données non pertinentes ou erronées, et l'utilisation d'outils d'analyse de données récents n'aidera pas à produire des conclusions sensées.

Les premiers cours vont introduire les concepts de base de modélisation () ainsi qu'une série de méthodes physiques pertinentes pour le domaine (). Les cours suivants seront présentés par des experts dans le secteur de transition et vont partager leur propre expérience de la modélisation. Les étudiants choisiront une étude de cas qu'ils vont étudier tout au long du cours, en construsant leur propre modèle pour le comparer et le tester par rapport à la littérature existante.

 

Models are everywhere, and especially when it comes to the energy and climate transitions. They provide a rationale for decision making, and constitute the standard way to test and improve our understanding. Yet, what a “model” is can be very different from one actor to another. Furthermore, models should be used with methodological care: any model is developed to address specific questions, in a specific validity range, with specific assumptions. However, while the output and conclusions of the models are often readily used and debated, the methodology and the validity of hypothesis and results are not often enough closely scrutinized.


As scientists involved in the energy and climate transitions, you will have to deal with many different models – whether you developed them yourselves or simply use their results.

As a note of caution : this is not a course in applied mathematics : efficient programming is important, as is a careful choice of algorithms, but this comes after the general framework is chosen and the direction set.  Nor is it a course on big data analysis. An efficient algorithm can produce irrelevant or wrong data, and using up to date data analysis tool will not help to produce sensible conclusions.

The first lectures will introduce basic concepts of modelling (modeling vs simulation, prediction vs prospection…) as well as a set of physics methods relevant to the field (perturbative approach, scaling laws...). Following lectures will be presented by experts in the transition sector who will share their own experience of modelling. Students will select a case study they will investigate throughout the course, building their own model to compare and test against the existing literature.

PHY569B – Plasmas astrophysiques et missions spatiales

Le système solaire constitue un laboratoire idéal pour étudier des processus de physique fondamentale (ex. la turbulence, la reconnexion magnétique, et les chocs), qui sous-tendent des problématiques majeures en physique spatiale, tels que le chauffage la couronne et vent solaires, l'accélération des particules et les émissions radio dans les magnétosphères planétaires (ex. aurores). La raison principale est la disponibilité de données in situ complètes mesurées par diverses missions spatiales qui explorent ces milieux astrophysiques depuis environ un demi-siècle. C’est le cas de l'exploration du vent solaire par Voyager depuis les années 1970 jusqu'aux missions plus récentes, NASA/Parker Solar Probe (lancée en 2018) et l'ESA/Solar Orbiter (lancée en 2020) ; l'exploration de la magnétopshère terrestre par les missions multi-satellites telles que l'ESA / Cluster (2000) et la NASA / MMS (2015) ; l'exploration planétaire: Jupiter par NASA/Galileo, Juno (2016) et ‘‘bientôt’’ ESA/JUICE (qui sera lancée en 2022, pour une insertion en orbite en 2030), Saturne par NASA-ESA/Cassini (1997-2017), Mercure par NASA/Messenger (2011) et ESA-JAXA/BepiColombo (lancée en 2018, insertion en orbite fin 2025). Les progrès réalisés dans le système solaire nous permettent de mieux appréhender des problématiques similaires rencontrées dans d’autres milieux astrophysiques plus lointains, peu ou pas accessibles aux mesures directes. C’est le cas de la formation d'étoiles dans le milieu interstellaire (ISM), l'accélération des rayons cosmiques et la génération de champs magnétiques dans les galaxies et les galaxies inter-amas (ICG), le transport du moment angulaire et l'accrétion de matière autour d'objets compacts (ex. les trous noirs).

Dans ce cours, nous présenterons d'abord quelques grandes questions ouvertes en plasmas astrophysiques et expliquerons comment elles peuvent être abordées en utilisant le système solaire comme laboratoire pour tester les théories existantes. Dans la deuxième partie, nous rappellerons quelques équations de base de la physique des plasmas (descriptions cinétiques et fluides, ex. MHD et ses extensions à petites échelles, la MHD-Hall), avant d’étudier en détail quelques processus universels tels que la turbulence plasma et la reconnexion magnétique. Nous exposerons les théories sous-jacentes de ces processus et expliquerons comment ils peuvent aider à résoudre quelques unes des questions abordées dans la partie introductive du cours, en mettant l’accent sur comment tester les prédictions théoriques directement dans les observations in-situ fournies par les missions spatiales.

Dans la deuxième partie du cours nous décrirons les principaux instruments in-situ embarqués à bords de missions spatiales (ex., magnétomètres, sondes de Langmuir, spectromètres à plasma - électrons et ions). Nous expliquerons leur principe de fonctionnement, les contraintes et limitations inhérentes à l'exploration spatiale (coût, masse, puissance, télémétrie). Nous présenterons également certaines méthodes et techniques de traitement du signal utilisées pour analyser les données des missions spatiales (mono ou multi-satellites). Dans la dernière partie, nous présenterons les grandes tendances actuelles de l'exploration spatiale dédiée à la physique des plasmas (aussi bien dans le vent solaire que dans les magnétosphères planétaires). Nous présenterons les nouvelles questions scientifiques qui ont émergé à la lumière des progrès récents réalisés grâce aux missions en cours d’exploitation, et discuterons des nouveaux concepts de missions spatiales en cours de préparation et les nouveaux défis techniques qu’elles posent.

Langue du cours : Anglais

PHY584 -Aspects expérimentaux de la physique subatomique des hautes énergies

Cet enseignement constitue une introduction à la physique expérimentale des particules et à ses utilisations en astrophysique (astroparticules). Il est partagé à parts égales entre des cours et un travail personnel, de nature expérimentale ou bibliographique.

Les cours aborderont le contexte actuel de la physique des hautes énergies, au travers des thèmes de recherche explorés au laboratoire Leprince-Ringuet (LLR). La physique du modèle standard sera effleurée dans le contexte de la recherche du boson de Higgs (avec l’expérience CMS du LHC) et des oscillations des neutrinos (expérience T2K au Japon). La recherche sur le rayonnement cosmique de haute énergie sera approchée notamment par l'observation de photons gamma dans l'espace (expérience Fermi) et sur Terre (expérience HESS).

Les interactions rayonnement/matière seront décrites à partir des techniques instrumentales de détection de particules issues d'accélérateurs artificiels ou cosmiques. Les phénomènes rares (la détection d'un boson, d'un neutrino, ou d'un photon cosmique) nécessitent en outre l'utilisation d'outils expérimentaux et statistiques spécifiques qui seront traités dans le cours.

Le travail personnel portera, selon les appétences et les sujets disponibles, sur des développements techniques ou des analyses en cours au LLR ou sur l'étude de publications expérimentales récentes.

 

Modalités d'évaluation : un rapport par binôme et un oral individuel + questions
Langue du cours : Anglais

Responsables :

Mathieu De Naurois (mathieu.de-naurois@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 55 97)
Christoph Kopper (christoph.kopper@polytechnique.edu, École polytechnique, Tél. 01 69 33 42 61)
Cédric Lorcé (cedric.lorce@polytechnique.edu, École polytechnique, Tél. 01 69 33 42 14)
Stéphane Munier (stephane.munier@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 42 85)
Pascal Paganini (pascal.paganini@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 55 62)

Le but de ce stage de recherche, effectué à temps complet, est de mettre les élèves en contact avec la recherche fondamentale telle qu'elle se pratique dans les laboratoires de physique théorique ou de physique des particules expérimentale. Le stage s'adresse évidemment aux élèves motivés pour ce type de recherche, mais aussi à ceux qui, ayant décidé de faire tout autre chose, désirent connaître durant 4-5 mois ce qu'est la recherche fondamentale. Il leur permettra de découvrir en quoi consiste le travail du chercheur dans ces disciplines. Selon l'orientation de la thématique du stage, théorique ou expérimentale, il est nécessaire d'avoir suivi certains des enseignements suivants : PHY430, PHY431, PHY433, PHY551, PHY553, PHY554, PHY561, PHY566, PHY568, MAT/PHY575, PHY584.


LES SUJETS D'ÉTUDES

Les sujets de stage proposés se classent en trois catégories :

1/ Théorie des champs, physique statistique et physique mathématique (contact Christoph Kopper, Stéphane Munier)

En Physique, le très grand nombre de degrés de liberté à l'échelle microscopique donne lieu, aux échelles méso- ou macroscopique, à des phénomènes quantiques ou statistiques variés qu'il s'agit de comprendre. Des progrès spectaculaires sont accomplis grâce à l'utilisation des concepts de théorie des champs et de probabilités en mécanique quantique ou statistique, et certains sujets de l'option s'y rattachent. D'autres illustrent l'application des concepts de la théorie des champs et de la physique statistique à des domaines a priori extérieurs à celle-ci, par exemple les systèmes dits complexes. Enfin, les thèmes inspirés par la biologie fournissent des sujets très intéressants pour la physique statistique.

2/ Physique théorique des particules et de la gravitation  (contact Christoph Kopper, Cédric Lorcé, Stéphane Munier)

Il s’agit de connaître la structure et les interactions des particules fondamentales. Une percée spectaculaire a été accomplie lorsque l’on a découvert que toutes les interactions connues (fortes, électromagnétiques, faibles et gravitationnelles) peuvent être décrites avec un même langage, celui des « théories de jauge ». Ce résultat a été brillamment confirmé par l’expérience, jusqu'à la découverte du bosons de Higgs en 2012 dont il s'agit maintenant d'étudier plus précisément les propriétés. Les sujets de recherche dans le domaine sont d'une part l'étude des prédictions précises du modèle standard dans ses différents domaines, et d'autre part ses possibles extensions sous forme d'une éventuelle extension supersymétrique entre bosons et fermions etc. L'analyse des interactions fortes requiert souvent des méthodes autres que perturbatives lesquelles s'appliquent au secteur électrofaible du modèle standard. Les problèmes posés par la construction d’une théorie quantique de la gravitation ont conduit aux théories des cordes et autres objets étendus. Des problèmes provenant de la cosmologie liés par exemple à la matière et à l'énergie sombre trouvent leur reflet dans de nombreux (projets d') expériences cherchant à les mettre en évidence.

3/ Physique expérimentale des particules (contact Mathieu De Naurois, Pascal Paganini)

De quoi est faite la matière noire dans l'univers ? Quelles sont les masses des énigmatiques neutrinos? Quelle est l'origine des masses si différentes des particules élémentaires ? Est-ce qu’il existe une seule particule de Higgs ? Voici quatre, parmi les plus brûlantes, des nombreuses questions que se posent les physiciens des particules, théoriciens comme expérimentateurs, aujourd'hui. L'information expérimentale, qu'elle passe par la découverte de nouveaux phénomènes ou par des mesures de précision, est indispensable pour inspirer et tester la théorie. De grands programmes expérimentaux sont en cours de conception, de réalisation ou d'exploitation, par des collaborations internationales. Tous utilisent des techniques de pointe dans divers domaines, électronique rapide, informatique en temps réel, traitement des données, lasers de puissance ou physique délicate des détecteurs de particules. Un élève motivé par les grandes questions de physique aura l'opportunité de se confronter à l'expérimentation. Il sera généralement encadré au sein d’une équipe qui lui confiera le dépouillement guidé de données issues d’expériences ou grandes simulations. Parmi les stages proposés, certains concerneront des questions d'une grande actualité : oscillations de neutrinos, recherches sur le boson de Higgs au LHC, symétries fondamentales, astrophysique des particules. D'autres stages pourront porter sur les développements des détecteurs ou l'étude des techniques d'accélération du futur.

 

DÉROULEMENT DU STAGE DE RECHERCHE

Les élèves sont encouragés à se regrouper en binômes pour effectuer ces stages, de manière à pouvoir tirer le meilleur profit aussi d'échanges entre eux.

Les sujets de stage peuvent, dans les meilleurs cas, aboutir à un travail de recherche original et à une publication, ils nécessitent de toute manière une initiation préliminaire durant un temps plus ou moins long selon les sujets.

Cette acquisition de compléments à l'enseignement de l'École se fera durant le stage, mais pourra aussi selon les besoins être guidée par les responsables du stage de recherche.

Les stages auront lieu dans les laboratoires de la région parisienne, de province ou à l'étranger. Certains stages expérimentaux comportant des prises de données permettent des séjours auprès des grands accélérateurs (CERN, Japon),  d'autres pourront être effectués dans des laboratoires universitaires étrangers : Allemagne, Belgique, Canada, Etats-Unis, Royaume-Uni (langue de travail: anglais).

Les responsables et enseignants sont à votre disposition pour vous donner toutes précisions sur chacun des sujets proposés (style de travail, proportion entre initiation et recherche originale, etc...) et les infléchir éventuellement selon vos goûts. Ils sont également prêts à étudier la possibilité d'organiser des stages sur d'autres sujets que des élèves particulièrement motivés souhaiteraient étudier, ou des stages expérimentaux en particulier au CERN (pratique de l'anglais nécessaire).

Compte tenu du temps de maturation nécessaire pour "entrer" dans les sujets de stages proposés, il est impératif de choisir votre sujet et d'en discuter avec votre futur directeur de stage et avec le responsable d'option, suffisamment à l'avance.

A titre indicatif, voici quelques sujets de stages proposés au cours des années précédentes :

- Théorie de la renormalisation
- Théorie de la gravitation
- Théorie des cordes
- Supersymétrie
- Matrices aléatoires
- Physique statistique hors d'équilibre
- Equations quantiques stochastiques
- Micro-manipulation de molécule d'ADN
- Capture d'un trou noir par une étoile à neutrons
- Neutrinos cosmiques
- Matière sombre
- Désintégration des mésons et physique au-delà du modèle standard
- Le boson de Higgs
- Désintégration du boson de Higgs en deux leptons tau
- Observation d'un phénomène quantique sur 300 km : l'oscillation des neutrinos au Japon
- Photons cosmiques de très haute énergie et violation de l'invariance de Lorentz
- Test en faisceau au CERN de calorimètres super-granulaires pour un futur collisionneur linéaire e+e-
- Développer aujourd'hui les accélérateurs de particules de demain : accélération laser-plasma
- Sursauts gamma et chocs cosmiques
- Développement d'un polarimètre cosmique
- Détection de matière noire dans de l'argon liquide
- Gravité à petites échelles

 

Langue du cours : Français

international collaborations. All use advanced techniques in various areas: fast electronics, informatics in real time, data processing, power laser or physics of particle detector. Students who are motivated by the main questions in physics will have the opportunity to experiment. They will generally be supervised as part of a team, which will entrust them with the guided data analysis from experiences or simulations. Among the internships, some are about topical issues: neutrinos oscillations, research on Higgs boson at the LHC, fundamental symmetries, particle astrophysics. Other internships could focus on development of detectors or the study of future acceleration techniques.

 

RESEARCH INTERNSHIP PROGRESS

Students are encouraged to form duos to do their internship, in order to benefit from exchanges between them.

Subjects of study can lead to an original research work and publication, they require a preliminary introduction during a more or less time depending on the subject.

This acquisition of complementary skills to the Ecole's teaching will take place during the internship, but can also be guided by internship supervisors as needed.

Internships will take place in laboraties in the Paris region, province or abroad. Some of experimental internships include data allowing collection in major accelerators (CERN, Japan), other in foreign academic laboratories: Belgium, Canada, Germany, United Kingdom, United States (work language: English).

Supervisors and professors are at your disposal to give you precisions on each subject proposed () and eventually them to your liking. they are also willing to look into the possibility of organizing internships on other subjects that motivated students may wish to study, or experimental internships at the CERN (require English practice).

According to the time necessary to in subject of internship offered, it is mandatory to choose your subject and discuss it well in advance with your future internship director and option supervisor.

For your information, here are some subjects proposed in the early years:

  • Renormalization theory
  • Gravitation theory
  • String theory
  • Supersymmetry
  • Random matrices
  • Statistic physics balance
  • Stochastic quantum equations
  • Micromanipulation of DNA molecule
  • Black hole capture by a neutron star
  • Cosmic neutrinos
  • Dark matter
  • Meson desintegration and physics beyond the standard model
  • Higgs boson
  • Desintegration of the Higgs boson in two tau leptons
  • Observation of a quantum phenomenon for 300km: neutrinos oscillation in Japan
  • Cosmic photons of extremely high energy and Lorentz violation
  • Beam test at the CERN of highly granular for a futur e+e- linear collider
  • Developing today the tomorrow's particle accelerators: laser-plasma acceleration
  • Gamma-ray burst and cosmic collisions
  • Comsic collision development
  • Detection of black matter in liquid argon
  • Small-scale gravity

 

 

Course language: French

Lecturers: Thomas MUELLER, Cristina VOLPE

 

 

The course will focus on forefront experimental and theoretical neutrino physics and astrophysics. The lectures will be articulated as follows.

We will start with a (relatively) short historical introduction leading up to the Standard Model of electroweak interactions and the discovery of neutrino oscillations. We will present theoretical aspects of neutrino oscillations in vacuum and in matter - the Mikheev-Smirnov-Wolfenstein effect and applications to the Sun, to the Earth and core-collapse supernovae. The most important results will be described concerning solar, atmospheric, reactor and accelerator neutrino oscillation experiments that lead us to the 3 flavour oscillation framework and the current measurement of most of the oscillation parameters. We will present the global analysis of all existing neutrino oscillation data, the presence of anomalies and discuss remaining key questions, including the neutrino (Majorana versus Dirac) nature and absolute mass, the neutrino mass ordering, the existence of CP violation and of sterile neutrinos.

 

Since neutrino oscillations require those particles to have a mass, we will describe how to extend the Standard Model to generate a mass to the neutrino. We will then discuss neutrinos as Dirac or Majorana particles. We will present our knowledge on the absolute scale of neutrino masses coming from the measurement of the end-point of the electron spectrum in nuclear beta-decays and neutrinoless 
double-beta-decay experiments.

 

Neutrinos can be produced in violent phenomena and dense environments, such as in core-collapse supernovae and in accretion disks around compact objects (neutron star mergers and black holes). The investigation of neutrino propagation in media has uncovered novel flavor conversion phenomena, due in particular to the neutrino self-interaction. In this context many open questions remain. We will describe the density matrix and effective spin formalisms employed to describe neutrino evolution. We will derive the evolution equations currently used, based on the mean-field approximation and make the connection to other many body systems such as condensed matter and atomic nuclei. We will discuss the link to the supernova dynamics, the relevance for heavy element nucleosynthesis and the recent kilonova observation. Finally we will discuss future observations of neutrinos from core-collapse supernovae and the possible discovery of the diffuse supernova neutrino background.

 

ECTS credits: 3

 

Catégorie: Master 2 / MScT 2A

The course will provide an introduction to Data Analysis techniques. The aim is to develop the basics of probabilities and statistics as needed to exploit experimental data, once at hand.
High Energy experiments may involve either precise measurements based on large data sample, or searches for discovery relying on small data sample. In both cases, a sound understanding of statistical methods is mandatory, both for experimentalists and theoreticians, in order to be able to produce and interpret correctly experimental results.

After a review of the basic concepts of statistics and probability, we will start with parameter estimation, including standard methods such as chi2 minimisation or maximum likelihood, as well as data combination. We will then then study interval estimation, including limit setting, and hypothesis testing (including the special case of goodness-of-fit testing). We will end with introductions to multivariate analysis and unfolding.
The mathematics needed is mostly elementary. Examples of applications of the techniques will be taken from current and past experiments.

Bibliographical reference:
- "Statistical Methods in Experimental Physics”, Second Edition, Frederick James (CERN) World Scientific (2006).
- "Statistical Data Analysis”, Glen Cowan (London) Clarendon Press, Oxford (1998).

Catégorie: Master 2 / MScT 2A

In the Beginner’s Physics Lab sessions students will have the opportunity to apply the physics knowledge they have acquired in PHY 101 in 4 distinct lab sessions of 4 hour duration. Students will learn basic experimental techniques, data analysis and interpretation, and documentation of experimental work. PHY103 will cover harmonic oscillators, forces and equilibrium, kinematics and collisions, and waves.

Catégorie: Bachelor 1

In the Beginner’s Physics Lab sessions, students will have the opportunity to apply the phyics knowledge they have acquired in PHY104 in five distinct lab sessions of 4-hour duration. Students will learn basic experimental techniques, data analysis and interpretation, and documentation of experimental work. Students will cover, in-depth, the measurement of the speed of light, the measurement of the specific charge (e/m) of the electron, the photoelectric effect and the measurement of the Planck constant, as well as the Franck-Hertz experiment.

Catégorie: Bachelor 1

Physique des systèmes vivants : réseaux, traitement de l'information, comportement

L'interface entre la physique et la biologie est en pleine expansion, grâce aux progrès des méthodes de mesure (liées aux nanotechnologies, à la microfluidique, aux manipulations de molécules uniques, aux méthodes d'imagerie optique, au séquençage massif, ...). Ces progrès permettent à la fois d'améliorer notre compréhension fondamentale des processus vivants, et de rendre possibles de nouvelles applications biomédicales ou en bio-ingénierie.

L'objectif du cours sera double :

- introduire des concepts et des méthodes quantitatives, empruntés à la physique statistique, à la théorie de l'information et à l'apprentissage automatique pour analyser, modéliser et étudier les systèmes biologiques, en mettant l'accent sur les effets collectifs soutenant les fonctions et les calculs biologiques ;

- appliquer ces méthodes à des systèmes réels issus de tous les domaines de la biologie, en particulier les neurosciences, l'immunologie, la génomique, la biologie moléculaire, la biologie évolutive, etc. En pratique, les étudiants recevront des données de mesures expérimentales et les traiteront, en écrivant des codes Python, et discuteront les résultats obtenus. L'accent sera mis sur la mise en place des méthodes et sur les concepts, et non sur la programmation en elle-même.

Niveau requis : PHY433 - Physique statistique - Aucun prérequis en biologie n'est nécessaire.


Langue du cours : Anglais

 

"Python have reaches n°4 of the top programming language in 2019 (Tiobe Index). Many applications and researches are based on this language. The Python rises is due to its large implementation over the last years in data sciences and machine learning and is became a must requirement for many job positions. Python for Beginners is a course for people who don’t have any background about programming. During this course you will learn how to install and call Python in your computer, how to manage the basic operations, how to organize your program, how to define and use a function, how to use files (csv), how to draw figures, how to use other functionalities like libraries and finally you will have exercises to practice what you have learn

PHY569B – Plasmas astrophysiques et missions spatiales

Le système solaire constitue un laboratoire idéal pour étudier des processus de physique fondamentale (ex. la turbulence, la reconnexion magnétique, et les chocs), qui sous-tendent des problématiques majeures en physique spatiale, tels que le chauffage la couronne et vent solaires, l'accélération des particules et les émissions radio dans les magnétosphères planétaires (ex. aurores). La raison principale est la disponibilité de données in situ complètes mesurées par diverses missions spatiales qui explorent ces milieux astrophysiques depuis environ un demi-siècle. C’est le cas de l'exploration du vent solaire par Voyager depuis les années 1970 jusqu'aux missions plus récentes, NASA/Parker Solar Probe (lancée en 2018) et l'ESA/Solar Orbiter (lancée en 2020) ; l'exploration de la magnétopshère terrestre par les missions multi-satellites telles que l'ESA / Cluster (2000) et la NASA / MMS (2015) ; l'exploration planétaire: Jupiter par NASA/Galileo, Juno (2016) et ‘‘bientôt’’ ESA/JUICE (qui sera lancée en 2022, pour une insertion en orbite en 2030), Saturne par NASA-ESA/Cassini (1997-2017), Mercure par NASA/Messenger (2011) et ESA-JAXA/BepiColombo (lancée en 2018, insertion en orbite fin 2025). Les progrès réalisés dans le système solaire nous permettent de mieux appréhender des problématiques similaires rencontrées dans d’autres milieux astrophysiques plus lointains, peu ou pas accessibles aux mesures directes. C’est le cas de la formation d'étoiles dans le milieu interstellaire (ISM), l'accélération des rayons cosmiques et la génération de champs magnétiques dans les galaxies et les galaxies inter-amas (ICG), le transport du moment angulaire et l'accrétion de matière autour d'objets compacts (ex. les trous noirs).

Dans ce cours, nous présenterons d'abord quelques grandes questions ouvertes en plasmas astrophysiques et expliquerons comment elles peuvent être abordées en utilisant le système solaire comme laboratoire pour tester les théories existantes. Dans la deuxième partie, nous rappellerons quelques équations de base de la physique des plasmas (descriptions cinétiques et fluides, ex. MHD et ses extensions à petites échelles, la MHD-Hall), avant d’étudier en détail quelques processus universels tels que la turbulence plasma et la reconnexion magnétique. Nous exposerons les théories sous-jacentes de ces processus et expliquerons comment ils peuvent aider à résoudre quelques unes des questions abordées dans la partie introductive du cours, en mettant l’accent sur comment tester les prédictions théoriques directement dans les observations in-situ fournies par les missions spatiales.

Dans la deuxième partie du cours nous décrirons les principaux instruments in-situ embarqués à bords de missions spatiales (ex., magnétomètres, sondes de Langmuir, spectromètres à plasma - électrons et ions). Nous expliquerons leur principe de fonctionnement, les contraintes et limitations inhérentes à l'exploration spatiale (coût, masse, puissance, télémétrie). Nous présenterons également certaines méthodes et techniques de traitement du signal utilisées pour analyser les données des missions spatiales (mono ou multi-satellites). Dans la dernière partie, nous présenterons les grandes tendances actuelles de l'exploration spatiale dédiée à la physique des plasmas (aussi bien dans le vent solaire que dans les magnétosphères planétaires). Nous présenterons les nouvelles questions scientifiques qui ont émergé à la lumière des progrès récents réalisés grâce aux missions en cours d’exploitation, et discuterons des nouveaux concepts de missions spatiales en cours de préparation et les nouveaux défis techniques qu’elles posent.

Langue du cours : Anglais

PHY584 -Aspects expérimentaux de la physique subatomique des hautes énergies

Cet enseignement constitue une introduction à la physique expérimentale des particules et à ses utilisations en astrophysique (astroparticules). Il est partagé à parts égales entre des cours et un travail personnel, de nature expérimentale ou bibliographique.

Les cours aborderont le contexte actuel de la physique des hautes énergies, au travers des thèmes de recherche explorés au laboratoire Leprince-Ringuet (LLR). La physique du modèle standard sera effleurée dans le contexte de la recherche du boson de Higgs (avec l’expérience CMS du LHC) et des oscillations des neutrinos (expérience T2K au Japon). La recherche sur le rayonnement cosmique de haute énergie sera approchée notamment par l'observation de photons gamma dans l'espace (expérience Fermi) et sur Terre (expérience HESS).

Les interactions rayonnement/matière seront décrites à partir des techniques instrumentales de détection de particules issues d'accélérateurs artificiels ou cosmiques. Les phénomènes rares (la détection d'un boson, d'un neutrino, ou d'un photon cosmique) nécessitent en outre l'utilisation d'outils expérimentaux et statistiques spécifiques qui seront traités dans le cours.

Le travail personnel portera, selon les appétences et les sujets disponibles, sur des développements techniques ou des analyses en cours au LLR ou sur l'étude de publications expérimentales récentes.

 

Modalités d'évaluation : un rapport par binôme et un oral individuel + questions
Langue du cours : Anglais

Responsables :

Mathieu De Naurois (mathieu.de-naurois@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 55 97)
Christoph Kopper (christoph.kopper@polytechnique.edu, École polytechnique, Tél. 01 69 33 42 61)
Cédric Lorcé (cedric.lorce@polytechnique.edu, École polytechnique, Tél. 01 69 33 42 14)
Stéphane Munier (stephane.munier@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 42 85)
Pascal Paganini (pascal.paganini@polytechnique.edu, Ecole polytechnique, Tél. 01 69 33 55 62)

Le but de ce stage de recherche, effectué à temps complet, est de mettre les élèves en contact avec la recherche fondamentale telle qu'elle se pratique dans les laboratoires de physique théorique ou de physique des particules expérimentale. Le stage s'adresse évidemment aux élèves motivés pour ce type de recherche, mais aussi à ceux qui, ayant décidé de faire tout autre chose, désirent connaître durant 4-5 mois ce qu'est la recherche fondamentale. Il leur permettra de découvrir en quoi consiste le travail du chercheur dans ces disciplines. Selon l'orientation de la thématique du stage, théorique ou expérimentale, il est nécessaire d'avoir suivi certains des enseignements suivants : PHY430, PHY431, PHY433, PHY551, PHY553, PHY554, PHY561, PHY566, PHY568, MAT/PHY575, PHY584.


LES SUJETS D'ÉTUDES

Les sujets de stage proposés se classent en trois catégories :

1/ Théorie des champs, physique statistique et physique mathématique (contact Christoph Kopper, Stéphane Munier)

En Physique, le très grand nombre de degrés de liberté à l'échelle microscopique donne lieu, aux échelles méso- ou macroscopique, à des phénomènes quantiques ou statistiques variés qu'il s'agit de comprendre. Des progrès spectaculaires sont accomplis grâce à l'utilisation des concepts de théorie des champs et de probabilités en mécanique quantique ou statistique, et certains sujets de l'option s'y rattachent. D'autres illustrent l'application des concepts de la théorie des champs et de la physique statistique à des domaines a priori extérieurs à celle-ci, par exemple les systèmes dits complexes. Enfin, les thèmes inspirés par la biologie fournissent des sujets très intéressants pour la physique statistique.

2/ Physique théorique des particules et de la gravitation  (contact Christoph Kopper, Cédric Lorcé, Stéphane Munier)

Il s’agit de connaître la structure et les interactions des particules fondamentales. Une percée spectaculaire a été accomplie lorsque l’on a découvert que toutes les interactions connues (fortes, électromagnétiques, faibles et gravitationnelles) peuvent être décrites avec un même langage, celui des « théories de jauge ». Ce résultat a été brillamment confirmé par l’expérience, jusqu'à la découverte du bosons de Higgs en 2012 dont il s'agit maintenant d'étudier plus précisément les propriétés. Les sujets de recherche dans le domaine sont d'une part l'étude des prédictions précises du modèle standard dans ses différents domaines, et d'autre part ses possibles extensions sous forme d'une éventuelle extension supersymétrique entre bosons et fermions etc. L'analyse des interactions fortes requiert souvent des méthodes autres que perturbatives lesquelles s'appliquent au secteur électrofaible du modèle standard. Les problèmes posés par la construction d’une théorie quantique de la gravitation ont conduit aux théories des cordes et autres objets étendus. Des problèmes provenant de la cosmologie liés par exemple à la matière et à l'énergie sombre trouvent leur reflet dans de nombreux (projets d') expériences cherchant à les mettre en évidence.

3/ Physique expérimentale des particules (contact Mathieu De Naurois, Pascal Paganini)

De quoi est faite la matière noire dans l'univers ? Quelles sont les masses des énigmatiques neutrinos? Quelle est l'origine des masses si différentes des particules élémentaires ? Est-ce qu’il existe une seule particule de Higgs ? Voici quatre, parmi les plus brûlantes, des nombreuses questions que se posent les physiciens des particules, théoriciens comme expérimentateurs, aujourd'hui. L'information expérimentale, qu'elle passe par la découverte de nouveaux phénomènes ou par des mesures de précision, est indispensable pour inspirer et tester la théorie. De grands programmes expérimentaux sont en cours de conception, de réalisation ou d'exploitation, par des collaborations internationales. Tous utilisent des techniques de pointe dans divers domaines, électronique rapide, informatique en temps réel, traitement des données, lasers de puissance ou physique délicate des détecteurs de particules. Un élève motivé par les grandes questions de physique aura l'opportunité de se confronter à l'expérimentation. Il sera généralement encadré au sein d’une équipe qui lui confiera le dépouillement guidé de données issues d’expériences ou grandes simulations. Parmi les stages proposés, certains concerneront des questions d'une grande actualité : oscillations de neutrinos, recherches sur le boson de Higgs au LHC, symétries fondamentales, astrophysique des particules. D'autres stages pourront porter sur les développements des détecteurs ou l'étude des techniques d'accélération du futur.

 

DÉROULEMENT DU STAGE DE RECHERCHE

Les élèves sont encouragés à se regrouper en binômes pour effectuer ces stages, de manière à pouvoir tirer le meilleur profit aussi d'échanges entre eux.

Les sujets de stage peuvent, dans les meilleurs cas, aboutir à un travail de recherche original et à une publication, ils nécessitent de toute manière une initiation préliminaire durant un temps plus ou moins long selon les sujets.

Cette acquisition de compléments à l'enseignement de l'École se fera durant le stage, mais pourra aussi selon les besoins être guidée par les responsables du stage de recherche.

Les stages auront lieu dans les laboratoires de la région parisienne, de province ou à l'étranger. Certains stages expérimentaux comportant des prises de données permettent des séjours auprès des grands accélérateurs (CERN, Japon),  d'autres pourront être effectués dans des laboratoires universitaires étrangers : Allemagne, Belgique, Canada, Etats-Unis, Royaume-Uni (langue de travail: anglais).

Les responsables et enseignants sont à votre disposition pour vous donner toutes précisions sur chacun des sujets proposés (style de travail, proportion entre initiation et recherche originale, etc...) et les infléchir éventuellement selon vos goûts. Ils sont également prêts à étudier la possibilité d'organiser des stages sur d'autres sujets que des élèves particulièrement motivés souhaiteraient étudier, ou des stages expérimentaux en particulier au CERN (pratique de l'anglais nécessaire).

Compte tenu du temps de maturation nécessaire pour "entrer" dans les sujets de stages proposés, il est impératif de choisir votre sujet et d'en discuter avec votre futur directeur de stage et avec le responsable d'option, suffisamment à l'avance.

A titre indicatif, voici quelques sujets de stages proposés au cours des années précédentes :

- Théorie de la renormalisation
- Théorie de la gravitation
- Théorie des cordes
- Supersymétrie
- Matrices aléatoires
- Physique statistique hors d'équilibre
- Equations quantiques stochastiques
- Micro-manipulation de molécule d'ADN
- Capture d'un trou noir par une étoile à neutrons
- Neutrinos cosmiques
- Matière sombre
- Désintégration des mésons et physique au-delà du modèle standard
- Le boson de Higgs
- Désintégration du boson de Higgs en deux leptons tau
- Observation d'un phénomène quantique sur 300 km : l'oscillation des neutrinos au Japon
- Photons cosmiques de très haute énergie et violation de l'invariance de Lorentz
- Test en faisceau au CERN de calorimètres super-granulaires pour un futur collisionneur linéaire e+e-
- Développer aujourd'hui les accélérateurs de particules de demain : accélération laser-plasma
- Sursauts gamma et chocs cosmiques
- Développement d'un polarimètre cosmique
- Détection de matière noire dans de l'argon liquide
- Gravité à petites échelles

 

Langue du cours : Français

international collaborations. All use advanced techniques in various areas: fast electronics, informatics in real time, data processing, power laser or physics of particle detector. Students who are motivated by the main questions in physics will have the opportunity to experiment. They will generally be supervised as part of a team, which will entrust them with the guided data analysis from experiences or simulations. Among the internships, some are about topical issues: neutrinos oscillations, research on Higgs boson at the LHC, fundamental symmetries, particle astrophysics. Other internships could focus on development of detectors or the study of future acceleration techniques.

 

RESEARCH INTERNSHIP PROGRESS

Students are encouraged to form duos to do their internship, in order to benefit from exchanges between them.

Subjects of study can lead to an original research work and publication, they require a preliminary introduction during a more or less time depending on the subject.

This acquisition of complementary skills to the Ecole's teaching will take place during the internship, but can also be guided by internship supervisors as needed.

Internships will take place in laboraties in the Paris region, province or abroad. Some of experimental internships include data allowing collection in major accelerators (CERN, Japan), other in foreign academic laboratories: Belgium, Canada, Germany, United Kingdom, United States (work language: English).

Supervisors and professors are at your disposal to give you precisions on each subject proposed () and eventually them to your liking. they are also willing to look into the possibility of organizing internships on other subjects that motivated students may wish to study, or experimental internships at the CERN (require English practice).

According to the time necessary to in subject of internship offered, it is mandatory to choose your subject and discuss it well in advance with your future internship director and option supervisor.

For your information, here are some subjects proposed in the early years:

  • Renormalization theory
  • Gravitation theory
  • String theory
  • Supersymmetry
  • Random matrices
  • Statistic physics balance
  • Stochastic quantum equations
  • Micromanipulation of DNA molecule
  • Black hole capture by a neutron star
  • Cosmic neutrinos
  • Dark matter
  • Meson desintegration and physics beyond the standard model
  • Higgs boson
  • Desintegration of the Higgs boson in two tau leptons
  • Observation of a quantum phenomenon for 300km: neutrinos oscillation in Japan
  • Cosmic photons of extremely high energy and Lorentz violation
  • Beam test at the CERN of highly granular for a futur e+e- linear collider
  • Developing today the tomorrow's particle accelerators: laser-plasma acceleration
  • Gamma-ray burst and cosmic collisions
  • Comsic collision development
  • Detection of black matter in liquid argon
  • Small-scale gravity

 

 

Course language: French

The course will provide an introduction to Data Analysis techniques. The aim is to develop the basics of probabilities and statistics as needed to exploit experimental data, once at hand.
High Energy experiments may involve either precise measurements based on large data sample, or searches for discovery relying on small data sample. In both cases, a sound understanding of statistical methods is mandatory, both for experimentalists and theoreticians, in order to be able to produce and interpret correctly experimental results.

After a review of the basic concepts of statistics and probability, we will start with parameter estimation, including standard methods such as chi2 minimisation or maximum likelihood, as well as data combination. We will then then study interval estimation, including limit setting, and hypothesis testing (including the special case of goodness-of-fit testing). We will end with introductions to multivariate analysis and unfolding.
The mathematics needed is mostly elementary. Examples of applications of the techniques will be taken from current and past experiments.

Bibliographical reference:
- "Statistical Methods in Experimental Physics”, Second Edition, Frederick James (CERN) World Scientific (2006).
- "Statistical Data Analysis”, Glen Cowan (London) Clarendon Press, Oxford (1998).

Catégorie: Master 2

Lecturers: Thomas MUELLER, Cristina VOLPE

 

 

The course will focus on forefront experimental and theoretical neutrino physics and astrophysics. The lectures will be articulated as follows.

We will start with a (relatively) short historical introduction leading up to the Standard Model of electroweak interactions and the discovery of neutrino oscillations. We will present theoretical aspects of neutrino oscillations in vacuum and in matter - the Mikheev-Smirnov-Wolfenstein effect and applications to the Sun, to the Earth and core-collapse supernovae. The most important results will be described concerning solar, atmospheric, reactor and accelerator neutrino oscillation experiments that lead us to the 3 flavour oscillation framework and the current measurement of most of the oscillation parameters. We will present the global analysis of all existing neutrino oscillation data, the presence of anomalies and discuss remaining key questions, including the neutrino (Majorana versus Dirac) nature and absolute mass, the neutrino mass ordering, the existence of CP violation and of sterile neutrinos.

 

Since neutrino oscillations require those particles to have a mass, we will describe how to extend the Standard Model to generate a mass to the neutrino. We will then discuss neutrinos as Dirac or Majorana particles. We will present our knowledge on the absolute scale of neutrino masses coming from the measurement of the end-point of the electron spectrum in nuclear beta-decays and neutrinoless 
double-beta-decay experiments.

 

Neutrinos can be produced in violent phenomena and dense environments, such as in core-collapse supernovae and in accretion disks around compact objects (neutron star mergers and black holes). The investigation of neutrino propagation in media has uncovered novel flavor conversion phenomena, due in particular to the neutrino self-interaction. In this context many open questions remain. We will describe the density matrix and effective spin formalisms employed to describe neutrino evolution. We will derive the evolution equations currently used, based on the mean-field approximation and make the connection to other many body systems such as condensed matter and atomic nuclei. We will discuss the link to the supernova dynamics, the relevance for heavy element nucleosynthesis and the recent kilonova observation. Finally we will discuss future observations of neutrinos from core-collapse supernovae and the possible discovery of the diffuse supernova neutrino background.

 

ECTS credits: 3

 

Catégorie: Master 2

Les modèles sont partout, et surtout lorsqu'il est question de transitions énergétiques et de climat. Ils permettent de justifier la prise de décision et de constituer la méthode standard pour tester et améliorer notre compréhension. Cependant, la définition d'un "modèle" peut être très différente d'un acteur à l'autre. De plus, les modèles doivent être utilisés avec une certaine prudence méthodologique : chaque modèle est développé pour répodre à des questions précises, dans une intervalle de validité précise, avec des hypothèses précises. Cependant, alors que les résultats et les conclusions des modèles sont souvent facilement utilisés et débattus, la méthodologie et la validité des hypothèses et des résultats ne sont pas assez souvent examinées de près.

En tant que scientifiques impliqués dans les transitions énergétiques et climatiques, vous serez confrontés à de nombreux modèles différents, que vous les ayez développés vous-mêmes ou que vous utilisiez simplement leurs résultats.

Attention, il ne s'agit pas d'un cours de mathématiques appliquées : une programmation efficace est importante, de même qu'un choix judicieux des algorithmes, mais cela vient après que le cadre général a été choisi et la direction fixée. Il ne s'agit pas non plus d'un cours sur l'analyse des mégadonnées. Un algorithme efficace peut produire des données non pertinentes ou erronées, et l'utilisation d'outils d'analyse de données récents n'aidera pas à produire des conclusions sensées.

Les premiers cours vont introduire les concepts de base de modélisation () ainsi qu'une série de méthodes physiques pertinentes pour le domaine (). Les cours suivants seront présentés par des experts dans le secteur de transition et vont partager leur propre expérience de la modélisation. Les étudiants choisiront une étude de cas qu'ils vont étudier tout au long du cours, en construsant leur propre modèle pour le comparer et le tester par rapport à la littérature existante.

Catégorie: Master 2

The development of Smart-Grids is expected to come from the aggregation of basic low voltage power supply networks, known as micro-grids, which associate local energy production with storage capacities and energy consumers. Micro-grids restricted to a single building are often called "Nano-grids" and are also getting attention as the building block of a micro-grid.  Such Nano-grids are vulnerable to both sudden changes of power generation and load demand because of their small size, especially when operating in an island mode. Thus, managing uncertainty becomes essential when searching for an optimal Nano-grid operation.

The students will experience on a small-size Nano-grid model installed in Ecole Polytechnique campus, (Renewables sources, battery, controlled load, intelligent monitoring, …).  This structure has the particularity that two components are emulated with controlled electronic devices: the secondary power source, which replaces the role of an engine-generator (in case of an off-grid scenario) or the electric utility power, and the load, which replaces a real power demand from appliances and consumer actions. The electric parameters (intensity, voltage, power) for all components, as well as air/panel temperatures, are available in real-time and also from historical recordings.

 By example, the experimental project can be:

  • The analysis of historical data so to evaluate the performance of Nano-grid for different types of days, consumption scenarios and management strategies.
  • The evaluation of live Nano-grid performance through manual operation, by adjusting the target loads, the optimization EMS parameters and the input power.
  • The development of new energy management system or new algorithm.
  • The integration of new renewable sources in the Nano-grid.
  • ...........

Langue du cours : Anglais

Catégorie: Master 2

Programme d'approfondissement en mathématiques appliquées

Nous tenons cette page à jour pour communiquer si nécessaire des instructions relatives à la campagne d'inscription (par ex, listes d'attente), merci de la consulter régulièrement.

 
Pour les X23 (2025-2026)

Les transparents de la présentation du 2 avril 2025 sont disponibles ici , et ceux des cours MAP .

Pour rejoindre un cours dont le numerus clausus est atteint, veuillez remplir ce formulaire, aucune demande ne sera traitée par courriel.

Ce document décrit les modalités d'organisation des EA d'initiation à la recherche du PA MAP. La version définitive pour 2025/2026, incluant la date limite pour effectuer les vœux, sera disponible sur les pages Moodle 2025/2026 de EA APM_51111_EP, APM_52112_EP, APM_50113_EP. Pour toute question relative à l'organisation générale de cet EA, vous pouvez nous écrire à ea-recherche@cmap.polytechnique.fr

Les adresses email à utiliser obligatoirement

  • pa-map@polytechnique.fr pour contacter les responsables du PA MAP pour des questions générales, changement de cours, rejoindre le PA, etc.
  • ea-recherche@cmap.polytechnique.fr pour des questions générales relatives aux EA APM_51111_EP/APM_52112_EP/APM_50113_EP.
  • map59x@meslistes.polytechnique.fr avec x=2,3,4,5 pour des questions relatives à l'option de stage correspondante.

Horaires des cours et PC

Vous trouverez ici le planning des cours du PA MAP. Ces informations sont données à titre indicatif. En particulier, l'ouverture de certains créneaux de PC est sujette aux variations des effectifs.

Les EA (APM_51111_EP, APM_50113_EP, APM_51175_EP, APM_51177_EP, APM_51178_EP, APM_50179_EP, APM_52112_EP, APM_52183_EP, APM_52188_EP,APM_52116_EP) ont tous lieu le mardi après-midi.

Prérequis

  • Pour APM_51052_EP, il est nécessaire d’avoir suivi APM_42032_EP 
  • Pour APM_51056_EP, il est nécessaire d’avoir suivi APM_42032_EP ou APM_41033_EP 
  • Pour APM_51176_EP, il est conseillé d’avoir suivi APM_41033_EP
  • Pour APM_51178_EP, il est fortement recommandé d’avoir suivi APM_41033_EP
  • Pour APM_52062_EP il est fortement recommandé d’avoir suivi APM_42031_EP
  • Pour APM_52063_EP, il est conseillé d’avoir suivi APM_42032_EP ou APM_51052_EP
  • Pour APM_52065_EP, il est nécessaire d’avoir suivi APM_41033_EP 
  • Pour MDC_52067_EP, il est nécessaire d’avoir suivi au moins un cours parmi MAP412, APM_42031_EP, FMA_41031_EP ou FMA_42032_EP
  • Pour APM_52069_EP, il est nécessaire d’avoir suivi APM_42032_EP ou APM_41033_EP 
  • Pour APM_52188_EP, il est fortement recommandé d’avoir suivi MDC_51006_EP

Pour déroger à un prérequis, merci de contacter le ou la responsable du cours (en mettant le PA en copie) pour obtenir son accord.

A l’issue de ce SPOC, vous aurez acquis une compréhension synthétique de ce que produisent les démarches de progrès continu, comment y agir comme manager d’équipe, et comment les piloter.


Le SPOC est composé de 3 modules :

  • un module proposant des clés de compréhension d’une démarche de progrès continu.
  • un module consacré au rôle et à la posture du manager d’équipe comme acteur de la démarche.
  • Un module consacré à son pilotage.

Catégorie: SPOC

A l’issue de ce SPOC, vous aurez acquis une compréhension de la démarche LEAN.

Catégorie: SPOC

Rationale: As the computing world now evolves toward applications and services of big data and Internet-of-things (IoT), these technologies are also bound to heavily impact the fundamental architecture of digital economy in the near future. This is due to, unprecedented volume of hardware and data existing in this world, which will completely change the structure of the  behavior and characteristics of human-computer interaction. However, due to the ever-increasing complexity of the recent technologies, it becomes more and more challenging to understand these aspects. Therefore, to fully understand and utilize the building blocks of technologies that contribute to the digitization of the economy, fundamental knowledge of these computing technologies are important.

This course will focus on the fundamental technology description on the building blocks of IoT and big data technologies (IoT hardware/software, communication infrastructure, mobile data analytics, cybersecurity). As these blocks are closely intertwined and utilized in an integrated manner, the course will also delve into the big picture, current utilization cases, and how they are already affecting the economy..

The course will be mainly focused on lectures and discussion topics. Additionally, to help students understand more technological features of technologies mentioned above, the course will involve in-depth demos and simulations, as well as simple do-it-yourself exercises using actual devices and computing technologies.

 

Objectives: The aim of this course is to provide students with an overview of current IT-related technologies and go into depth of the technical details. However, it will be important for the students to be able to understand the architecture as a whole, and be able to connect them together and fully recognize the trend as a whole, so that their newly acquired knowledge allows them to manage and design specific architectures in a bigger frame.

Upon completion of this course, students:

  • Will have an in-depth understanding of various enabling technologies of digitized economy
  • Will understand the architecture of IoT and its communication and networking solutions
  • Will be able to distinguish various communication technologies and their requirements
  • Will be able to recognize new threats and security concerns, and their countermeasures
  • Will be able to understand how blocs can be integrated and utilized as a big-scale service
  • Will be able to make arguments on specific movements and strategies of companies and industries, based on their products related with IoT

 

Programme:

  • Session 1: Introduction and overview on digitized economy as building blocs
  • Part 1: Internet-of-Things

o Session 2: IoT as miniaturized technology of the future

o Session 3: Miniaturized communication and networking

o Session 4: Mobile infrstructure

  • Part 2: Services and Applications

o Session 5: Cloud computing and services

o Session 6: Security and Cyber-attacks

o Session 7: Integrated services

  • Part 3: Design and Consideration

o Session 8: Service design and evaluation