Le Web regorge de sources de données que l'on souhaite manipuler à grande echelle. L'approche actuelle est de représenter ces données sous la forme d'un graphe de données ou de connaissance; par exemple les données ouvertes et connectées (open data), les réseaux sociaux, des encyclopedies en lignes. Cette approche est même présente dans les grandes industries du Web, Alphabet (dans Google) et Meta (Facebook).


L'avantage des graphes de connaissances est de pouvoir les interroger à l'aide de langages logiques mais aussi de pouvoir apprendre des propriétés structurelles sur ceux-ci.

Si les graphes de connaissances sont des outils très importants pour la gestion de données sur le Web, toutes les données sur le Web ne sont pas éditées dans un tel model. Il est alors nécessaire de fouiller et d'apprendre dans les textes et autres contenus moins structurés pour construire de nouveaux graphes.


Ce cours introduit les différentes grandes étapes qu'un ingénieur en data science a besoin d'opérer pour extraire des connaisssances de grand volumes de données.
Il vous familiarisera avec des outils concrets pour:

 

Sample graph

Manipuler et visualiser des graphes.
 

Classification des noeuds et des sous-graphes à l'aide des graph embeddings.

 
Raisonner dans des graphes de connaissances, utilisant les technologies du Web Sémantique.
 
Tisser des graphes de connexions entre des textes et des concepts, à l’aide de la sémantique.
 
Fouiller des données textuelles.
 
 
Les 6 premières séances seront destinées à la présentation des concepts et outils, puis vous réaliserez des projets en binôme.
 

 




The web is full of data sources that we wish to manipulate on a large scale. The current approach is to represent this data in the form of a data or knowledge graph; for example, open and connected data (open data), social networks, online encyclopedias. This approach is even present in the major Web industries, Alphabet (in Google) and Meta (in Facebook).

The benefit of knowledge graphs is that they can be questioned using logic languages but also structural properties can be learned from them.

Even if knowledge graphs are very important tools for the management of web data, not all data on the Web are edited in such a model. It is therefore necessary to search and learn from text and other less structured content to build new graphs.

This course introduces the main steps a data science engineer needs to take to extract knowledge from large volumes of data.
It will familiarize you with concrete tools for:

 

Handling and visualizing graphs.

 

Classify nodes and subgraphs using graph embeddings.

 

Reasoning in knowledge graphs, using Semantic Web technologies.


Weaving connection graphs between texts and concepts, using semantics.


Mining textual data.

 

The first 6 sessions will be dedicated to the presentation of concepts and tools, then you will realize projects in pairs.