Télécharger le fichier pdf d’un mémoire de fin d’études
Auto-Encoder
Dropout
Traitement des langues naturelles & Représentations
Représentation vectorielle – Sac de mots
|
Table des matières
Introduction
1 Réseaux de neurones
1.1 Modèle de réseaux
1.1.1 Perceptron multi-couches
1.1.2 Auto-Encoder
1.1.3 Denoising Auto-Encoder
1.2 Optimisation d’un réseau de neurones et hyperparamètres
1.2.1 Descente de gradient
1.2.1.1 Momentum
1.2.1.2 Adam
1.2.2 Hyperparamètres
1.2.2.1 Fonctions d’activations
1.2.2.2 Initialisation
1.2.2.3 Dropout
1.2.2.4 Normalisation par batch
1.2.2.5 Recherche d’hyperparamètres
1.2.2.6 Surapprentissage
1.2.2.7 Implémentation
2 Traitement des langues naturelles & Représentations
2.1 Prétraitements usuels
2.2 Représentation vectorielle – Sac de mots
2.2.1 Sac de mots
2.2.2 tf-idf
2.2.3 Projection LSA
2.2.4 LDA
2.3 Modèle de langue
2.3.1 Représentation des mots (words embedding)
2.3.1.1 Des mots aux documents
2.3.2 Au delà des modèles de langues
2.4 Réduction de dimensionalité
2.4.1 t-SNE
3 Système de recommandation
3.1 Introduction
3.1.1 Définitions
3.2 Les méthodes de recommandations
3.2.1 Filtrage collaboratif
3.2.1.1 À base de modèle
3.2.1.2 À base de mémoire, orientée objet
3.2.1.3 Limites du filtrage collaboratif
3.2.2 À base de contenu
3.2.2.1 À base de modèle
3.2.3 Méthodes hybrides, méthodes d’ensembles
3.3 Évaluer un système de recommandation
3.3.1 Mesure de précision : prédire la note
3.3.2 Mesure de support de décision : score de classification
3.3.3 Mesure de rang
3.3.4 Autres mesures
4 Description des données
4.1 Introduction
4.2 Jeux de données
4.2.1 CiteUlike
4.2.2 ResSys
4.2.3 Qapa
4.2.4 ABG
5 Analyse des données
5.1 Qualité de R
5.1.1 Qualité du filtrage collaboratif
5.1.2 Graphe des interactions et petit monde
5.2 Qualité des documents
5.2.1 Comparaisons de tf-idf, LSA, LDA et Doc2Vec
5.2.2 Appariement direct offre – CV
5.2.3 Recommandation à base de mémoire
5.3 Analyse Qapa par métiers
5.3.1 Cartographie des offres et des métiers
6 Réseaux Siamois LaJam
6.1 Apprentissage de métrique
6.1.1 Approche linéaire : Distance de Mahalanobis
6.1.2 Approche non-linéaire : les Réseaux Siamois
6.1.2.1 Discussion
6.2 Modèle LaJam
6.3 Expériences préliminaire sur le rouleau Suisse
6.4 LaJam
6.4.1 Protocole expérimental
6.4.2 Démarrage à chaud
6.4.3 Démarrage à froid
6.5 Discussion
7 Challenge RecSys
Conclusion
A Collaborative Local Embedding (CLE) : Distorsion locale de la représentation
A.1 Locally Linear Embedding
A.2 Distorsion
A.3 Modèle CLE
A.3.1 Résultats
B Différence d’orientation entre objet et utilisateur
C Données Qapa
D Données ABG
Télécharger le rapport complet
