Amazon cover image
Image from Amazon.com

Machine learning avec R : pour une modélisation mathématique rigoureuse / Scott V. Burger ; [traduction de l'anglais : Daniel Rougé]

LivresAuteur principal: Burger, Scott V., AuteurCo-auteur: Rougé, Daniel, 1952-2020, TraducteurLangue: français ; de l'oeuvre originale, anglais ; de la table des matières, français.Éditeur : Paris : First interactive, DL 2018Description : 1 vol. (X-224 p.) : ill., couv. ill. ; 23 cmISBN: 978-2-412-04115-4.Est une traduction de : Introduction to machine learning with R, cop. 2018Résumé : 4e de couv. : "L'apprentissage automatique (ou machine learning) est un sujet intimidant jusqu'à ce que vous en connaissiez les fondements. Si vous comprenez les principes essentiels du codage, ce guide d'introduction vous aidera à acquérir une base solide dans le domaine de l'apprentissage automatique. En utilisant le langage de programmation R, vous commencerez par apprendre à modéliser avec la régression, puis passerez à des sujets plus avancés tels que les réseaux de neurones et les méthodes arborescentes. Finalement, vous plongerez dans le monde de l'apprentissage automatique en utilisant le package caret associé au langage de programmation R. Une fois que vous serez familiarisé avec des sujets tels que les modèles de régression et de classification, vous serez en mesure de résoudre de multiples problèmes d'apprentissage automatique. L'auteur de ce livre fournit également plusieurs exemples pour vous aider à bâtir une connaissance pratique de l'apprentissage automatique. "Sujet - Nom commun: Apprentissage automatique | Exploration de données Voir dans le SUDOC
Holdings
Item type Current library Collection Shelving location Call number Status Date due Barcode Item holds
Prêt normal Enssib Papier Pôle Information numérique et médias 006 ORG b (Browse shelf(Opens below)) Available 8456897
Total holds: 0

Le nom de l'éditeur (O'Reilly) de la version anglaise du livre figure sur la page de titre et sur la couverture

Index

4e de couv. : "L'apprentissage automatique (ou machine learning) est un sujet intimidant jusqu'à ce que vous en connaissiez les fondements. Si vous comprenez les principes essentiels du codage, ce guide d'introduction vous aidera à acquérir une base solide dans le domaine de l'apprentissage automatique. En utilisant le langage de programmation R, vous commencerez par apprendre à modéliser avec la régression, puis passerez à des sujets plus avancés tels que les réseaux de neurones et les méthodes arborescentes. Finalement, vous plongerez dans le monde de l'apprentissage automatique en utilisant le package caret associé au langage de programmation R. Une fois que vous serez familiarisé avec des sujets tels que les modèles de régression et de classification, vous serez en mesure de résoudre de multiples problèmes d'apprentissage automatique. L'auteur de ce livre fournit également plusieurs exemples pour vous aider à bâtir une connaissance pratique de l'apprentissage automatique. "

P. ix Introduction P. ix Qui devrait lire ce livre ? P. ix Portée du livre P. ix Conventions utilisées dans ce livre P. 1 1. Qu'est-ce qu'un modèle ? P. 6 Algorithmes contre modèles : Quelle est la différence ? P. 8 Une note sur la terminologie P. 9 Limites de la modélisation P. 11 Statistiques et calcul dans la modélisation P. 12 Données d'entraînement P. 13 Validation croisée P. 14 Pourquoi utiliser R ? P. 15 Lebon... P. 17 R et l'apprentissage automatique P. 18 ...et le moins bon P. 19 En résumé P. 21 2. Apprentissage automatique supervisé et non supervisé P. 22 Modèles supervisés P. 22 Régression P. 24 Entraîner et tester des données P. 27 Classification P. 27 Régression logistique P. 29 Méthodes de clustering supervisé P. 34 Méthodes mixtes P. 34 Modèles arborescents P. 37 Forêts aléatoires P. 39 Réseaux de neurones P. 42 Séparateur à vaste marge (SVM) P. 44 Apprentissage non supervisé P. 44 Méthodes non supervisées de clustering P. 46 En résumé P. 49 3. Statistiques, échantillonnage et entraînement des modèles dans R P. 50 Biais P. 55 Échantillonner dans R P. 58 Entraînement et test P. 59 Rôles des jeux d'entraînement et de test P. 59 Pourquoi créer un jeu de test ? P. 60 Jeux d'entraînement et de test : modéliser la régression P. 67 Jeux d'entraînement et de test : modéliser la classification P. 70 Validation croisée P. 71 Validation croisée à k-plis P. 73 En résumé P. 75 4. La régression en bref P. 76 Régression linéaire P. 79 Régression multivariée P. 82 Régularisation P. 85 Régression polynomiale P. 92 Qualité de l'ajustement aux données : les risques d'un ajustement excessif P. 92 Erreur quadratique moyenne P. 93 Simplicité du modèle et qualité de l'ajustement P. 96 Régression logistique P. 96 La motivation pour la classification P. 98 La frontière de décision P. 99 La fonction sigmoïde P. 102 Classification binaire P. 105 Classification multiclasse P. 108 Régression logistique avec caret P. 109 En résumé P. 109 Régression linéaire P. 110 Régression logistique P. 113 5. Les réseaux de neurones en bref P. 113 Réseaux de neurones monocouches P. 115 Construire un réseau de neurones simple en utilisant R P. 117 Sorties de calcul multiples P. 119 Noeuds de calcul cachés P. 124 Réseaux de neurones multicouches P. 131 Réseaux de neurones pour la régression P. 136 Réseaux de neurones pour la classification P. 136 Réseaux de neurones avec caret P. 137 Régression P. 138 Classification P. 138 En résumé P. 141 6. Méthodes arborescentes P. 141 Un modèle d'arbre simple P. 144 Décider comment partager les arbres P. 145 Entropie de l'arbre et gain d'information P. 147 Avantages et inconvénients des arbres de décision P. 148 Surapprentissage des arbres P. 151 Élaguer les arbres P. 157 Arbres de décision pour la régression P. 158 Arbres de décision pour la classification P. 158 Arbres d'inférence conditionnelle P. 161 Régression avec les arbres d'inférence conditionnelle P. 161 Classification avec les arbres d'inférence conditionnelle P. 162 Forêts aléatoires P. 163 Forêts aléatoires et régression P. 164 Forêts aléatoires et classification P. 164 En résumé P. 167 7. Autres méthodes avancées P. 167 Classification naïve bayésienne P. 168 Les statistiques bayésiennes en bref P. 169 Application de la formule naïve bayésienne P. 171 Analyse en composantes principales P. 177 Analyse discriminante linéaire P. 182 Séparateurs à vaste marge P. 188 K plus proches voisins P. 190 K plus proches voisins et régression P. 191 K plus proches voisins et classification P. 193 En résumé P. 195 8. Apprentissage automatique avec le package caret P. 196 Le jeu de données Titanic P. 198 Manipuler les données P. 199 Libérons caret ! P. 199 Imputation P. 202 Fractionnement des données P. 202 Soulevons le voile de caret... P. 205 Entraînement du modèle P. 209 Comparer de multiples modèles caret P. 211 En résumé P. 213 A. Modèles d'apprentissage automatique dans caret P. 221 Index

There are no comments on this title.

to post a comment.

Koha version 24.05

L'Enssib est membre associée de l'Université de Lyon