Amazon cover image
Image from Amazon.com

Deep learning avec TensorFlow : mise en oeuvre et cas concrets / Aurélien Géron ; traduit de l’anglais par Hervé Soulard

LivresAuteur principal: Géron, Aurélien, 19..-...., AuteurCo-auteur: Soulard, Hervé, 19..-..., TraducteurLangue: français ; de l'oeuvre originale, anglais.Éditeur : Malakoff : Dunod, DL 2017Description : 1 vol. (XIII-346 p.) : ill., couv. ill. ; 25 cmISBN: 978-2-10-075993-4.A pour autre édition sur un support différent : Deep learning avec TensorFlow, mise en oeuvre et cas concrets, Aurélien Géron, 2017, Malakoff , Dunod, 978-2-10076747-2Est une traduction de : Hands-on machine learning with Scikit-Learn and TensorFlow, O'Reilly MediaRésumé : "Cet ouvrage, conçu pour tous ceux qui souhaitent s'initier au Deep Learning (apprentissage profond) est la traduction de la deuxième partie du best-seller américain Hands-On Machine Learning with Scikit-Learn & TensorFlow. Le Deep Learning est récent et il évolue vite. Ce livre en présente les principales techniques : les réseaux de neurones profonds, capables de modéliser toutes sortes de données, les réseaux de convolution, capables de classifier des images, les segmenter et découvrir les objets ou personnes qui s'y trouvent, les réseaux récurrents, capables de gérer des séquences telles que des phrases, des séries temporelles, ou encore des vidéos, les autoencodeurs qui peuvent découvrir toutes sortes de structures dans des données, de façon non supervisée, et enfin le Reinforcement Learning (apprentissage par renforcement) qui permet de découvrir automatiquement les meilleures actions pour effectuer une tâche (par exemple un robot qui apprend à marcher).Ce livre présente TensorFlow, le framework de Deep Learning créé par Google. Il est accompagné de notebooks Jupyter (disponibles sur github) qui contiennent tous les exemples de code du livre, afin que le lecteur puisse facilement tester et faire tourner les programmes. Il complète un premier livre intitulé Machine Learning avec Scikit-Learn" [résumé éditeur]Sujet - Nom commun: Apprentissage profond | Intelligence artificielle Voir dans le SUDOC List(s) this item appears in: # Intelligence artificielle
Holdings
Item type Current library Collection Shelving location Call number Status Date due Barcode Item holds
Prêt normal Enssib Papier Pôle Information numérique et médias 003 LOG ten (Browse shelf(Opens below)) Available 844148D
Total holds: 0

Trad. de la 2e partie de : "Hands-on machine learning with Scikit-Learn and TensorFlow"

Notes bibliogr. Index

"Cet ouvrage, conçu pour tous ceux qui souhaitent s'initier au Deep Learning (apprentissage profond) est la traduction de la deuxième partie du best-seller américain Hands-On Machine Learning with Scikit-Learn & TensorFlow. Le Deep Learning est récent et il évolue vite. Ce livre en présente les principales techniques : les réseaux de neurones profonds, capables de modéliser toutes sortes de données, les réseaux de convolution, capables de classifier des images, les segmenter et découvrir les objets ou personnes qui s'y trouvent, les réseaux récurrents, capables de gérer des séquences telles que des phrases, des séries temporelles, ou encore des vidéos, les autoencodeurs qui peuvent découvrir toutes sortes de structures dans des données, de façon non supervisée, et enfin le Reinforcement Learning (apprentissage par renforcement) qui permet de découvrir automatiquement les meilleures actions pour effectuer une tâche (par exemple un robot qui apprend à marcher).Ce livre présente TensorFlow, le framework de Deep Learning créé par Google. Il est accompagné de notebooks Jupyter (disponibles sur github) qui contiennent tous les exemples de code du livre, afin que le lecteur puisse facilement tester et faire tourner les programmes. Il complète un premier livre intitulé Machine Learning avec Scikit-Learn" [résumé éditeur]

P. VII Avant-propos P. 1 Chapitre 1. - Les fondamentaux du Machine Learning P. 2 1.1 Installer TensorFlow P. 3 1.2 Installer le projet Handson-ML P. 5 1.3 Qu'est-ce que le Machine Learning ? P. 7 1.4 Comment le système apprend-il ? P. 8 1.5 Régression linéaire P. 13 1.6 Descente de gradient P. 24 1.7 Régression polynomiale P. 26 1.8 Courbes d'apprentissage P. 30 1.9 Modèles linéaires régularisés P. 38 1.10 Régression logistique P. 46 1.11 Exercices P. 47 Chapitre 2. - Introduction à TensorFlow P. 50 2.1 Créer un premier graphe et l'exécuter dans une session P. 52 2.2 Gérer des graphes P. 52 2.3 Cycle de vie de la valeur d'un noeud P. 53 2.4 Manipuler des matrices P. 54 2.5 Régression linéaire avec TensorFlow P. 56 2.6 Descente de gradient avec TensorFlow P. 58 2.7 Fournir des données à l'algorithme d'entraînement P. 60 2.8 Enregistrer et restaurer des modèles P. 61 2.9 Visualiser le graphe et les courbes d'apprentissage avec TensorBoard P. 64 2.10 Portées de noms P. 65 2.11 Modularité P. 67 2.12 Partager des variables P. 70 2.13 Exercices P. 73 Chapitre 3. - Introduction aux réseaux de neurones artificiels P. 74 3.1 Du biologique à l'artificiel P. 83 3.2 Entraîner un PMC avec une API TensorFlow de haut niveau P. 85 3.3 Entraîner un PMC avec TensorFlow de base P. 91 3.4 Régler précisément les hyperparamètres d'un réseau de neurones P. 94 3.5 Exercices P. 97 Chapitre 4. - Entraînement de réseaux de neurones profonds P. 98 4.1 Problèmes de disparition et d'explosion des gradients P. 109 4.2 Réutiliser des couches préentraînées P. 118 4.3 Optimiseurs plus rapides P. 127 4.4 Éviter le surajustement grâce à la régularisation P. 135 4.5 Recommandations pratiques P. 136 4.6 Exercices P. 139 Chapitre 5. - Distribution de TensorFlow sur des processeurs ou des serveurs P. 140 5.1 Plusieurs processeurs sur une seule machine P. 150 5.2 Plusieurs processeurs sur plusieurs serveurs P. 167 5.3 Paralléliser des réseaux de neurones dans une partition TensorFlow P. 177 5.4 Exercices P. 179 Chapitre 6. - Réseaux de neurones convolutifs P. 180 6.1 L'architecture du cortex visuel P. 181 6.2 Couche de convolution P. 189 6.3 Couche de pooling P. 191 6.4 Architectures de CNN P. 203 6.5 Exercices P. 205 Chapitre 7. - Réseaux de neurones récurrents P. 206 7.1 Neurones récurrents P. 210 7.2 RNR de base avec TensorFlow P. 215 7.3 Entraîner des RNR P. 223 7.4 RNR profonds P. 227 7.5 Cellule LSTM P. 230 7.6 Cellule GRU P. 231 7.7 Traitement automatique du langage naturel P. 236 7.8 Exercices P. 239 Chapitre 8. - Autoencodeurs P. 240 8.1 Représentations efficaces des données P. 241 8.2 ACP avec un autoencodeur linéaire sous-complet P. 243 8.3 Autoencodeurs empilés P. 251 8.4 Préentraînement non supervisé avec des autoencodeurs empilés P. 252 8.5 Autoencodeurs débruiteurs P. 254 8.6 Autoencodeurs épars P. 256 8.7 Autoencodeurs variationnels P. 260 8.8 Autres autoencodeurs P. 261 8.9 Exercices P. 265 Chapitre 9. - Apprentissage par renforcement P. 266 9.1 Apprendre à optimiser les récompenses P. 268 9.2 Recherche de politique P. 269 9.3 Introduction à OpenAI Gym P. 272 9.4 Politiques par réseau de neurones P. 274 9.5 Évaluer des actions : le problème d'affectation de crédit P. 276 9.6 Gradients de politique P. 281 9.7 Processus de décision markoviens P. 284 9.8 Apprentissage par différence temporelle et apprentissage Q P. 288 9.9 Apprendre à jouer à Ms. Pac-Man avec l'algorithme DQN de DeepMind P. 296 9.10 Exercices P. 299 Le mot de la fin P. 301 Annexe A. - Solutions des exercices P. 323 Annexe B. - Différentiation automatique P. 331 Annexe C. - Autres architectures de RNA répandues P. 339 Index

There are no comments on this title.

to post a comment.

Koha version 24.05

L'Enssib est membre associée de l'Université de Lyon