Machine learning avec R : pour une modélisation mathématique rigoureuse

4e de couv. : "L'apprentissage automatique (ou machine learning) est un sujet intimidant jusqu'à ce que vous en connaissiez les fondements. Si vous comprenez les principes essentiels du codage, ce guide d'introduction vous aidera à acquérir une base solide dans le domaine de l�...

Description complète

Enregistré dans:
Détails bibliographiques
Auteurs principaux : Burger Scott V. (Auteur), Rougé Daniel (Traducteur)
Format : Livre
Langue : français
Titre complet : Machine learning avec R : pour une modélisation mathématique rigoureuse / Scott V. Burger; [traduction de l'anglais : Daniel Rougé]
Publié : Paris : First interactive , DL 2018
Description matérielle : 1 vol. (X-224 p.)
Traduction de : Introduction to machine learning with R
Sujets :
LEADER 07273cam a2200481 4500
001 PPN231108788
003 http://www.sudoc.fr/231108788
005 20240605061700.0
010 |a 978-2-412-04115-4  |b br.  |d 35 EUR 
035 |a (OCoLC)1061139724 
073 1 |a 9782412041154 
100 |a 20181024h20182018k y0frey0103 ba 
101 1 |a fre  |c eng  |e fre  |2 639-2 
102 |a FR 
105 |a a z 001yy 
106 |a r 
181 |6 z01  |c txt  |2 rdacontent 
181 1 |6 z01  |a i#  |b xxxe## 
182 |6 z01  |c n  |2 rdamedia 
182 1 |6 z01  |a n 
183 1 |6 z01  |a nga  |2 RDAfrCarrier 
200 1 |a Machine learning avec R  |e pour une modélisation mathématique rigoureuse  |f Scott V. Burger  |g [traduction de l'anglais : Daniel Rougé] 
214 0 |a Paris  |c First interactive  |d DL 2018 
215 |a 1 vol. (X-224 p.)  |c ill., couv. ill.  |d 23 cm 
339 |a Une introduction à l'apprentissage automatique en R. Apprend d'abord à modéliser avec la régression puis passe à des sujets plus avancés tels que les réseaux de neurones et les méthodes arborescentes, et fournit des exemples pour se bâtir une connaissance pratique de l'apprentissage automatique. ©Electre 2018 
303 |a Le nom de l'éditeur (O'Reilly) de la version anglaise du livre figure sur la page de titre et sur la couverture 
320 |a Index 
330 |a 4e de couv. : "L'apprentissage automatique (ou machine learning) est un sujet intimidant jusqu'à ce que vous en connaissiez les fondements. Si vous comprenez les principes essentiels du codage, ce guide d'introduction vous aidera à acquérir une base solide dans le domaine de l'apprentissage automatique. En utilisant le langage de programmation R, vous commencerez par apprendre à modéliser avec la régression, puis passerez à des sujets plus avancés tels que les réseaux de neurones et les méthodes arborescentes. Finalement, vous plongerez dans le monde de l'apprentissage automatique en utilisant le package caret associé au langage de programmation R. Une fois que vous serez familiarisé avec des sujets tels que les modèles de régression et de classification, vous serez en mesure de résoudre de multiples problèmes d'apprentissage automatique. L'auteur de ce livre fournit également plusieurs exemples pour vous aider à bâtir une connaissance pratique de l'apprentissage automatique. " 
359 2 |p P. ix  |b Introduction  |p P. ix  |c Qui devrait lire ce livre ?  |p P. ix  |c Portée du livre  |p P. ix  |c Conventions utilisées dans ce livre  |p P. 1  |b 1. Qu'est-ce qu'un modèle ?  |p P. 6  |d Algorithmes contre modèles : Quelle est la différence ?  |p P. 8  |d Une note sur la terminologie  |p P. 9  |d Limites de la modélisation  |p P. 11  |c Statistiques et calcul dans la modélisation  |p P. 12  |c Données d'entraînement  |p P. 13  |c Validation croisée  |p P. 14  |c Pourquoi utiliser R ?  |p P. 15  |c Lebon...  |p P. 17  |d R et l'apprentissage automatique  |p P. 18  |d ...et le moins bon  |p P. 19  |c En résumé  |p P. 21  |b 2. Apprentissage automatique supervisé et non supervisé  |p P. 22  |c Modèles supervisés  |p P. 22  |c Régression  |p P. 24  |c Entraîner et tester des données  |p P. 27  |c Classification  |p P. 27  |d Régression logistique  |p P. 29  |d Méthodes de clustering supervisé  |p P. 34  |c Méthodes mixtes  |p P. 34  |d Modèles arborescents  |p P. 37  |d Forêts aléatoires  |p P. 39  |d Réseaux de neurones  |p P. 42  |d Séparateur à vaste marge (SVM)  |p P. 44  |c Apprentissage non supervisé  |p P. 44  |c Méthodes non supervisées de clustering  |p P. 46  |c En résumé  |p P. 49  |b 3. Statistiques, échantillonnage et entraînement des modèles dans R  |p P. 50  |c Biais  |p P. 55  |c Échantillonner dans R  |p P. 58  |c Entraînement et test  |p P. 59  |d Rôles des jeux d'entraînement et de test  |p P. 59  |d Pourquoi créer un jeu de test ?  |p P. 60  |d Jeux d'entraînement et de test : modéliser la régression  |p P. 67  |d Jeux d'entraînement et de test : modéliser la classification  |p P. 70  |c Validation croisée  |p P. 71  |d Validation croisée à k-plis  |p P. 73  |c En résumé  |p P. 75  |b 4. La régression en bref  |p P. 76  |c Régression linéaire  |p P. 79  |d Régression multivariée  |p P. 82  |d Régularisation  |p P. 85  |c Régression polynomiale  |p P. 92  |c Qualité de l'ajustement aux données : les risques d'un ajustement excessif  |p P. 92  |d Erreur quadratique moyenne  |p P. 93  |d Simplicité du modèle et qualité de l'ajustement  |p P. 96  |c Régression logistique  |p P. 96  |d La motivation pour la classification  |p P. 98  |d La frontière de décision  |p P. 99  |d La fonction sigmoïde  |p P. 102  |d Classification binaire  |p P. 105  |d Classification multiclasse  |p P. 108  |d Régression logistique avec caret  |p P. 109  |c En résumé  |p P. 109  |d Régression linéaire  |p P. 110  |d Régression logistique  |p P. 113  |b 5. Les réseaux de neurones en bref  |p P. 113  |c Réseaux de neurones monocouches  |p P. 115  |c Construire un réseau de neurones simple en utilisant R  |p P. 117  |d Sorties de calcul multiples  |p P. 119  |d Noeuds de calcul cachés  |p P. 124  |c Réseaux de neurones multicouches  |p P. 131  |c Réseaux de neurones pour la régression  |p P. 136  |c Réseaux de neurones pour la classification  |p P. 136  |c Réseaux de neurones avec caret  |p P. 137  |d Régression  |p P. 138  |d Classification  |p P. 138  |c En résumé  |p P. 141  |b 6. Méthodes arborescentes  |p P. 141  |c Un modèle d'arbre simple  |p P. 144  |c Décider comment partager les arbres  |p P. 145  |d Entropie de l'arbre et gain d'information  |p P. 147  |c Avantages et inconvénients des arbres de décision  |p P. 148  |d Surapprentissage des arbres  |p P. 151  |d Élaguer les arbres  |p P. 157  |d Arbres de décision pour la régression  |p P. 158  |d Arbres de décision pour la classification  |p P. 158  |c Arbres d'inférence conditionnelle  |p P. 161  |d Régression avec les arbres d'inférence conditionnelle  |p P. 161  |d Classification avec les arbres d'inférence conditionnelle  |p P. 162  |c Forêts aléatoires  |p P. 163  |d Forêts aléatoires et régression  |p P. 164  |d Forêts aléatoires et classification  |p P. 164  |c En résumé  |p P. 167  |b 7. Autres méthodes avancées  |p P. 167  |c Classification naïve bayésienne  |p P. 168  |d Les statistiques bayésiennes en bref  |p P. 169  |d Application de la formule naïve bayésienne  |p P. 171  |c Analyse en composantes principales  |p P. 177  |d Analyse discriminante linéaire  |p P. 182  |c Séparateurs à vaste marge  |p P. 188  |c K plus proches voisins  |p P. 190  |d K plus proches voisins et régression  |p P. 191  |d K plus proches voisins et classification  |p P. 193  |c En résumé  |p P. 195  |b 8. Apprentissage automatique avec le package caret  |p P. 196  |c Le jeu de données Titanic  |p P. 198  |d Manipuler les données  |p P. 199  |c Libérons caret !  |p P. 199  |d Imputation  |p P. 202  |d Fractionnement des données  |p P. 202  |d Soulevons le voile de caret...  |p P. 205  |d Entraînement du modèle  |p P. 209  |d Comparer de multiples modèles caret  |p P. 211  |c En résumé  |p P. 213  |b A. Modèles d'apprentissage automatique dans caret  |p P. 221  |b Index 
454 | |t Introduction to machine learning with R  |d cop. 2018 
605 |3 PPN08080859X  |a R  |n logiciel  |2 rameau 
606 |3 PPN027940373  |a Apprentissage automatique  |2 rameau 
606 |3 PPN035198222  |a Exploration de données  |2 rameau 
676 |a 006.31  |v 23  |z fre 
680 |a Q325.5 
700 1 |3 PPN230666183  |a Burger  |b Scott V.  |4 070 
701 1 |3 PPN028974867  |a Rougé  |b Daniel  |f 1952-2020  |c mathématicien  |4 730 
801 3 |a FR  |b Electre  |c 20181012  |g AFNOR 
801 3 |a FR  |b Abes  |c 20220131  |g AFNOR 
979 |a STN 
930 |5 441092104:625062434  |b 441092104  |j u 
930 |5 441842101:678365695  |b 441842101  |j u 
998 |a 825090