Machine learning et sécurité : protection des systèmes par les données et les algorithmes / Clarence Chio et David Freeman ; [traduction de l'anglais, Daniel Rougé]


Item type | Current library | Collection | Shelving location | Call number | Status | Date due | Barcode | Item holds | |
---|---|---|---|---|---|---|---|---|---|
Prêt normal | Enssib | Papier | Pôle Information numérique et médias | 004 DRO c (Browse shelf(Opens below)) | Available | 909936B |
Notes bibliogr. Index
P. ix Introduction P. x Qu'y a-t-il dans ce livre ? P. x À qui s'adresse ce livre ? P. xi Conventions utilisées dans ce livre P. xii Utiliser les exemples de code P. 1 1. Pourquoi l'apprentissage automatique et la sécurité ? P. 3 Le paysage des cybermenaces P. 7 L'économie des cybercriminels P. 7 Un marché pour les compétences en piratage informatique P. 8 Monétisation indirecte P. 9 Résultat... P. 9 Qu'est-ce que l'apprentissage automatique ? P. 11 Ce que l'apprentissage automatique n'est pas P. 12 L'apprentissage automatique et les cybercriminels P. 13 Utilisations de l'apprentissage automatique concernant la sécurité dans le monde réel P. 15 Lutte contre les spams : une approche itérative P. 25 Limites de l'apprentissage automatique pour la sécurité P. 27 2. Classification et clustering P. 27 Apprentissage automatique : problèmes et approches P. 29 L'apprentissage automatique en pratique : un exemple concret P. 35 Apprendre aux algorithmes à apprendre P. 35 Familles de modèles P. 38 Fonctions de perte P. 39 Optimisation P. 42 Algorithmes de classification supervisés P. 43 Régression logistique P. 45 Arbres de décision P. 48 Forêts de décision P. 51 Séparateurs à vaste marge P. 53 Bayésien naïf P. 55 k plus proches voisins P. 57 Réseaux de neurones P. 59 Considérations pratiques en matière de classification P. 59 Choix d'une famille de modèles P. 60 Construction des données d'apprentissage P. 63 Sélection des caractéristiques P. 65 Surapprentissage et sous-apprentissage P. 67 Choisir des seuils et comparer des modèles P. 69 Clustering P. 69 Algorithmes de clustering P. 78 DBSCAN P. 79 Évaluer les résultats du clustering P. 82 Conclusion P. 83 3. Détection des anomalies P. 85 Quand utiliser la détection des anomalies plutôt que l'apprentissage supervisé ? P. 85 Détection d'intrusion avec des techniques heuristiques P. 87 Méthodes pilotées par les données P. 90 Ingénierie des caractéristiques pour la détection des anomalies P. 91 Détection d'intrusions au niveau de l'hôte P. 94 Détection d'intrusions au niveau du réseau P. 97 Détection d'intrusion d'application Web P. 99 En résumé P. 99 Détection des anomalies à l'aide de données et d'algorithmes P. 101 Prévision (apprentissage automatique supervisé) P. 112 Métriques statistiques P. 114 Qualité de l'ajustement P. 119 Algorithmes d'apprentissage automatique non supervisés P. 124 Méthodes fondées sur la densité P. 126 En résumé P. 127 Les défis de l'utilisation de l'apprentissage automatique dans la détection des anomalies P. 128 Intervention et mesures d'atténuation P. 130 Préoccupations relatives à la conception pratique du système P. 130 Optimiser pour l'explicabilité P. 131 Maintenance des systèmes de détection des anomalies P. 131 Intégrer la rétroaction humaine P. 132 Atténuer les effets antagonistes P. 132 Conclusion P. 133 4. Analyser les logiciels malveillants P. 134 Comprendre les malwares P. 136 Définir la classification des malwares P. 140 Dans les coulisses des malwares P. 154 Génération de caractéristiques P. 155 Collecte des données P. 157 Générer des caractéristiques P. 181 Sélection de caractéristiques P. 185 Des caractéristiques à la classification P. 188 Comment obtenir des échantillons et des étiquettes de malwares P. 189 Conclusion P. 191 5. Analyser le trafic réseau P. 193 Théorie de la défense réseau P. 193 Contrôle d'accès et authentification P. 194 Détection d'intrusion P. 195 Détecter des attaquants dans le réseau P. 195 Sécurité centrée sur les données P. 196 Honeypots P. 197 En résumé P. 197 Apprentissage automatique et sécurité réseau P. 197 Des captures aux caractéristiques P. 203 Menaces dans le réseau P. 207 Les botnets et vous P. 214 Construire un modèle prédictif pour classifier les attaques réseau P. 216 Explorer les données P. 221 Préparation des données P. 225 Classification P. 227 Apprentissage supervisé P. 234 Apprentissage semi-supervisé P. 235 Apprentissage non supervisé P. 240 Méthodes d'ensemble P. 246 Conclusion P. 247 6. Protéger le Web grand public P. 248 Monétiser le Web grand public P. 249 Les types d'abus et les données qui peuvent les arrêter P. 249 Authentification et piratage de compte P. 256 Création de compte P. 262 Fraude financière P. 265 Activité des bots P. 270 Apprentissage supervisé en matière d'agressions P. 270 Étiqueter les données P. 272 Démarrage à froid contre démarrage à chaud P. 272 Faux positifs et faux négatifs P. 273 Réponses multiples P. 274 Attaques de grande ampleur P. 274 Clustering et abus P. 275 Exemple : clustering et domaines de spam P. 277 Générer des clusters P. 282 Noter les clusters P. 288 Autres orientations pour le clustering P. 289 Conclusion P. 291 7. Systèmes de production P. 291 Définir la maturité et l'évolutivité d'un système d'apprentissage automatique P. 293 Qu'est-ce qui est important pour les systèmes d'apprentissage automatique de sécurité ? P. 293 Qualité des données P. 294 Problème : biais dans les jeux de données P. 295 Problème : inexactitude des étiquettes P. 296 Solutions : qualité des données P. 297 Problème : données manquantes P. 298 Solutions : données manquantes P. 301 Qualité du modèle P. 302 Problème : optimisation des hyperparamètres P. 303 Solutions : optimisation des hyperparamètres P. 307 Bon à savoir : boucles de rétroaction, test A/B des modèles P. 311 Bon à savoir : résultats reproductibles et explicables P. 315 Performances P. 316 Objectif : faible latence, haute évolutivité P. 317 Optimisation des performances P. 319 Calcul distribué et passage à l'échelle P. 324 Utiliser les services du cloud P. 326 Maintenabilité P. 327 Problème : points de contrôle, gestion des versions et déploiement des modèles P. 328 Objectif : dégradation gracieuse (ou élégante) P. 329 Objectif : facilité de mise au point et de configuration P. 329 Monitoring et alerte P. 331 Sécurité et fiabilité P. 331 Bon à savoir : robustesse dans des contextes de conflit P. 332 Bon à savoir : sauvegardes et garanties pour la confidentialité des données P. 333 Rétroaction et facilité d'utilisation P. 334 Conclusion P. 335 8. Apprentissage automatique antagoniste P. 336 Terminologie P. 337 De l'importance de l'apprentissage automatique antagoniste P. 338 Vulnérabilités de sécurité dans les algorithmes d'apprentissage automatique P. 341 Transférabilité des attaques P. 342 Technique d'attaque : empoisonnement du modèle P. 345 Exemple : attaque d'empoisonnement sur un classifieur binaire P. 351 Connaissances de l'attaquant P. 352 Défenses contre les attaques d'empoisonnement P. 354 Technique d'attaque : attaque d'évasion P. 355 Exemple : attaque d'évasion sur un classifieur binaire P. 360 Se défendre contre les attaques d'évasion P. 361 Conclusion P. 363 A. Compléments pour le Chapitre 2 P. 363 Plus sur les métriques P. 364 Taille des modèles de régression logistique P. 365 Implémenter la fonction de coût pour la régression logistique P. 366 Minimiser la fonction de coût P. 371 B. Intégrer l'Open Source Intelligence P. 371 Flux de renseignements de sécurité P. 373 Géolocalisation P. 375 Index
There are no comments on this title.