Deep Learning kompakt für Dummies
Häftad, Tyska, 2020
399 kr
Produktinformation
- Utgivningsdatum2020-03-31
- Mått176 x 240 x 21 mm
- Vikt454 g
- FormatHäftad
- SpråkTyska
- SerieFür Dummies
- Antal sidor366
- FörlagWiley-VCH Verlag GmbH
- ISBN9783527716876
- ÖversättareLinke, Simone
Tillhör följande kategorier
John Paul Mueller ist freier Autor und technischer Redakteur. Er hat das Schreiben im Blut. Bis heute hat er 100 Bücher und mehr als 600 Zeitschriftenartikel geschrieben. Seine Themen reichen von Netzwerken bis Haussicherheit und von Datenbankmanagement bis Programmierung.Luca Massaron ist Data Scientist und spezialisiert auf die Aufbereitung und Analyse von Big Data. Er beherrscht die einfachsten und effektivsten Data-Mining- und Maschinelles-Lernen-Techniken und macht so aus Big Data Smart Data. Als Marketing-Consultant und -Forscher hat er seit dem Jahr 2000 mit Data Science zu tun, mit verschiedenen Kunden und in verschiedenen Märkten. Er ist Top-Ten-Kaggle-Data-Scientist.
- Über die Autoren 9Widmung von John Mueller 9Widmung von Luca Massaron 10Danksagung von John Mueller 10Danksagung von Luca Massaron 10Einführung 21Über dieses Buch 21Törichte Annahmen über den Leser 23Symbole, die in diesem Buch verwendet werden 23Weitere Ressourcen 24Wie es weitergeht 24Teil I: Einführung in Deep Learning 27Kapitel 1 Einführung in Deep Learning 29Definition von Deep Learning 30Künstliche Intelligenz als Oberbegriff 30Die Rolle der KI 32Maschinelles Lernen als Teil der KI 35Deep Learning als Form des maschinellen Lernens 37Deep Learning in der Praxis 39Der Prozess des Lernens 39Aufgabenbewältigung mit Deep Learning 39Deep Learning als Bestandteil größerer Anwendungen 40Programmierumgebung für Deep Learning 40Deep Learning: Hype vs Realität 43Ihre ersten Schritte 43Ungeeignete Szenarien für Deep Learning 43Kapitel 2 Maschinelles Lernen 45Definition von maschinellem Lernen 45Funktionsweise von maschinellem Lernen 46Lernen durch unterschiedliche Strategien 47Training, Validierung und Test 49Suche nach Generalisierungen 51Der Einfluss von Bias 51Beachtung der Komplexität des Modells 52Lernstrategien und Arten von Algorithmen 52Fünf wesentliche Strategien 53Verschiedene Arten von Algorithmen 54Sinnvolle Einsatzbereiche für maschinelles Lernen 59Anwendungsszenarien für maschinelles Lernen 59Die Grenzen des maschinellen Lernens 62Kapitel 3 Installation und Verwendung von Python 65Verwendung von Python in diesem Buch 66Installation von Anaconda 66Anaconda von Continuum Analytics 67Installation von Anaconda unter Linux 67Installation von Anaconda unter Mac OS X 68Installation von Anaconda unter Windows 70Jupyter Notebook 72Verwendung von Jupyter Notebook 73Verwendete Datensätze in diesem Buch 79Erstellen einer Anwendung 81Die Arbeit mit Zellen 81Hinzufügen von Dokumentationszellen 82Andere Zellarten 83Einrückung von Codezeilen 83Hinzufügen von Kommentaren 85Weitere Informationen zu Python 88Arbeiten in der Cloud 89Verwendung der Datensätze und Kernels von Kaggle 89Verwendung von Google Colaboratory 89Kapitel 4 Frameworks für Deep Learning 93Das Framework-Prinzip 94Unterschiede zwischen Frameworks 94Hohe Beliebtheit von Frameworks 95Frameworks speziell für Deep Learning 96Auswahl eines Frameworks 97Einfache Frameworks für Deep Learning 98Kurzvorstellung von TensorFlow 101Teil II: Grundlagen von Deep Learning 113Kapitel 5 Rechnen mit Matrizen 115Nötige mathematische Grundlagen 116Die Arbeit mit Daten 116Matrixdarstellung von Daten 117Skalar-, Vektor- und Matrixoperationen 118Erzeugung einer Matrix 119Multiplikation von Matrizen 121Fortgeschrittene Matrixoperationen 123Datenanalysen mit Tensoren 125Effektive Nutzung von Vektorisierung 127Der Lernprozess als Optimierung 128Kostenfunktionen 128Minimierung des Fehlers 129Die richtige Richtung 130Kapitel 6 Grundlagen der linearen Regression 133Kombination von Variablen 134Die einfache lineare Regression 134Die multiple lineare Regression 135Verwendung des Gradientenabstiegs 137Die lineare Regression in Aktion 138Vermischung von Variablen unterschiedlichen Typs 140Modellierung der Antworten 140Modellierung der Merkmale 141Umgang mit komplexen Zusammenhängen 142Nutzung von Wahrscheinlichkeiten 144Spezifikation einer binären Antwort 144Umwandlung numerischer Schätzungen in Wahrscheinlichkeiten 145Schätzung der richtigen Merkmale 148Irreführende Ergebnisse durch inkompatible Merkmale 148Vermeidung einer Überanpassung durch Merkmalsauswahl und Regularisierung 149Lernen aus einzelnen Beispielen 150Verwendung des Gradientenabstiegs 150Stochastisches Gradientenabstiegsverfahren 151Kapitel 7 Einführung in neuronale Netze 155Das faszinierende Perzeptron 156Höhen und Tiefen des Perzeptrons 156Die Funktionsweise des Perzeptrons 157Trennbare und nicht trennbare Daten 158Komplexere Lernverfahren und neuronale Netze 160Das Neuron als Grundbaustein 160Vorwärtsausrichtung in Feedforward-Netzen 162Schichten und noch mehr Schichten 164Lernen mittels Rückwärtspropagierung 167Vermeidung von Überanpassung 170Kapitel 8 Entwurf eines einfachen neuronalen Netzes 173Grundlegende Funktionsweise neuronaler Netze 173Definition der grundlegenden Architektur 175Die wichtigsten Funktionen eines neuronalen Netzes 176Lösen eines einfachen Problems 180Ein Blick ins Innere von neuronalen Netzen 183Auswahl der richtigen Aktivierungsfunktion 183Auswahl eines cleveren Optimierers 185Auswahl einer sinnvollen Lernrate 186Kapitel 9 Deep Learning im Detail 187Daten, Daten, Daten 188Strukturierte und unstrukturierte Daten 188Mooresches Gesetz 189Datenwachstum infolge des mooreschen Gesetzes 191Vorteile durch all die neuen Daten 191Innovationen dank Daten 192Rechtzeitigkeit und Qualität von Daten 192Mehr Tempo bei der Datenverarbeitung 193Nutzung leistungsstarker Hardware 194Weitere Investitionen in Deep Learning 195Neuerungen von Deep Learning 195Immer mehr Schichten 196Bessere Aktivierungsfunktionen 198Regularisierung durch Dropout 199Die Suche nach noch smarteren Lösungen 201Kontinuierliches Lernen (Online Learning) 201Übertragung von Wissen (Transfer Learning) 201Simple Komplettlösungen (End-to-End Learning) 202Kapitel 10 Konvolutionsnetze 205Bilderkennung mit Konvolutionsnetzen 206Grundsätzlicher Aufbau von digitalen Bildern 206Konvolutionen (Faltungen) 208Funktionsprinzip von Konvolutionen 209Vereinfachtes Pooling 212Beschreibung der LeNet-Architektur 214Erkennung von Kanten und Formen in Bildern 219Visualisierung von Konvolutionen 220Einige erfolgreiche Architekturen 222Übertragung von Wissen (Transfer Learning) 223Kapitel 11 Rekurrente neuronale Netze 227Einführung in rekurrente neuronale Netze 227Modellierung von Sequenzen durch Erinnerung 228Erkennung und Übersetzung von Sprache 230Korrekte Beschriftung von Bildern 233LSTM-Zellen (Long Short-Term Memory) 234Unterschiedliche »Gedächtnisse« 235Die LSTM-Architektur 235Verschiedene LSTM-Varianten 238Der Aufmerksamkeitsmechanismus 239Teil III: Anwendung von Deep Learning 241Kapitel 12 Bildklassifikation 243Herausforderungen bei der Bildklassifikation 244ImageNet und Alternativen 244Erstellen von Zusatzbildern (Image Augmentation) 246Unterscheidung von Verkehrszeichen 249Vorbereitung der Bilddaten 250Durchführen einer Klassifikation 253Kapitel 13 Komplexe Konvolutionsnetze 259Unterschiedliche Aufgaben beim Erkennen von Objekten im Bild 260Lokalisierung von Objekten 261Klassifikation mehrerer Objekte 262Annotation mehrerer Objekte in Bildern 263Segmentierung von Bildern 264Wahrnehmung von Objekten in ihrer Umgebung 265Funktionsweise von RetinaNet 266Verwendung des Codes von Keras RetinaNet 267Böswillige Angriffe auf DL-Anwendungen 272Heimtückische Pixel 274Hacking mit Stickern und anderen Artefakten 275Kapitel 14 Sprachverarbeitung 277Verarbeitung von Sprache 278Verstehen durch Tokenisierung 279Zusammenführen aller Texte 281Auswendiglernen von wichtigen Sequenzen 284Semantikanalyse durch Worteinbettungen 284KI für Stimmungsanalysen 289Kapitel 15 Automatisch erzeugte Musik und visuelle Kunst 297Computergenerierte Kunst 298Nachahmung eines künstlerischen Stils 298Statistische Verfahren als Grundlage 300Der Unterschied zwischen Kreativität und Deep Learning 302Imitation eines Künstlers 303Neue Werke im Stile eines bestimmten Malers 303Kombination von Stilen zum Erzeugen neuer Werke 305Überzeugende Imitate mit einem GAN 305Musikkomposition mit Deep Learning 306Kapitel 16 Generative Adversarial Networks 309Konkurrierende neuronale Netze 310Wettbewerb als Schlüssel zum Erfolg 310Realistischere Ergebnisse 313Komplexere GANs für anspruchsvollere Aufgaben 320Realistische Imitate von Promigesichtern 321Mehr Bilddetails und Bildübersetzung 321Kapitel 17 Verstärkendes Lernen mit Deep Learning 323Strategische Spiele mit neuronalen Netzen 324Grundprinzip des verstärkenden Lernens 324Simulierte Spielumgebungen 326Q-learning 330Funktionsweise von AlphaGo 333Eine echte Gewinnerstrategie 335Selbstständiges Lernen in großem Stil 337Teil IV: Der Top-Ten-Teil 339Kapitel 18 Zehn Anwendungsszenarien für Deep Learning 341Kolorieren von Schwarz-Weiß-Aufnahmen 341Analyse der Körperhaltung in Echtzeit 342Verhaltensanalysen in Echtzeit 343Übersetzung von Sprachen 344Einsparungen mit Solaranlagen 345Computer als Spielgegner 345Erzeugung von Stimmen 346Demografische Analysen 347Kunst basierend auf normalen Fotos 348Vorhersage von Naturkatastrophen 348Kapitel 19 Zehn unverzichtbare Tools für Deep Learning 351Kompilieren von mathematischen Ausdrücken mit Theano 351Stärkung von TensorFlow mit Keras 352Dynamische Berechnung von Graphen mit Chainer 353Einrichtung einer MATLAB-ähnlichen Umgebung mit Torch 354Dynamische Ausführung von Aufgaben mit PyTorch 354Schnellere DL-Forschung dank CUDA 355Geschäftliche Erfolge mit Deeplearning4j 357Data-Mining mit Neural Designer 358Algorithmentraining mit Microsoft Cognitive Toolkit (CNTK) 359Volle GPU-Leistung mit MXNet 359Stichwortverzeichnis 361
Du kanske också är intresserad av
Data Analytics & Visualization All-in-One For Dummies
Jack A. Hyman, Luca Massaron, Paul McFedries, John Paul Mueller, Jonathan Reichental, Joseph Schmuller, Alan R. Simon, Allen G. Taylor, Inc.) Simon, Alan R. (Thinking Helmet, Oregon) Taylor, Allen G. (Database Consultant, Oregon City, Lillian Pierson
579 kr