Machine Learning kompakt : Alles, was Sie wissen müssen.
Materialtyp:
Medientyp | Aktuelle Bibliothek | Signatur | Status | Barcode | |
---|---|---|---|---|---|
E-Books | MWN Osteuropa Online-Ressource | E-25-e00258 (Regal durchstöbern(Öffnet sich unterhalb)) | Verfügbar | 75092 |
Regale von MWN Osteuropa durchstöbern Regalbrowser ausblenden (Regal ausblenden)
E-Book-ProQuest / Fernzugriff nach Registrierung möglich
Cover -- Titel -- Impressum -- Vorwort zur deutschen Ausgabe -- Vorwort -- Einleitung -- Wer sollte dieses Buch lesen? -- Verwendung des Buchs -- Einführung -- Was ist Machine Learning? -- Arten des Lernens -- Überwachtes Lernen -- Unüberwachtes Lernen -- Teilüberwachtes Lernen -- Reinforcement Learning -- Funktionsweise des überwachten Lernens -- Weshalb das Modell mit neuen Daten umgehen kann -- Notation und Definitionen -- Notation -- Datenstrukturen -- Summenschreibweise -- Produktschreibweise -- Mengenoperationen -- Vektoroperationen -- Funktionen -- Max und Arg Max -- Zuweisungsoperator -- Ableitung und Gradient -- Zufallsvariable -- Erwartungstreue Schätzer -- Satz von Bayes -- Parameterschätzung -- Parameter und Hyperparameter -- Klassifikation und Regression -- Modellbasiertes und instanzbasiertes Lernen -- Shallow Learning und Deep Learning -- Grundlegende Algorithmen -- Lineare Regression -- Problemstellung -- Lösung -- Logistische Regression -- Problemstellung -- Lösung -- Entscheidungsbaum-Lernen -- Problemstellung -- Lösung -- Support Vector Machine -- Handhabung von Rauschen -- Handhabung inhärenter Nichtlinearität -- k-Nearest-Neighbors -- Aufbau eines Lernalgorithmus -- Bausteine eines Lernalgorithmus -- Gradientenabstieg -- Wie Machine-Learning-Entwickler vorgehen -- Besonderheiten von Lernalgorithmen -- Grundlegende Techniken -- Merkmalserstellung -- One-hot-Codierung -- Binning -- Normalisierung -- Standardisierung -- Handhabung fehlender Merkmale -- Datenimputationsverfahren -- Auswahl von Lernalgorithmen -- Drei Mengen -- Unteranpassung und Überanpassung -- Regularisierung -- Beurteilung der Leistung eines Modells -- Wahrheitsmatrix -- Genauigkeit und Trefferquote -- Korrektklassifikationsrate -- Kostensensitive Korrektklassifikationsrate -- Fläche unter der ROC-Kurve -- Abstimmung der Hyperparameter -- Kreuzvalidierung.
Neuronale Netze und Deep Learning -- Neuronale Netze -- Beispiel: mehrschichtiges Perzeptron -- Neuronale Feedforward-Netzarchitektur -- Deep Learning -- Convolutional Neural Networks (CNNs) -- Rekurrente neuronale Netze (RNNs) -- Aufgaben und Lösungen -- Kernel-Regression -- Multi-Class-Klassifikation -- One-Class-Klassifikation -- Multi-Label-Klassifikation -- Ensemble Learning -- Boosting und Bagging -- Random Forest -- Gradient Boosting -- Kennzeichnung von Sequenzen erlernen -- Sequenz-zu-Sequenz-Lernen -- Aktives Lernen -- Teilüberwachtes Lernen -- One-Shot Learning -- Zero-Shot Learning -- Fortgeschrittene Techniken -- Handhabung unausgewogener Datenmengen -- Modelle kombinieren -- Trainieren neuronaler Netze -- Erweiterte Regularisierung -- Handhabung mehrerer Eingaben -- Handhabung mehrerer Ausgaben -- Transfer Learning -- Effizienz von Algorithmen -- Unüberwachtes Lernen -- Dichteschätzung -- Clustering -- k-Means-Clustering -- DBSCAN und HDBSCAN -- Anzahl der Cluster festlegen -- Weitere Clustering-Algorithmen -- Dimensionsreduktion -- Hauptkomponentenanalyse -- UMAP -- Erkennung von Ausreißern -- Weitere Formen des Lernens -- Metric Learning -- Ranking -- Empfehlungen -- Faktorisierungsmaschinen -- Denoising Autoencoder -- Selbstüberwachtes Lernen: Wort-Embeddings -- Schlussbemerkungen -- Was nicht behandelt wurde -- Topic Modeling -- Gaußprozesse -- Generalisierte lineare Modelle -- Probabilistische grafische Modelle -- Markow-Ketten-Monte-Carlo-Algorithmen -- Generative Adversarial Networks -- Genetische Algorithmen -- Reinforcement Learning -- Danksagungen -- Index.
Es gibt keine Kommentare für diesen Titel.