Deep learning
Gespeichert in:
Verfasser / Beitragende:
Ian Goodfellow, Yoshua Bengio and Aaron Courville
Ort, Verlag, Jahr:
Cambridge, Massachusetts :
The MIT Press,
2016
Beschreibung:
xxii, 775 Seiten : Illustrationen
Format:
Buch
Online Zugang:
| ISBN: |
978-0-262-03561-3 0-262-03561-8 |
|---|---|
| Serie/Reihe: |
Adaptive computation and machine learning series |
| Bibliographie: |
Includes bibliographical references (pages 711-766) and index |
| Beteiligte: |
Goodfellow, Ian (1987-) (VerfasserIn) Bengio, Yoshua (VerfasserIn) Courville, Aaron (VerfasserIn) |
| Schlagwörter GND Inhalt: |
Monte-Carlo-Simulation Bioinformatik Vernetzung Datenverarbeitung Künstliche Intelligenz Sprachverarbeitung Deep learning Data Mining Maschinelles Lernen |
| Schlagwörter Library of Congress Subject Headings: |
Machine learning Machine learning |
| Schlagwörter Westschweizer Bibliotheksverbund: |
Apprentissage automatique Analyse multivariée Intelligence artificielle Modèles mathématiques Apprentissage profond Manuels d'enseignement supérieur |
| Schlagwörter GND Inhaltsform: |
Lehrbuch |
| Schlagwörter lokal: |
Lernalgorithmus; Deep; Network; Faltung; Strategie; Maschine; Encoder; Faktoranalyse; Schätzung; Learning; Boltzmann; lineare Abhängigkeit; Abweichung; Codierung; Informationstheorie; Matrize; Operation; Regel; Stichprobenverfahren; Training; statistische Verteilung; Multiplikation; Vektor; Wahrscheinlichkeit; lernender Automat; Erwartung; Netz; Algebra; Analysis; Einheit; Variable; neuronale Netze Autoencoder; Backpropagation; Partitionsfunktion; Debuggingstrategie; Einzelwertzerlegung; Ensemblemethode; Erwartungsmaximierung; Faltungsalgorithmus; Faltungsoperation; Funktionsanalyse; Initialisierungsstrategie; Kettenregel; Komponentenanalyse; Metaalgorithmus; Netzwerkoptimierung; Optimierungsstrategie; Parameterbindung; Parameternutzung; Sequenzmodellierung; Variationsinferenz; Datentype; Faltungsnetzwerk; Hyperparameter; Loglikelihood; Multitask; Pseudolikelihood; Validierungsset; Boltzmannmaschine; Encoderdecoder; Kausalfaktor; Sequenzarchitektur; Tangentenabstand; Tangentenstütze; Zeitskala; Architekturdesign; Automatikgeber; Erzeugungsschema; Faktormodell; Generatormodell; Gradientabfall; Lernansatz; Lernrate; Moorepenrose; Normstrafe; Optimierungsproblem; Repräsentationskraft; Schichtgröße; Tangentenklassierer; Unterlauf generatives Netzwerk; gierigweise Pretraining; rekursives Netz; strukturierter Ausgang; strukturiertes Modell; wiederkehrendes Netz; zufälliges Feature; adaptive Lernrate; anderer Boltzmann; ander Gated; andere Anwendung; andere Differenzierung; andere Ensemblemethode; anderes Erzeugungsschema; andere Strategie; angewandte Mathematik; bedingte Unabhängigkeit; bedingte Wahrscheinlichkeit; beschränkte Optimierung; bidirektional RNNs; effizienter Faltungsalgorithmus; eingeschränkte Boltzmannmaschine; explizites Gedächtnis; faltbarer Boltzmann; frühes Stoppen; gemeinsame Funktion; gemeinsame Wahrscheinlichkeitsverteilung; generativ Nets; generatives Modell; getrennter Modus; gradientbasierte Optimierung; grafisches Modell; große Skala; grundlegender Algorithmus; halbüberwachte Entwirrung; historische Anmerkung; historischer Trend; inverse Matrize; kontinuierliche Variable; kontrastive Divergenz; langfristige Abhängigkeit; langsame Funktionsanalyse; leckere Einheit; liegende Ursache; lineare Algebra; lineares Faktormodell; lineare Spanne; lärmkontrastive Schätzung; mannigfaltiger Tangentenklassierer; maschinelles Lernen; mehrfache Zeitskala; natürliche Sprache; neuronales Netz; neuronale Netzwerkoptimierung; neurowissenschaftliche Basis; numerische Berechnung; nützliche Eigenschaft; praktische Methodik; probabilistisches Modell; reellwertiges Daten; reine Optimierung; rekursives Netz; schlechte Konditionierung; sequentieller Ausgang; skalarer Vektor; spezielle Art; spärliche Codierung; spärliche Darstellung; stochastische Höchstwahrscheinlichkeit; stochastischer Decoder; stochastischer Encoder; stochastischer Gradientabfall; stochastisches Netzwerk; strukturierter Ausgang; strukturierte Modellierung; technisches Detail; tiefer Lernansatz; tiefes Lernen; tiefes Modell; unabhängige Komponentenanalyse; ungefähre Inferenz; ungefähre Methode; ungefähre Schlussfolgerung; unstruk turierte Modellierung; unterbeschränktes Problem; unüberwacht Pretraining; unüberwachtes Feature; unüberwachter Lernalgorithmus; vielfältige Interpretation; zufällige Operation; zufällige Variable; zweite Ordnung; überwachter Lernalgorithmus Aaron Courville; ander Boltzmann Maschinen; Basic Convolution Funktion; Bayes; Beispiel Multi Digit Number; Beispiel Principal Components Analysis; Computational Graphs; Deep Boltzmann Maschinen; Deep Feedforward; Deep Generative Modelle; Deep Recurrent; Directed Generative Nets; Echo State Networks; Encoderdecoder Sequenzzu SequenzArchitekturen; faltbar Boltzmann Maschinen; Gated RNNs; generativ Stochastische Netzwerke; Gibbs; Gradientbased Learning; groß Skala Deep Learning; Ian Goodfellow Yoshua Bengio; Lernen Deep Networks Moderne; Lernen Ungefähre Inferenz; Markow Kette Monte Carlo Methoden; maschinell Lernen Grundlagen; Maximum Likelihood Schätzung; Parameter Norm Strafen; Predictive Sparse Decomposition; Presse Cambridge Massachusetts London; Regularisierte Autonecoder; rekursiv Neuronale Netze; Semi Supervised Learning; skalar Vektoren Matrizen; tief Lernen Tiefes Lernen; wiederkehrend Neuronale Netze 519.76 > Mathematische Semiotik, Mathematische Linguistik |