Deep learning

Verfasser / Beitragende:
Ian Goodfellow, Yoshua Bengio and Aaron Courville
Ort, Verlag, Jahr:
Cambridge, Massachusetts : The MIT Press, 2016
Beschreibung:
xxii, 775 Seiten : Illustrationen
Format:
Buch
ID: 438589963
ISBN: 978-0-262-03561-3
0-262-03561-8
Serie/Reihe: Adaptive computation and machine learning series
Bibliographie: Includes bibliographical references (pages 711-766) and index
Beteiligte: Goodfellow, Ian (1987-) (VerfasserIn)
Bengio, Yoshua (VerfasserIn)
Courville, Aaron (VerfasserIn)
Schlagwörter GND Inhalt: Monte-Carlo-Simulation
Bioinformatik
Vernetzung
Datenverarbeitung
Künstliche Intelligenz
Sprachverarbeitung
Deep learning
Data Mining
Maschinelles Lernen
Schlagwörter Library of Congress Subject Headings: Machine learning
Machine learning
Schlagwörter Westschweizer Bibliotheksverbund: Apprentissage automatique
Analyse multivariée
Intelligence artificielle
Modèles mathématiques
Apprentissage profond
Manuels d'enseignement supérieur
Schlagwörter GND Inhaltsform: Lehrbuch
Schlagwörter lokal: Lernalgorithmus; Deep; Network; Faltung; Strategie; Maschine; Encoder; Faktoranalyse; Schätzung; Learning; Boltzmann; lineare Abhängigkeit; Abweichung; Codierung; Informationstheorie; Matrize; Operation; Regel; Stichprobenverfahren; Training; statistische Verteilung; Multiplikation; Vektor; Wahrscheinlichkeit; lernender Automat; Erwartung; Netz; Algebra; Analysis; Einheit; Variable; neuronale Netze
Autoencoder; Backpropagation; Partitionsfunktion; Debuggingstrategie; Einzelwertzerlegung; Ensemblemethode; Erwartungsmaximierung; Faltungsalgorithmus; Faltungsoperation; Funktionsanalyse; Initialisierungsstrategie; Kettenregel; Komponentenanalyse; Metaalgorithmus; Netzwerkoptimierung; Optimierungsstrategie; Parameterbindung; Parameternutzung; Sequenzmodellierung; Variationsinferenz; Datentype; Faltungsnetzwerk; Hyperparameter; Loglikelihood; Multitask; Pseudolikelihood; Validierungsset; Boltzmannmaschine; Encoderdecoder; Kausalfaktor; Sequenzarchitektur; Tangentenabstand; Tangentenstütze; Zeitskala; Architekturdesign; Automatikgeber; Erzeugungsschema; Faktormodell; Generatormodell; Gradientabfall; Lernansatz; Lernrate; Moorepenrose; Normstrafe; Optimierungsproblem; Repräsentationskraft; Schichtgröße; Tangentenklassierer; Unterlauf
generatives Netzwerk; gierigweise Pretraining; rekursives Netz; strukturierter Ausgang; strukturiertes Modell; wiederkehrendes Netz; zufälliges Feature; adaptive Lernrate; anderer Boltzmann; ander Gated; andere Anwendung; andere Differenzierung; andere Ensemblemethode; anderes Erzeugungsschema; andere Strategie; angewandte Mathematik; bedingte Unabhängigkeit; bedingte Wahrscheinlichkeit; beschränkte Optimierung; bidirektional RNNs; effizienter Faltungsalgorithmus; eingeschränkte Boltzmannmaschine; explizites Gedächtnis; faltbarer Boltzmann; frühes Stoppen; gemeinsame Funktion; gemeinsame Wahrscheinlichkeitsverteilung; generativ Nets; generatives Modell; getrennter Modus; gradientbasierte Optimierung; grafisches Modell; große Skala; grundlegender Algorithmus; halbüberwachte Entwirrung; historische Anmerkung; historischer Trend; inverse Matrize; kontinuierliche Variable; kontrastive Divergenz; langfristige Abhängigkeit; langsame Funktionsanalyse; leckere Einheit; liegende Ursache; lineare Algebra; lineares Faktormodell; lineare Spanne; lärmkontrastive Schätzung; mannigfaltiger Tangentenklassierer; maschinelles Lernen; mehrfache Zeitskala; natürliche Sprache; neuronales Netz; neuronale Netzwerkoptimierung; neurowissenschaftliche Basis; numerische Berechnung; nützliche Eigenschaft; praktische Methodik; probabilistisches Modell; reellwertiges Daten; reine Optimierung; rekursives Netz; schlechte Konditionierung; sequentieller Ausgang; skalarer Vektor; spezielle Art; spärliche Codierung; spärliche Darstellung; stochastische Höchstwahrscheinlichkeit; stochastischer Decoder; stochastischer Encoder; stochastischer Gradientabfall; stochastisches Netzwerk; strukturierter Ausgang; strukturierte Modellierung; technisches Detail; tiefer Lernansatz; tiefes Lernen; tiefes Modell; unabhängige Komponentenanalyse; ungefähre Inferenz; ungefähre Methode; ungefähre Schlussfolgerung; unstruk
turierte Modellierung; unterbeschränktes Problem; unüberwacht Pretraining; unüberwachtes Feature; unüberwachter Lernalgorithmus; vielfältige Interpretation; zufällige Operation; zufällige Variable; zweite Ordnung; überwachter Lernalgorithmus
Aaron Courville; ander Boltzmann Maschinen; Basic Convolution Funktion; Bayes; Beispiel Multi Digit Number; Beispiel Principal Components Analysis; Computational Graphs; Deep Boltzmann Maschinen; Deep Feedforward; Deep Generative Modelle; Deep Recurrent; Directed Generative Nets; Echo State Networks; Encoderdecoder Sequenzzu SequenzArchitekturen; faltbar Boltzmann Maschinen; Gated RNNs; generativ Stochastische Netzwerke; Gibbs; Gradientbased Learning; groß Skala Deep Learning; Ian Goodfellow Yoshua Bengio; Lernen Deep Networks Moderne; Lernen Ungefähre Inferenz; Markow Kette Monte Carlo Methoden; maschinell Lernen Grundlagen; Maximum Likelihood Schätzung; Parameter Norm Strafen; Predictive Sparse Decomposition; Presse Cambridge Massachusetts London; Regularisierte Autonecoder; rekursiv Neuronale Netze; Semi Supervised Learning; skalar Vektoren Matrizen; tief Lernen Tiefes Lernen; wiederkehrend Neuronale Netze
519.76 > Mathematische Semiotik, Mathematische Linguistik