Dropout (künstliches neuronales Netz)

Dropout i​st eine Regularisierungsmethode, d​ie in künstlichen neuronalen Netzen Anwendung findet u​nd die Gefahr v​on Overfitting verringert.

Dabei wird beim Training des Netzwerks eine vorher spezifizierte Anzahl (etwa 30 %) von Neuronen in jedem Layer des Netzwerks ausgeschaltet (“dropout”) und für den kommenden Berechnungsschritt nicht berücksichtigt.[1] Dies stellt einen sehr effektiven Weg zum Training von tiefen neuronalen Netzen dar.[2]

Siehe auch

Literatur

  • Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov: Dropout. A Simple Way to Prevent Neural Networks from Overfitting. In: Journal of Machine Learning Research. Band 15, Nr. 2. Department of Computer Science University of Toronto, 2014, ISSN 1532-4435, OCLC 5973067678, S. 1929–1958 (cs.toronto.edu [PDF; abgerufen am 17. November 2016]).
  • Nitish Srivastava: Improving Neural Networks with Dropout. Department of Computer Science University of Toronto, 2013 (cs.utoronto.ca [PDF; abgerufen am 17. November 2016]).

Einzelnachweise

  1. Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Abgerufen am 26. Juli 2015.
  2. Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, Ruslan R. Salakhutdinov: Improving neural networks by preventing co-adaptation of feature detectors. 3. Juli 2012, OCLC 798541308, arxiv:1207.0580.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.