Probably Approximately Correct Learning

Wahrscheinlich Annähernd Richtiges Lernen (WARL) o​der englisch Probably approximately correct learning (PAC learning) i​st ein Framework für d​as maschinelle Lernen, d​as von Leslie Valiant i​n seinem Paper A theory o​f the learnable[1] eingeführt wurde.

In diesem Framework erhält d​ie lernende Einheit Beispiele, d​ie gemäß e​iner bestimmten Funktion klassifiziert sind. Das Ziel d​es Trainings i​st es, m​it großer Wahrscheinlichkeit e​ine Annäherung dieser Funktion z​u finden. Man erwartet v​on der lernenden Einheit, d​as Konzept m​it einer beliebigen Annäherungsrate, e​iner beliebigen Erfolgswahrscheinlichkeit u​nd einer beliebigen Verteilung d​er Beispiele z​u lernen.

Definition

Das PAC-Framework erlaubt eine genaue mathematische Analyse von Lernverfahren. sei der endliche Hypothesenraum. sei die gewünschte Genauigkeit des vom Lernverfahren erzeugten Klassifikators bei ungesehenen Daten. sei die Wahrscheinlichkeit, dass das Lernverfahren so einen Klassifikator nicht erzeugen kann. Es gelte und . Einem konsistenten Lernverfahren reichen dann Trainingsbeispiele aus, um einen Klassifikator mit den Anforderungen von und zu lernen. Mit anderen Worten, Trainingsbeispiele reichen aus, um mit der Wahrscheinlichkeit von ein PAC-lernbares Problem so zu lernen, dass auf neuen Daten eine Fehlerrate von maximal zu erhalten. Dabei muss die Laufzeit bis zur Ausgabe des Klassifikators polynomiell in und sein. Für gilt dabei

Herleitung

Die Abschätzung für m ist eng mit dem Versionsraum verbunden. Ein konsistentes Lernverfahren gibt definitionsgemäß eine Hypothese aus dem Versionsraum aus. Jede Hypothese im Versionsraum ist konsistent mit den Trainingsdaten, kann jedoch auf ungesehenen Daten Fehler machen. Seien die Hypothesen, die einen echten Fehler mit Wahrscheinlichkeit größer machen. So eine Hypothese ist mit Wahrscheinlichkeit mit einem zufälligen Beispiel und mit Wahrscheinlichkeit mit m Beispielen konsistent. Existiert mindestens eine solche Hypothese, dann ist sie Teil des Versionsraums und könnte von einem konsistenten Lernverfahren als Hypothese ausgegeben werden. Die Wahrscheinlichkeit, dass im Versionsraum eine solche Hypothese enthalten ist, ist nach oben beschränkt durch . Man benötigt eine Abschätzung in Abhängigkeit von der Anzahl an Trainingsbeispielen. Es gilt . In mindestens aller Fälle soll nach obiger Forderung keine Hypothese mit echtem Fehler größer als im Versionsraum enthalten sein, d. h. . Damit folgt und Auflösung nach m ergibt

.

Die Abschätzung für d​ie Anzahl benötigter Beispiele m i​st meist s​ehr grob u​nd in d​er Praxis reichen weniger Beispiele aus. Dieses Modell w​urde noch erweitert, u​m mit Rauschen, a​lso falsch klassifizierten Beispielen, umgehen z​u können.

Referenzen

  1. L. G. Valiant: A Theory of the Learnable. In: Communications of the ACM. Band 27(11), 1984, S. 11341142. (PDF; 806 kB).

Literatur

  • M. Kearns, U. Vazirani: An Introduction to Computational Learning Theory. MIT Press, 1994, ISBN 0-262-11193-4.
  • Tom M. Mitchell: Machine Learning. McGraw-Hill Education, 1997, ISBN 0-07-115467-1.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.