Business Intelligence V

Fach Fach

Klasse 11

Autor Wimmer96

Veröffentlicht am 06.11.2018

Schlagwörter

Business Intelligence

Zusammenfassung

Das Thema des Business intelligence (BI) erfährt vor allem in der derzeitigen Zeit einen regelrechten Hype unter den Unternehmen. Diese Referate sollen einen allgemeinen Überblick über diese Themen geben.
 Overfitting

Einen Baum zu ‘Lernen’, der Trainingsdaten perfekt klassifiziert, wird nicht unbedingt zu dem Baum führen, der die beste Verallgemeinerung von unbemerkten Daten bietet.
• Es könnte Rauschen in den Trainingsdaten geben, die zu einem falschen Baum führen
• Der Algorithmus macht eventuell schlechte Entscheidungen an den Blättern des Baumes, die nur auf wenigen Daten basieren und so keine verlässlichen Trends zurückgeben-
Ein ‘Overfit’ der Trainingsdaten liegt dann vor, wenn eine Hypothese h gegenüber einer h’ geringere Fehler in den Trainingsdaten hat, aber größere bei unabhängigen Testdaten.
Kategorien oder Eigenschaftsrauschen kann leicht der Grund für ‘Overfitting’ sein Rauschen kann auch begründen, dass verschieden Beispiele des selben Eigenschaftsvektors
verschiedene Klassen haben. Es ist unmöglich diese Daten zu fitten, man muss die Blätter mit der
‚Überklasse‘ beschreiben.
Gegensätzliche Beispiele können auch auftauchen, wenn die Eigenschaften unvollständig oder inadäquat die Klasse zu bestimmen sind, oder wenn das Zielkonzept nicht deterministisch ist.

Overfitting Prevention (Pruning) Methods
• 2 grundlegende Ansätze für Entscheidungsbäume
o Prepruning: Stoppe das Wachsen des Baumes an einem Punkt während der top- down Konstruktion, an dem es keine weitere ausreichende Daten gibt, um verlässliche Entscheidungen zu fällen
o Postpruning: Lass den ganzen Baum wachsen, entferne dann Teilbäume, die keine ausreichenden Belege liefern.
• Beschreibe Blätter, entstanden durch das Kürzen,, mit der ‘Überklasse’ der verbleibenden Daten oder mit einer Klassen-Wahrscheinlichkeits-Verteilung.

• Methode um zu bestimmen welcher Teilbaum gekürzt wird
o Cross-validation: Reserviere etwas Trainingsdaten als hold-out Satz, um die Nützlichkeit der Teilbäume zu evaluieren.
o Statistical test: Signifikanztest auf Trainingsdaten, ob Zusammenhänge zufällig sind
o Minimum description length (MDL): Bestimme, ob weitere Komplexität der Hypothesen weniger komplex ist, als sich nur an Ausnahmen, die sich aus dem Kürzen gegeben haben, zu erinnern.

Reduced Error Pruning
A post-pruning, cross-validation approach:
• Teile die Trainingsdaten in ‘Wachstums’ und ‘Validierungs’ Sätze
• Baue einen kompletten Baum mit Hilfe der ‚Wachstums‘ Daten
• Bis die Genauigkeit des Validierungssatzes sinkt mache für jeden Knoten ohne Blatt n im Baum:
Kürze den Teilbaum unter n vorübergehend und ersetze ihn durch ein Blatt, beschrieben mit der aktuellen ‚Überklasse‘ an diesem Knoten. Miss und tracke die Genauigkeit des gekürzten Baumes mit dem Validierungssatz
Kürze den Knoten, der dauerhaft das größte Genauigkeitswachstum hat.
Probleme:
• Möglich, dass Trainingsdaten im Validierungssatz verschwendet werden.
• Härte des Problems ist abhängig davon, wo man sich auf der Lernkurve befindet
Cross-Validating without Losing Training Data
• Wenn der Algorithmus modifiziert ist, um den Baum zuerst in der Breite, dann in der Tiefe wachsen zu lassen, können wir das Wachsen nach einer spezifischen Baum-Komplexität stoppen.
• Mache erst einige Versuche, mit jeweils verschiedenen, zufälligen Splits in Wachstums und Validierungssätze.
• Tracke die Komplexität des gekürzten Baumes, erlernt in jedem Versuch. C=durchschnittlich gekürzte Bäume Komplexität
• Lass einen finale Baum (Breadth-first) aus allen Trainingsdaten bauen und stoppe, wenn C erreicht wurde

Neurale Netzwerke
Biological Inspiration
• Lernansatz basiert auf das modellieren im biologischen neuralen System
• Perceptron: Erster entwickelter Algorithmus um leichte Neurale Netzte zu modellieren.
• Backpropagation: Komplexerer Ansatz mit mehreren Schichten

Perceptron
Modelliere das Netzwerk als Graph mit Zellen als Knoten und synaptischen Verbindungen als gewichtetete Kanten von Knoten i zu j, wij

Algorithmus:
• Update die Gewichte wiederholend bis sie konvergieren
• Initialisiere Gewichte für zufällige Werte bis der Output von allen Trainingsbeispielen korrekt ist
Für jedes Trainingspaar E mache:
o Berechne den aktuellen Output oj für E gegeben der Inputs oi
o Vergleiche den aktuellen Output mit dem Zielwert, tj, für E
o Update die synaptischen Gewichte und Schwelle mit einer Lernregel
• Jede Ausführung des äußeren Kreislaufs wird gewöhnlich ‚epoch‘ genannt.
Definition Linear separierbar:
2 Sätze an Punkten in einem 2-D Raum sind linear separierbar, wenn sie von einer einzigen linearen Linie getrennt werden können. Im Allgemeinen, 2 Punktsätze sind linear separierbar im n-D Raum, wenn sie durch eine Hyperebene getrennt werden können.
• Da Perceptron eine lineare Schwellen Funktion nutzt, wird nach einem linearen Separator gesucht, der die Klassen diskriminiert.
• Können im Allgemeinen keine Gleichheitsfunktion lernen.

Grenzen: System kann keine Konzepte lernen, es kann nicht verkörpern-

Perceptron convergence theorem:
Wenn Daten linear separierbar sind und daher ein Satz von Gewichten existiert, die konsistent mit den Daten sind, dann wird der Algorithmus wahrscheinlich zu einem konsistenten Satz an Gewichten konvergieren.
Perceptron cycling theorem:
Wenn die Daten nicht linear separierbar sind, wird der Algorithmus wahrscheinlich ein Satz an Gewichten und die Schwelle am Ende Der Epoche ständig wiederholen und daher in einer unendlichen Schleife enden.

• Durch das checken der wiederholten Gewichte und Schwelle kann man garantieren, dass an einem positiven oder negativen Ergebnis abgebrochen wird.
Perceptron als Bergsteigeralgorithmus
• Der Hypothesenraum nach dem gesucht wird ist ein Satz an Gewichten und einer Schwelle
• Ziel ist es, den Klassifizierungsfehler der Trainingsdaten zu minimieren
• Perceptron macht dies effektiv, indem die Gewichte an jedem Punkt etwas geändert werden.
• Für ein einzelnes Modell Neuron gibt der Raum ein einzelnes Minimum

Multi-Layer Networks

• Können beliebige Funktionen repräsentieren, aber ein effektiver Lernalgorithmus ist schwer.
• Enthält typischerweise eine Input, eine verborgene und eine Output Schicht, jede komplett mit der nächsten verbunden

• Die Gewichte bestimmen die berechnete Funktion. Gegeben eine beliebige Anzahl an verborgener Einheiten, eine boolean-Funktion, kann mit einer einzigen verborgenen Schicht berechnet werden.
• Die normale lineare Schwellen Funktion ist nicht differenzierbar an der Schwelle.
• Jedoch brauchen wir den Output einer Einheit als differenzierbare Funktion der Inputs und Gewichte, um es ansteigender Abstammung machen zu können.
Differentiable Output Function
• Es wird eine nicht lineare Output Funktion benötigt, um sich außerhalb der linearen Funktion bewegen zu können
o Ein Viel-Schichten-Netzwerk ist immer noch linear
• Die Standardlösung ist, eine nicht-lineare, differenzierbare sigmoidal Funktion zu nutzen.

Quellenangaben
<pre><code> Baeza-Yates, R. and Ribeiro, B. A. N. (2011). Modern Information Retrieval. Pearson. Harlow [a.o.], 2nd edition. </code></pre> <p>&bull; Bose, R. (2009). Advanced Analytics: Opportunities and Challenges. In Industrial Management &amp; Data Systems, Vol 109(2), p. 155- 172<br />&bull; Chen, H., Chiang, R. H. L. and Storey, V. C. (2012). Business Intelligence Analytics &ndash; From Big Data to Big impact. MIS Quarterly, Vol 36(4), p. 1165-1188<br />&bull; Chamoni, P.; Gluchowski P. (2006). Analytische Informationssysteme, Springer, Berlin; Heidelberg, 3. edition<br />&bull; Cleve, J. and L&auml;mmel, U. (2014). Data Mining. De Gruyter Verlag, Oldenburg<br />&bull; Cunningham, H., Tablan, V., Roberts and A., Bontcheva, K. (2013). Getting More out of Biomedical Documents with GATE&lsquo;s Full Lifecycle Open Source Text Analytics. PLoS Computational Biology, Vol 9 (3)<br />&bull; Davenport, T. H. and Harris, J. G. (2017). Competing on Analytics &ndash; The new Science of Winning. Harvard Business School publishing corporation. Boston [a.o.]<br />&bull; Fayyad, U.; Piatetsky-Shapiro, G. and Smyth, P. (1996). From Data Mining to Knowledge Discovery in Databses. In: Artificial Intelligence Magazine, Vol. 17(3), p. 37-54<br />&bull; Gluchowski, P., Gabriel, R. and Dittmar, C. (2008). Management Support Systeme und Business Intelligence. Springer Verlag. Berlin Heidelberg. 2. edition<br />&bull; Hodeghatta, U. R. and Nayak, U. (2017). Business Analytics using R &ndash; A Practical Approach. Apress. New York.<br />&bull; IBM Tech Trend Report (2017). Emerging Technology Trends that will Influence Business, Work, Politics, Government, Media, Education, and Sociaety in the Coming Year. Future Today Institute<br />&bull; Jackson, J. (2002). Data Mining: a Conceptual Overview. In Communications of the Association for Information Systems (CAIS), Vol 8, p. 267-296<br />&bull; Knobloch, B. (2000). Der Data-Mining-Ansatz zur Analyse betriebswirtschaftlicher Daten, Bamberger Beitr&auml;ge zur Wirtschaftsinformatik Nr. 58, Bamberg<br />&bull; Negash, S. (2004). Business Intelligence. Communications of the Association for Information Systems (CAIS), Vol 13, p. 3190-3199<br />&bull; Varian, H. (2008). Hal Varian Answers your Questions (accessed on 30.10.2018), <a rel="nofollow" href="http://www.freakonomics.com/2008/02/25/halvarian-answers-your-questions/">http://www.freakonomics.com/2008/02/25/halvarian-answers-your-questions/</a><br />&bull; Watson, H. J. (2009). Business Intelligence &ndash; Past, Present, and Future. Tutorial. In Communications of the Association for Information Systems (CAIS), Vol. 25, p. 487-511</p>