Mindmap-Galerie Top 10 Algorithmen der künstlichen Intelligenz
Für viele Menschen ist künstliche Intelligenz immer noch eine relativ „fortgeschrittene“ Technologie, aber egal wie fortschrittlich die Technologie ist, sie beginnt mit Grundprinzipien. Im Bereich der künstlichen Intelligenz kursieren 10 wichtige Algorithmen, die schon sehr früh entdeckt und angewendet wurden und im Leben weit verbreitet sind. Dieser Artikel führt Sie in Laiensprache durch diese 10 Algorithmen
Bearbeitet um 2023-05-29 19:40:10Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Top 10 Algorithmen der künstlichen Intelligenz
1. Lineare Regression
Definition
(Lineare Regression) ist wahrscheinlich der beliebteste Algorithmus für maschinelles Lernen. Bei der linearen Regression geht es darum, eine gerade Linie zu finden und diese gerade Linie so genau wie möglich an die Datenpunkte im Streudiagramm anzupassen. Es versucht, die unabhängigen Variablen (x-Werte) und numerischen Ergebnisse (y-Werte) darzustellen, indem eine Geradengleichung an diese Daten angepasst wird. Diese Linie kann dann zur Vorhersage zukünftiger Werte verwendet werden!
Die am häufigsten verwendete Technik für diesen Algorithmus ist die Methode der kleinsten Quadrate. Diese Methode berechnet eine Linie mit der besten Anpassung, die den senkrechten Abstand von jedem Datenpunkt auf der Linie minimiert. Die Gesamtdistanz ist die Summe der Quadrate der vertikalen Distanzen (grüne Linie) aller Datenpunkte. Die Idee besteht darin, das Modell anzupassen, indem dieser quadratische Fehler oder diese Distanz minimiert wird.
Zum Beispiel eine einfache lineare Regression, die eine unabhängige Variable (x-Achse) und eine abhängige Variable (y-Achse) hat.
Häufige Anwendungen
Prognostizieren Sie beispielsweise den Immobilienpreisanstieg im nächsten Jahr, den Verkauf neuer Produkte im nächsten Quartal usw. Es klingt nicht schwierig, aber die Schwierigkeit des linearen Regressionsalgorithmus besteht nicht darin, den vorhergesagten Wert zu erhalten, sondern darin, genauer zu sein. Für diese möglicherweise sehr kleine Zahl, wie viele Ingenieure haben ihre Jugend und ihre Haare dafür aufgewendet.
2. Logistische Regression
Definition
Die logistische Regression ähnelt der linearen Regression, das Ergebnis der logistischen Regression kann jedoch nur zwei Werte haben. Wenn die lineare Regression einen offenen Wert vorhersagt, gleicht die logistische Regression eher einer Ja- oder Nein-Frage.
Der Y-Wert in der Logistikfunktion liegt zwischen 0 und 1 und ist ein Wahrscheinlichkeitswert. Logistische Funktionen weisen normalerweise eine S-förmige Kurve auf, die den Graphen in zwei Bereiche unterteilt, wodurch sie für Klassifizierungsaufgaben geeignet sind.
Das obige logistische Regressionsdiagramm zeigt beispielsweise die Beziehung zwischen der Wahrscheinlichkeit, die Prüfung zu bestehen, und der Lernzeit und kann zur Vorhersage verwendet werden, ob Sie die Prüfung bestehen können.
Häufige Anwendungen
Die logistische Regression wird häufig von E-Commerce- oder Take-out-Plattformen verwendet, um die Kaufpräferenzen der Benutzer für Kategorien vorherzusagen.
3. Entscheidungsbaum
Definition
Das Obige ist eine Darstellung eines Entscheidungsbaums, in dem jeder verzweigte Kreis als Knoten bezeichnet wird.
An jedem Knoten stellen wir Fragen zu den Daten basierend auf den verfügbaren Funktionen. Der linke und der rechte Zweig stellen mögliche Antworten dar. Der letzte Knoten (d. h. Blattknoten) entspricht einem vorhergesagten Wert.
Die Bedeutung jedes Merkmals wird durch einen Top-Down-Ansatz bestimmt. Je höher der Knoten, desto wichtiger sind seine Eigenschaften. Der Lehrer im obigen Beispiel glaubt beispielsweise, dass Anwesenheit wichtiger ist als Hausaufgaben, daher ist der Anwesenheitsknoten höher und natürlich ist auch der Punkteknoten höher.
Wenn sowohl die lineare als auch die logistische Regression die Aufgabe in einer Runde beenden, handelt es sich bei Entscheidungsbäumen (Entscheidungsbäumen) um eine mehrstufige Aktion. Sie werden auch bei Regressions- und Klassifizierungsaufgaben verwendet, die Szenarien sind jedoch normalerweise komplexer und spezifischer.
Häufige Anwendungen
Um ein einfaches Beispiel zu nennen: Wer sind die guten Schüler, wenn ein Lehrer in einer Klasse auf Schüler trifft? Es erscheint zu grob, einfach zu beurteilen, dass ein Student mit einer Punktzahl von 90 in der Prüfung als guter Student gilt, und kann nicht allein auf der Grundlage der Ergebnisse beurteilt werden. Für Studierende, deren Punktzahl weniger als 90 Punkte beträgt, können wir diese getrennt von Aspekten wie Hausaufgaben, Anwesenheit und Fragen besprechen.
4. Naive Bayes
Definition
Naive Bayes basiert auf dem Satz von Bayes, der die Beziehung zwischen zwei Bedingungen beschreibt. Es misst die Wahrscheinlichkeit jeder Klasse, die bedingte Wahrscheinlichkeit jeder Klasse bei gegebenem Wert von x. Dieser Algorithmus wird bei Klassifizierungsproblemen verwendet und liefert ein binäres Ja/Nein-Ergebnis. Schauen Sie sich die Gleichung unten an.
Häufige Anwendungen
Der Naive-Bayes-Klassifikator ist eine beliebte statistische Technik mit klassischer Anwendung in der Spam-Filterung
Um den Satz von Bayes in nicht-terminologischer Hinsicht zu erklären, muss man die Wahrscheinlichkeit, dass B unter Bedingung A auftritt, verwenden, um die Wahrscheinlichkeit zu erhalten, dass A unter Bedingung B auftritt. Wenn beispielsweise ein Kätzchen Sie mag, besteht eine Wahrscheinlichkeit von %, dass es seinen Bauch vor Ihnen dreht. Wie groß ist die Wahrscheinlichkeit, dass das Kätzchen Sie mag, wenn es seinen Bauch vor Ihnen dreht? Natürlich kratzt man mit dieser Frage nur an der Oberfläche, daher müssen wir auch andere Daten einbringen. Wenn das Kätzchen Sie beispielsweise mag, besteht eine Wahrscheinlichkeit von b%, dass es bei Ihnen bleibt, und eine Wahrscheinlichkeit von c%, dass es schnurrt. Woher wissen wir also, wie wahrscheinlich es ist, dass ein Kätzchen uns mag? Mithilfe des Bayes-Theorems können wir sie aus der Wahrscheinlichkeit berechnen, dass sich der Bauch dreht, klebt und schnurrt.
5. Support-Vektor-Maschine
Definition
Support Vector Machine (SVM) ist ein überwachter Algorithmus für Klassifizierungsprobleme. Eine Support-Vektor-Maschine versucht, zwei Linien zwischen Datenpunkten mit dem größten Abstand zwischen ihnen zu zeichnen. Dazu zeichnen wir Datenelemente als Punkte im n-dimensionalen Raum auf, wobei n die Anzahl der Eingabemerkmale ist. Auf dieser Grundlage findet die Support-Vektor-Maschine eine optimale Grenze, eine sogenannte Hyperebene, die mögliche Ausgaben bestmöglich nach Klassenbezeichnungen trennt. Der Abstand zwischen der Hyperebene und dem nächstgelegenen Klassenpunkt wird als Rand bezeichnet. Die optimale Hyperebene hat den größten Spielraum, der Punkte so klassifiziert, dass der Abstand zwischen dem nächstgelegenen Datenpunkt und den beiden Klassen maximiert wird.
Häufige Anwendungen
Daher besteht das Problem, das Support-Vektor-Maschinen lösen möchten, darin, eine Reihe von Daten zu trennen. Zu den Hauptanwendungsszenarien gehören Zeichenerkennung, Gesichtserkennung, Textklassifizierung und andere Erkennungen.
6.K-Nearest Neighbor Algorithmus (KNN)
Definition
Der K-Nearest Neighbors (KNN)-Algorithmus ist sehr einfach. KNN klassifiziert Objekte, indem es den gesamten Trainingssatz nach den K ähnlichsten Instanzen oder K Nachbarn durchsucht und allen K Instanzen eine gemeinsame Ausgabevariable zuweist.
Die Wahl von K ist entscheidend: Kleinere Werte können zu viel Rauschen und ungenauen Ergebnissen führen, während größere Werte undurchführbar sind. Es wird am häufigsten zur Klassifizierung verwendet, eignet sich aber auch für Regressionsprobleme.
Der zur Bewertung der Ähnlichkeit zwischen Instanzen verwendete Abstand kann der euklidische Abstand, der Manhattan-Abstand oder der Minkowski-Abstand sein. Der euklidische Abstand ist der gewöhnliche geradlinige Abstand zwischen zwei Punkten. Es ist eigentlich die Quadratwurzel der Summe der Quadrate der Differenz der Punktkoordinaten
Häufige Anwendungen
Die KNN-Theorie ist einfach und leicht zu implementieren und kann zur Textklassifizierung, Mustererkennung, Clusteranalyse usw. verwendet werden.
7.K-Mittelwert
Definition
K-means gruppiert den Datensatz, indem es ihn klassifiziert. Dieser Algorithmus kann beispielsweise verwendet werden, um Benutzer basierend auf der Kaufhistorie zu gruppieren. Es findet K-Cluster im Datensatz. K-means wird für unbeaufsichtigtes Lernen verwendet, daher müssen wir nur die Trainingsdaten X und die Anzahl der Cluster, die wir identifizieren möchten, K verwenden.
Der Algorithmus ordnet jeden Datenpunkt anhand seiner Eigenschaften iterativ einer von K Gruppen zu. Es wählt K Punkte für jeden K-Cluster aus (genannt Schwerpunkte). Basierend auf der Ähnlichkeit werden dem Cluster neue Datenpunkte mit dem nächstgelegenen Schwerpunkt hinzugefügt. Dieser Vorgang setzt sich fort, bis sich der Schwerpunkt nicht mehr verändert.
Häufige Anwendungen
Im Leben spielt K-Means eine wichtige Rolle bei der Betrugserkennung und wird häufig in den Bereichen Automobil, Krankenversicherung und Versicherungsbetrugserkennung eingesetzt.
8. Zufälliger Wald
Definition
Random Forest ist ein sehr beliebter Ensemble-Algorithmus für maschinelles Lernen. Die Grundidee dieses Algorithmus besteht darin, dass die Meinungen vieler Menschen zutreffender sind als die Meinungen eines Einzelnen. In einem Zufallswald verwenden wir ein Ensemble von Entscheidungsbäumen (siehe Entscheidungsbäume).
(a) Während des Trainingsprozesses wird jeder Entscheidungsbaum basierend auf Bootstrap-Beispielen aus dem Trainingssatz erstellt.
(b) Während der Klassifizierung werden Entscheidungen über Eingabeinstanzen auf der Grundlage einer Mehrheitsentscheidung getroffen.
Häufige Anwendungen
Random Forest bietet ein breites Anwendungsspektrum, vom Marketing bis zur Krankenversicherung. Es kann zur Modellierung von Marketingsimulationen, zur Zählung von Kundenquellen, zur Bindung und zum Verlust von Kunden verwendet werden und kann auch zur Vorhersage von Krankheitsrisiken und Patientenanfälligkeiten verwendet werden.
9. Dimensionsreduktion
Aufgrund der schieren Datenmenge, die wir heute erfassen können, sind Probleme des maschinellen Lernens komplexer geworden. Das bedeutet, dass das Training extrem langsam ist und es schwierig ist, eine gute Lösung zu finden. Dieses Problem wird oft als „Fluch der Dimensionalität“ bezeichnet.
Die Dimensionsreduktion versucht, dieses Problem zu lösen, indem bestimmte Merkmale zu Merkmalen höherer Ebene kombiniert werden, ohne dass die wichtigsten Informationen verloren gehen. Die Hauptkomponentenanalyse (PCA) ist die beliebteste Technik zur Dimensionsreduktion.
Die Hauptkomponentenanalyse reduziert die Dimensionalität eines Datensatzes, indem sie ihn in niedrigdimensionale Linien oder Hyperebenen/Unterräume komprimiert. Dadurch bleiben so viele hervorstechende Merkmale der Originaldaten wie möglich erhalten.
Ein Beispiel für eine Dimensionsreduktion kann durch die Annäherung aller Datenpunkte an eine gerade Linie erreicht werden.
10.Künstliches neuronales Netzwerk (ANN)
Definition
Künstliche neuronale Netze (KNN) können große und komplexe maschinelle Lernaufgaben bewältigen. Ein neuronales Netzwerk besteht im Wesentlichen aus einer Reihe miteinander verbundener Schichten, die aus gewichteten Kanten und Knoten, sogenannten Neuronen, bestehen. Zwischen der Eingabeebene und der Ausgabeebene können wir mehrere ausgeblendete Ebenen einfügen. Künstliche neuronale Netze nutzen zwei verborgene Schichten. Darüber hinaus muss Deep Learning behandelt werden.
Künstliche neuronale Netze funktionieren ähnlich wie der Aufbau des Gehirns. Einer Gruppe von Neuronen wird eine zufällige Gewichtung zugewiesen, um zu bestimmen, wie das Neuron die Eingabedaten verarbeitet. Die Beziehung zwischen Eingabe und Ausgabe wird durch das Training eines neuronalen Netzwerks anhand von Eingabedaten erlernt. Während der Trainingsphase hat das System Zugriff auf die richtigen Antworten.
Wenn das Netzwerk die Eingabe nicht genau erkennt, passt das System die Gewichtungen an. Nach ausreichendem Training erkennt es stets die richtigen Muster.
Jeder kreisförmige Knoten stellt ein künstliches Neuron dar, und die Pfeile stellen Verbindungen vom Ausgang eines künstlichen Neurons zum Eingang eines anderen dar.
Häufige Anwendungen
Bilderkennung ist eine bekannte Anwendung neuronaler Netze.