Die nachfolgende systematisierende Übersicht enthält die gängigen Buzzwords aus dem Bereich Künstliche Intelligenz.  Wenn Sie auf die Begriffe klicken, kommen Sie zu einer einfachen Erklärung mit einem Link zu tiefer gehenden Erläuterungen.  Zum Zweck der Vereinheitlichung wurden in der Übersicht ausschließlich englische Bezeichnungen verwendet.  Die deutsche Übersetzung (soweit sinnvoll und vorhanden) finden Sie in der nachfolgenden Tabelle.

Glossar

Begriff Erläuterung Link / Quelle
(Artificial) Neural Networks (NN) Programm oder Modell des maschinellen Lernens mit Hilfe von beliebig miteinander verbundenen Neuronen, die als Teil eines Nervensystems einen auf bestimmte Funktionen ausgerichteten Zusammenhang bilden. Künstliche Neuronale Netze bestehen aus einer Eingabeschicht, u.U. versteckten Schichten und einer Ausgabeschicht. Diese Schichten enthalten Neuronen, die mit gerichteten Kanten miteinander verbunden sind. https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz
(Multi-Layer) Perceptrons (MLP) Ein Perceptron ist ein vereinfachtes künstliches neuronales Netz und besteht in der Grundversion (einfaches Perzeptron) aus einem einzelnen künstlichen Neuron mit anpassbaren Gewichtungen und einem Schwellenwert. Unter diesem Begriff werden heute verschiedene Kombinationen des ursprünglichen Modells verstanden, dabei wird zwischen einlagigen und mehrlagigen Perzeptren (engl. multi-layer perceptron, MLP) unterschieden. Perzeptron-Netze wandeln einen Eingabevektor in einen Ausgabevektor um. https://de.wikipedia.org/wiki/Perzeptron
Artificial Intelligence (AI), Künstliche Intelligenz (KI) Technologien zum Erstellen von Maschinen und Computern, die die kognitiven Funktionen im Zusammenhang mit menschlicher Intelligenz imitieren können, wie beispielsweise die Fähigkeit auf gesprochene oder geschriebene Sprache zu reagieren, Daten zu analysieren, Empfehlungen zu geben etc. https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
Automated Reasoning Automated Reasoning ist das Gebiet der Informatik, das versucht, Gewissheit darüber zu geben, was ein System oder Programm tun wird oder niemals tun wird. Diese Zusicherung basiert auf mathematischen Beweisen. Es verwendet mathematische, auf Logik basierende algorithmische Verifizierungsmethoden, um Sicherheits- oder Korrektheitsnachweise für alle möglichen Verhaltensweisen zu erbringen. https://aws.amazon.com/de/what-is/automated-reasoning/
Autonomes Fahren Das (voll-)automatische Fahren eines Fahrzeuges durch eine Künstliche Intelligenz.
Betrugserkennung Die Erkennung von illegalem Verhalten in Daten (z.B. Finanztranskationen)
Boltzmann Neural Networks / Boltzmann Machine Ein Boltzmann Neural Network (auch Boltzmann-Maschine) ist ein neuronales Netz, basierend auf der Boltzmann-Verteilung, die besagt, dass der aktuelle Zustand eines physikalischen Systems von der Energie und der Temperatur des Systems abhängt. Sie verwenden für ihre Implementierung als neuronale Netze daher Energiemodelle. Der Energie entspricht die Abweichung von der tatsächlichen Antwort. Je höher die Energie, desto größer die Abweichung. Es ist daher wichtig, das Modell zu trainieren, bis es einen Niedrigenergiepunkt erreicht. Boltzmann-Maschinen haben keine klare Abgrenzung zwischen Eingabeschicht und Ausgabeschicht. Die Knoten in Boltzmann-Maschinen werden einfach als sichtbare und unsichtbare Knoten kategorisiert. Die sichtbaren Knoten nehmen die Eingabe auf, die auch die rekonstruierte Eingabe als Ausgabe zurückgeben. https://de.wikipedia.org/wiki/Boltzmann-Maschine
Boolean Logic Boolesche Algebra ist eine spezielle algebraische Struktur, die die Eigenschaften der logischen Operatoren UND, ODER, NICHT sowie die Eigenschaften der mengentheoretischen Verknüpfungen Durchschnitt, Vereinigung, Komplement verallgemeinert. Die boolesche Algebra ist die Grundlage bei der Entwicklung von digitaler Elektronik und wird dort als Schaltalgebra, etwa bei der Erstellung von Schaltnetzen, angewandt. Sie wird in allen modernen Programmiersprachen zur Verfügung gestellt und ist auch in der Mengentheorie und Statistik vertreten. https://de.wikipedia.org/wiki/Boolesche_Algebra
Convolutional Neural Networks (CNN) Ein speziell auf die Bilderkennung ausgerichtetes Neuronales Netz, welches aus hunderten von Schichten bestehen kann, die jeweils lernen, verschiedene Merkmale eines Bildes zu erkennen. https://de.mathworks.com/discovery/convolutional-neural-network.html
Decision Trees Ein Decision Tree ist ein nichtparametrischer überwachter Lernalgorithmus, der sowohl für Klassifizierungs- als auch für Regressionsaufgaben verwendet wird. Er hat eine hierarchische Baumstruktur, die aus einem Stammknoten, Zweigen, inneren Knoten und Blattknoten besteht. https://www.ibm.com/de-de/topics/decision-trees
Deep Believe Network (DBN) Ein Deep Belief Network besteht aus mehreren Schichten von Restricted Boltzmann Machines (RBMs) oder Autoencodern, die aufeinander folgen. Jede Schicht (Layer) wird einzeln und nacheinander trainiert und liefert ihre Ausgabe als Eingabe an die nächste Schicht. Bei DBNs handelt es sich um generative Modelle. Solche Modelle lernen die Wahrscheinlichkeitsverteilung der Daten, um auf Basis dessen, neue Daten generieren zu können, die der gelernten Verteilung ähneln. Obwohl sie eine wichtige Rolle in der Entwicklung des Deep Learning gespielt haben, werden diese heutzutage seltener verwendet, da sich andere Methoden, wie z.B. das Convolutional Neural Networks (CNNs) als effektiver für viele Aufgaben erwiesen hat. https://app.wiwien-projekt.de/wissen:glossar:dbn
Deep Learning (DL) Neuronales Netz mit 2 oder mehr versteckten Schichten https://de.wikipedia.org/wiki/Deep_Learning
Diffusion Models In Diffusion Models werden spezielle, für die Bilderzeugung angelegte und trainierte Neuronale Netze (sog. Diffusionstransformator) eingesetzt. Konzeptionell ahmen sie einen Prozess nach, der der zufälligen Bewegung winziger Teilchen in einer Flüssigkeit ähnelt, indem sie statistisches Rauschen mit Hilfe von stochastischen Differentialgleichungen nach und nach in Bilder transformieren. Wie sie dies tun sollen, lernen sie – sehr vereinfacht gesagt – indem, sie Bilder in statistisches Rauschen transformieren, sich die dabei durchlaufenen Schritte „merken“ und diese dann bei der Bilderzeugung rückwärts ablaufen lassen. https://www.societybyte.swiss/2023/08/09/diffusion-modells-ein-neuer-horizont-in-der-bilderzeugung/
Expert Systems Ein Expertensystem (XPS oder auch ES) ist ein Computerprogramm, das Menschen bei der Lösung komplexerer Probleme wie ein Experte unterstützen kann, indem es Handlungsempfehlungen aus einer Wissensbasis ableitet. Ein Expertensystem enthält die Funktionalität, um die Wissensbasis zu erstellen und zu verbessern (Wissenserwerbskomponente), zu verarbeiten (Problemlösungskomponente) und dem Nutzer verständlich zu machen (Erklärungskomponente). https://de.wikipedia.org/wiki/Expertensystem
Feed Forward Networks (FFN) Neuronales Netz, mit unidirektionalem Fluss, was bedeutet, dass die informationen im Netz nur in eine Richtung (vorwärts) von der Eingabeschicht durch die versteckten Schichten zur Ausgabeschicht fließen. Es gibt also keine Rückflüsse oder Schleifen im Netz. https://en.wikipedia.org/wiki/Feedforward_neural_network
Generative Adversarial Networks (GAN) Generative Adversarial Networks beschreiben keine Merkmale eines einzelnen Neuronalen Netzwerkes, sondern ein Konzept aus dem Maschinellen Lernen und beschreiben ein Framework für das Training von Netzwerken im Kontext von generativem Lernen bzw. unüberwachtem Lernen. Hierbei werden zwei Netzwerke, der Generator und der Diskriminator gegeneinander trainiert, wobei der Generator versucht Daten zu generieren, die einem ursprünglichen Datensatz sehr ähnlich sind, und der Diskriminator versucht echte und falsche Daten zu unterscheiden. Nach dem Training kann der Generator genutzt werden um Daten zu generieren die den ursprünglichen Daten sehr ähnlich sind. https://de.wikipedia.org/wiki/Generative_Adversarial_Networks
Generative AI Generative KI ist Künstliche Intelligenz, die auf Grundlage ihrer Trainingsdaten Medien (Text, Bild, Video, Sprache, Musik etc.) erzeugen, also „generieren“ kann. https://en.wikipedia.org/wiki/Generative_artificial_intelligence
Kaufempfehlungen Die Identifizierung von Produkten mittels Künstlicher Intelligenz, die von einem Interessenten wahrscheinlich zeitnah gekauft werden, auf der Basis von Daten über den betroffenen Interessenten (z.B. Klickverhalten, sozio-demografische Daten etc.)
Klassifikatoren In einem Klassifikator werden Objekte (z.B. Bilder) bestimmten Klassen zugeordnet (z.B. der Klasse Affe, wenn auf dem Bild ein Affe abgebildet ist). Dabei geht es immer darum, Muster in Daten zu erkennen. Klassifikatoren kommen in einer Vielzahl von Gebieten zum Einsatz, z.B. bei der Diagnostik, Textbewertung, Prüfung der Kreditwürdigkeit usw. https://lamarr-institute.org/de/blog/ml-klassifikation/
k-Means Ein k-Means-Algorithmus ist ein Verfahren zur Vektorquantisierung, das auch zur Clusteranalyse verwendet wird. Dabei wird aus einer Menge von ähnlichen Objekten eine vorher bekannte Anzahl von k Gruppen gebildet. Der Algorithmus ist eine der am häufigsten verwendeten Techniken zur Gruppierung von Objekten, da er schnell die Zentren der Cluster findet. Dabei bevorzugt der Algorithmus Gruppen mit geringer Varianz und ähnlicher Größe. https://de.wikipedia.org/wiki/K-Means-Algorithmus
Knowledge Representation Wissensrepräsentation (englisch: knowledge representation) dient im Rahmen der Wissensmodellierung dazu, Wissen in Wissensbasierten Systemen formal abzubilden. Dazu sind verschiedene formale Sprachen und Notationen vorgeschlagen worden, von Katalogen und Glossaren bis zu komplexen semantischen Netzen. https://de.wikipedia.org/wiki/Wissensrepr%C3%A4sentation
Large Language Models (LLM) Large Language Models sind leistungsstarke Modelle, die darauf ausgelegt sind, Texte in menschlicher Sprache zu verarbeiten und zu generieren. Sie können Text analysieren, kohärente Antworten generieren und sprachbezogene Aufgaben ausführen. Diese Modelle basieren in der Regel auf einer Transformer-Architektur, wie dem generativen Pre-Trained Transformer. https://www.iese.fraunhofer.de/blog/large-language-models-ki-sprachmodelle/
Linear/Logistic Regression Statistische Verfahren, die geeignet sind, Zusammenhänge zwischen Variablen quantitativ zu beschreiben oder Werte der abhängigen Variablen zu prognostizieren. Je nach zugrundeliegendem Model kann dies z.B. mit linearen oder logistischen Funktionen erfolgen. https://de.wikipedia.org/wiki/Regressionsanalyse
Machine Learning Untergruppe von AI, die einer Maschine oder einem System das Lernen und Optimieren von Erfahrungen ermöglicht, im Gegensatz zu expliziter Programmierung https://de.wikipedia.org/wiki/Maschinelles_Lernen
Natural Language Processing (NLP) Natural Language Processing, NLP, Verarbeitung natürlicher Sprache, ist ein Teilgebiet der Informatik und künstlichen Intelligenz (KI), das maschinelles Lernen nutzt, damit Computer die menschliche Sprache verstehen und mit ihr kommunizieren können. https://www.ibm.com/de-de/topics/natural-language-processing
Predictive Maintenance Predicitive Maintenance ist die vorhersage von Ausfällen in bzw. Wartungs- und Reparaturbedarfen für Maschinen mittels Künstlicher Intelligenz. Dabei werden Neuronale Netze mit einer Vielzahl von Sensordaten aus der zu überwachenden Maschine gefüttert und einem wahrscheinlichen Maintenance-Event zugeordnet. https://scw.ai/blog/predictive-maintenance-with-machine-learning/
Random Forest Random Forest ist ein Verfahren, das beim maschinellen Lernen, insb. bei Klassifikations- und Regressionsverfahren eingesetzt wird. Beim Training werden mehrere möglichst unkorrelierte Entscheidungsbäume erzeugt. Dabei wird jeder Entscheidungsbaum mit einer anderen, zufällig ausgewählten Stichprobe der Trainingsdaten trainiert. Zusätzlich berücksichtigt jeder Baum für die Aufteilung der Objekte aus seiner Stichprobe an jedem Knoten nur eine zufällig gewählte Teilmenge aller Merkmale. Anschließend werden alle Bäume zu einem Ensemble, dem Random Forest bzw. Wald (Graphentheorie), kombiniert. Das Ergebnis des Random Forests wird mit Hilfe einer Aggregatfunktion aus den Ergebnissen aller Bäume gebildet. Bei Klassifikationsaufgaben entspricht das Ergebnis der Klasse, die die meisten Bäume gewählt haben. Bei Regressionsaufgaben wird das Ergebnis als Mittelwert der Ergebnisse aller Bäume gebildet. https://www.ibm.com/de-de/topics/random-forest
Recurrent Neural Networks (RNN) Recurrent Neural Networks (RNN) sind eine Klasse von neuronalen Netzen, die Daten sequentiell in mehreren Durchgängen verarbeiten (im Gegensatz zu FFN’s, die Daten in einem Durchgang verarbeiten). Sie erhalten (ebenfalls im Gegensatz zu FFN’s) dafür Rücksprünge und Schleifen. Sie eignen sich damit besonders für die Modellierung und Verarbeitung von Text, Sprache und Zeitreihen. https://en.wikipedia.org/wiki/Recurrent_neural_network
Search Algorithms Suchalgorithmen sind Algorithmen, die in einem Suchraum nach Mustern oder Objekten mit bestimmten Eigenschaften suchen. Hintergrund ist, dass die Lösung eines algorithmischen Problems allgemein als Suche nach der Lösung in einer Menge von möglichen Lösungen (dem Lösungsraum) verstanden werden kann. Als Lösung kann der Zielzustand gelten, aber auch der Pfad zum Ziel oder die Reihenfolge von entsprechenden Aktionen. Ist der Suchraum endlich, kann die Suche mit einer geeigneten Suchstrategie immer zu einem Ergebnis führen. https://de.wikipedia.org/wiki/Suchverfahren
Spracherkennung Die Erkennung von gesprochener Sprache und deren Transkription oder Übersetzung durch eine Künstliche Intelligenz. https://de.wikipedia.org/wiki/Spracherkennung
Support Vector Machines Support Vector Machines (SVMs) sind ein leistungsstarker und vielseitig einsetzbarer Machine-Learning-Algorithmus. Die mathematische Besonderheit von SVMs liegt darin, dass sie durch die Verwendung von sog. Kernel-Tricks sowohl linear-trennbare als auch nicht-linear-trennbare Daten klassifizieren können. https://de.wikipedia.org/wiki/Support_Vector_Machine
Systemsteuerung Die Steuerung eines mechanischen oder elektronischen Systems durch eine Künstliche Intelligenz.
Transformer Ein Transformer ist eine von Google entwickelte Deep-Learning-Architektur, die einen sog. Aufmerksamkeitsmechanismus integriert, der erstmals in einem Artikel aus dem Jahr 2017 „Attention Is All You Need“ vorgestellt wurde. Dabei wird Text in numerische Darstellungen, die als Token bezeichnet werden, und anschließend durch Worteinbettung in Vektoren umgewandelt. Dies kann z.B. dazu benutzt werden, Texte zu erzeugen oder von einer Sprache in eine andere zu übersetzen. https://de.wikipedia.org/wiki/Transformer_(Maschinelles_Lernen)
Visual Perception Maschinelles Sehen ist ein Bereich der künstlichen Intelligenz (KI), der es Computern und Systemen ermöglicht, visuelle Daten zu interpretieren und zu analysieren und aus digitalen Bildern, Videos und anderen visuellen Elementen aussagekräftige Informationen abzuleiten. Zu den typischen Anwendungen in der Praxis gehören: Objekterkennung, Verarbeitung visueller Inhalte (Bilder, Dokumente, Videos), Verständnis und Analyse, Produktsuche, Bildklassifizierung und -suche sowie Inhaltsmoderation. https://cloud.google.com/vision?hl=de