Begriffe in der KI
Grundlegende Konzepte
- Künstliche Intelligenz (KI): Überbegriff für Systeme, die menschenähnliche Aufgaben wie Lernen, Problemlösen und Entscheidungsfindung ausführen können.
- Maschinelles Lernen (ML): Teilgebiet der KI, das sich auf Algorithmen konzentriert, die aus Daten lernen und sich anpassen.
- Deep Learning (DL): Unterkategorie des ML, die neuronale Netzwerke mit vielen Schichten nutzt, um komplexe Muster in Daten zu erkennen.
- Neuronales Netz: Modell, das die Funktionsweise des menschlichen Gehirns imitiert, indem es Informationen in Schichten verarbeitet.
- Algorithmus: Schritt-für-Schritt-Anleitung zur Lösung eines Problems oder zur Durchführung einer Aufgabe.
Künstliche Intelligenz im weiten Sinne bezeichnet die Fähigkeit von Maschinen oder Software, Aufgaben auszuführen, die typischerweise menschliche Intelligenz erfordern. Dazu gehören z.B. das Verstehen von Sprache, Problemlösen, Lernen oder visuelle Wahrnehmung. KI ist also ein Oberbegriff für alle Verfahren, die Computer “intelligent” erscheinen lassen. Klassischerweise unterscheidet man zwei Formen: Schwache KI (spezielle KI, engl. weak or narrow AI) – Systeme, die für eng umrissene Aufgaben konzipiert sind (z.B. ein Schachprogramm oder eine Spracherkennung) – und starke KI (allgemeine KI, engl. strong AI), die eine menschenähnliche, universelle Intelligenz erreichen würde. Letztere existiert bislang nur als Konzept.
Im praktischen Sprachgebrauch meint “KI” heute meist die modernen Methoden des maschinellen Lernens, die einem Computer ermöglichen, aus Daten zu lernen und sich anzupassen, anstatt nur fest einprogrammierten Anweisungen zu folgen. So eine lernende KI kann beispielsweise Millionen von Kundendaten analysieren und Muster erkennen, um eine Vorhersage zu treffen – eine Aufgabe, die menschliche Analysten allein nicht in vernünftiger Zeit bewältigen könnten. KI gilt daher als Schlüsseltechnologie der digitalen Transformation. Sie demokratisiert die Nutzung von Daten, indem sie riesige Datenmengen effizient in nutzbare Erkenntnisse verwandelt. Moderne KI-Systeme greifen dabei oft auf Kombinationen verschiedener Techniken zurück (siehe unten: maschinelles Lernen, Neuronale Netze, Deep Learning, NLP etc.).
Maschinelles Lernen (ML)
- Supervised Learning (Überwachtes Lernen): Lernen anhand von Daten mit bekannten Eingabe-Ausgabe-Paaren (z.B. Klassifikationen).
- Unsupervised Learning (Unüberwachtes Lernen): Lernen aus Daten ohne vorgegebene Labels (z.B. Clusterbildung).
- Reinforcement Learning (RL): Lernen durch Belohnung und Bestrafung in einer Umgebung (z.B. AlphaGo).
- Transfer Learning: Nutzung von Wissen, das ein Modell in einer Domäne gelernt hat, zur Anwendung auf eine andere.
- Feature Engineering: Prozess der Auswahl und Transformation relevanter Datenmerkmale für Modelle.
Maschinelles Lernen ist ein Teilgebiet der KI, das Computern die Fähigkeit verleiht, aus Erfahrung zu lernen. Anstatt jede Lösung explizit zu programmieren, werden ML-Modelle mit Daten trainiert, um Muster zu erkennen und künftig eigenständig Entscheidungen zu treffen. Arthur Samuel definierte maschinelles Lernen bereits 1959 prägnant als die Fähigkeit von Computern, ohne explizite Programmierung zu lernen. In der Praxis bedeutet das: Ein ML-Algorithmus wird mit vielen Beispielen gespeist (Eingabedaten und – bei überwachtem Lernen – den gewünschten Ausgaben). Durch einen iterativen Trainingsprozess passt der Algorithmus seine internen Parameter so lange an, bis er die richtigen Ausgaben liefert. Anschließend kann er das Gelernte auf neue, ungesehene Daten anwenden.
Wichtig ist dabei das Prinzip der Generalisation: Das Modell soll nicht auswendig lernen, sondern allgemeine Muster erfassen, um auch für künftige Fälle korrekte Vorhersagen zu treffen. Maschinelles Lernen umfasst eine Vielzahl von Methoden: von linearen Modellen (Regressionen) über Entscheidungsbäume bis zu komplexen neuronalen Netzen (siehe 2.3). Man unterscheidet grob drei Lernarten:
Überwachtes Lernen (supervised learning): Lernen anhand vorgegebener Beispielpaare (Eingang -> gewünschter Ausgang). Beispiele: Bilderkennung mit gelabelten Fotos, Kreditwürdigkeitsprognose aus historischen Krediten mit Bekannten Ausfällen.
Unüberwachtes Lernen (unsupervised learning): Finden von Strukturen in unbeschrifteten Daten. Beispiele: Clusteranalyse (Kundensegmente entdecken), Anomalieerkennung (ungewöhnliche Muster in Netzwerkanomalien finden).
Bestärkendes Lernen (reinforcement learning): Lernen durch Trial-and-Error und Rückmeldung über Belohnungen. Ein Agent interagiert mit einer Umgebung und lernt, Handlungen zu optimieren, um langfristig maximale Belohnung zu erzielen (z.B. in Spielen oder bei der Steuerung von Robotern).
In Unternehmen ist maschinelles Lernen heute äußerst vielseitig einsetzbar – von Vorhersage-Analysen (Predictive Analytics) über Empfehlungssysteme (z.B. für personalisierte Angebote) bis zur automatischen Mustererkennung in Bildern, Texten oder Audiodaten. Dabei gilt: Je mehr und je bessere Daten verfügbar sind, desto genauer können ML-Modelle typischerweise werden. ML bildet auch die Grundlage für fortgeschrittene KI-Felder wie Deep Learning und NLP (natürlichsprachliche KI). Führende Unternehmen betrachten ML-Kompetenz mittlerweile als entscheidenden Innovationsmotor.
Deep Learning
- Künstliches Neuronales Netz (ANN): Einfachstes Modell eines neuronalen Netzes mit Eingabe-, versteckten und Ausgabeschichten.
- Convolutional Neural Network (CNN): Neuronales Netz, spezialisiert auf Bild- und Videoverarbeitung.
- Recurrent Neural Network (RNN): Netz mit Rückkopplungen, spezialisiert auf sequenzielle Daten (z.B. Texte, Zeitreihen).
- Transformers: Architektur für sequenzielle Daten, die durch Mechanismen wie Self-Attention herausragt (z.B. GPT, BERT).
- Generative Adversarial Networks (GANs): Zwei neuronale Netzwerke, die zusammenarbeiten, um realistische Daten zu erzeugen.
Deep Learning ist eine spezielle Methode des maschinellen Lernens, die auf vielschichtigen neuronalen Netzen beruht. “Deep” (tief) bezieht sich dabei auf die Anzahl der Schichten im neuronalen Netz – Deep-Learning-Modelle haben oft Dutzende oder gar Hunderte Schichten, die immer abstraktere Merkmale aus den Rohdaten extrahieren. Der große Vorteil: Deep Learning kann automatisch Merkmale lernen, anstatt dass Domänenexperten sie von Hand definieren müssen. Beispielsweise erkennt ein Deep-Learning-Bildmodell in den ersten Schichten einfache Kanten und Farben, in mittleren Schichten Formen oder Texturen und in den letzten Schichten komplexe Objekte wie Gesichter oder Fahrzeugtypen. Dieses hierarchische Lernen von repräsentativen Merkmalen hat viele Aufgaben revolutioniert – von der Bildklassifikation über Spracherkennung bis zur Spielestrategie.
Der Unterschied zwischen klassischem maschinellen Lernen und Deep Learning liegt also in der Skalierbarkeit und Automatisierung der Merkmalserkennung. Früher war es üblich, z.B. für die Bilderkennung sogenannte feature extractor manuell zu entwickeln (wie Kantendetektoren). Bei Deep Learning wird dies vom Netzwerk selbst übernommen, was besonders bei unstrukturierten Daten (Bilder, Audio, Text) enorme Fortschritte brachte. Allerdings sind Deep-Learning-Modelle auch rechnerisch sehr aufwendig und benötigen große Datenmengen. Erst die Verfügbarkeit von GPUs (Grafikprozessoren) zur parallelen Berechnung machte ihren Durchbruch möglich – beispielsweise wurde das erwähnte AlexNet 2012 auf zwei GPUs trainiert, was als einer der Erfolgsfaktoren galt.
Deep Learning hat zu bahnbrechenden Ergebnissen geführt, die oft übermenschliche Leistungen erreichen. So übertraf ein Deep-Learning-Modell 2019 erfahrene Radiologen bei der Erkennung von Lungenkrebs auf CT-Bildern. In der Sprachverarbeitung kommen heute praktisch alle Spitzensysteme (von Übersetzungsdiensten bis Sprachassistenten) ohne manuell kodierte Linguistik aus – sie verlassen sich auf end-to-end trainierte Deep-Learning-Netze, oft in Form von Transformern (siehe NLP unten). Wie Lex Fridman treffend sagte: “Deep Learning ist skaliertes maschinelles Lernen” – es ermöglicht die Verarbeitung riesiger, komplexer Datenräume und lernt daraus, wo traditionelle Algorithmen scheitern. Zu Deep Learning gehören auch generative Ansätze wie GANs und Diffusionsmodelle, die neue Inhalte erzeugen können (siehe Abschnitt 2.6).
Zusammenfassend kann man Deep Learning als den derzeit fortschrittlichsten Ansatz der KI bezeichnen, der in vielen Aufgabenstellungen den Stand der Technik darstellt. Wichtig ist jedoch zu wissen, dass Deep-Learning-Modelle oftmals einen Mangel an Erklärbarkeit haben und robust gegen Datenverschiebungen sein müssen. Ihre Leistungsfähigkeit hängt zudem stark von der Qualität der Trainingsdaten ab – “garbage in, garbage out” gilt hier besonders. Daher erfordert der erfolgreiche Einsatz in Unternehmen nicht nur das Training des Modells, sondern auch ein gutes Datenmanagement und Monitoring des Modells im Betrieb.Algorithmen und Techniken
- Gradient Descent: Optimierungsalgorithmus, um die Fehlerfunktion eines Modells zu minimieren.
- Backpropagation: Verfahren zur Aktualisierung von Gewichten in neuronalen Netzen durch Fehlerweiterleitung.
- Monte-Carlo-Simulation: Methode zur Modellierung von Unsicherheiten durch zufällige Simulationen.
- Bayes’sches Lernen: Wahrscheinlichkeitsbasierter Ansatz für Entscheidungen unter Unsicherheit.
- K-Means-Clustering: Algorithmus zur Gruppierung von Datenpunkten in Cluster.
Kognitive Systeme
- Natural Language Processing (NLP): Verarbeitung natürlicher Sprache, z.B. Übersetzungen, Textanalyse.
- Computer Vision: Maschinen lernen, Bilder und Videos zu „sehen“ und zu analysieren.
- Speech Recognition: Umwandlung von gesprochener Sprache in Text (z.B. Siri, Alexa).
- Emotion AI: Analyse von Emotionen in Texten, Stimmen oder Gesichtern.
Daten und Modelle
- Big Data: Große und komplexe Datenmengen, die herkömmliche Verarbeitung überfordern.
- Training Data: Datensätze, die verwendet werden, um ein Modell zu trainieren.
- Test Data: Datensätze, die zur Überprüfung der Modellleistung genutzt werden.
- Overfitting: Problem, wenn ein Modell zu gut auf Trainingsdaten passt, aber schlecht generalisiert.
- Regularization: Techniken zur Vermeidung von Overfitting.
Robotik und Automatisierung
- Autonome Systeme: Systeme, die eigenständig Entscheidungen treffen können (z.B. selbstfahrende Autos).
- Robotic Process Automation (RPA): Automatisierung repetitiver Prozesse in der Industrie.
- Swarm Intelligence: Kollektives Verhalten von mehreren autonomen Einheiten (z.B. Drohnenschwärme).
Fortgeschrittene Begriffe und Typen der KI
- AGI (Artificial General Intelligence):
- Definition: Allgemeine Künstliche Intelligenz, die auf dem Niveau eines Menschen operiert und eine breite Palette von Aufgaben lösen kann.
- Einordnung: Hypothetisches Ziel der KI-Forschung, noch nicht erreicht.
- ASI (Artificial Superintelligence):
- Definition: Übermenschliche Intelligenz, die in allen Bereichen menschliche Fähigkeiten übertrifft.
- Einordnung: Science-Fiction-Konzept, das potenzielle Risiken birgt.
- Narrow AI (Schmale KI):
- Definition: Spezialisierte KI, die auf einen spezifischen Anwendungsbereich beschränkt ist (z. B. Gesichtserkennung, Sprachübersetzung).
- Einordnung: Die derzeit am häufigsten eingesetzte KI.
- Strong AI (Starke KI):
- Definition: KI, die in der Lage ist, Bewusstsein und Selbsterkenntnis zu entwickeln.
- Einordnung: Noch rein theoretisch.
- AGI (Artificial General Intelligence):
Generative KI
- Generative AI:
- Definition: KI, die neue Inhalte wie Texte, Bilder, Musik oder Videos generieren kann (z. B. GPT, DALL-E).
- Einordnung: Typische Anwendungen in NLP (Natural Language Processing) und Computer Vision.
- GAN (Generative Adversarial Networks):
- Definition: Zwei neuronale Netze, die zusammenarbeiten, um realistische Daten (z. B. Bilder) zu generieren.
- Einordnung: Wichtige Technologie hinter generativer KI.
- VAE (Variational Autoencoders):
- Definition: Neuronale Netzwerke, die generative Modelle für Daten wie Bilder erstellen.
- Einordnung: Alternative zu GANs, weniger populär für große Anwendungen.
- Generative AI:
Transformer-Modelle
Definition:
Transformer-Modelle sind eine Architektur im Bereich des Deep Learning, die für die Verarbeitung von sequentiellen Daten entwickelt wurde, z. B. Text oder Sprache. Sie sind die Grundlage für viele moderne generative KI-Modelle.
Kernkonzepte:
- Self-Attention: Transformer-Modelle analysieren jedes Element in einer Sequenz in Bezug auf andere Elemente derselben Sequenz. Dies ermöglicht Kontextverständnis über große Entfernungen.
- Encoder-Decoder-Struktur (ursprünglich):
- Der Encoder verarbeitet Eingabedaten (z. B. einen Satz in Englisch).
- Der Decoder erzeugt die Ausgabe (z. B. denselben Satz in Deutsch).
- Decoder-only Modelle (wie GPT): Diese Modelle sind darauf ausgelegt, rein generativ zu arbeiten, indem sie Vorhersagen für die nächste Sequenz treffen.
Anwendungsbeispiele:
- GPT (Generative Pre-trained Transformer): Erzeugt menschenähnliche Texte.
- BERT (Bidirectional Encoder Representations from Transformers): Eher für Analyse und nicht für Generierung optimiert.
- DALL-E: Generiert Bilder aus Textbeschreibungen.
Vorteile:
- Skalierbarkeit: Funktioniert sehr gut mit großen Datenmengen.
- Vielseitigkeit: Funktioniert für Text, Bilder (in Kombination mit anderen Techniken), Audio und mehr.
- Self-Attention: Transformer-Modelle analysieren jedes Element in einer Sequenz in Bezug auf andere Elemente derselben Sequenz. Dies ermöglicht Kontextverständnis über große Entfernungen.
Diffusionsmodelle
Definition:
Diffusionsmodelle sind eine Klasse generativer Modelle, die Daten erzeugen, indem sie einen schrittweisen Prozess der Umkehrung von "Rauschen" (Noise) anwenden.
Funktionsweise:
- Vorwärtsprozess:
- Ein ursprünglicher Datensatz (z. B. ein Bild) wird schrittweise durch Hinzufügen von Rauschen in ein zufälliges Muster überführt.
- Ein ursprünglicher Datensatz (z. B. ein Bild) wird schrittweise durch Hinzufügen von Rauschen in ein zufälliges Muster überführt.
- Rückwärtsprozess:
- Das Modell lernt, den Rauschprozess umzukehren, um das ursprüngliche Bild wiederherzustellen oder ein neues zu generieren.
Anwendungsbeispiele:
- DALL-E 2 und Stable Diffusion: Erstellen von Bildern aus Textbeschreibungen.
- Audio Diffusion Models: Erzeugen realistischer Audiosequenzen (Musik, Sprache).
Vorteile:
- Hohe Qualität bei der Generierung komplexer Daten.
- Flexibilität: Kann auf verschiedene Datentypen angewendet werden, z. B. Bilder, Audio, Videos.
- Vorwärtsprozess:
