Artificial Intelligence (AI)
Forschungsfeld, das darauf abzielt, Maschinen Aufgaben ausführen zu lassen, die normalerweise menschliche Intelligenz erfordern.
196 Begriffe · 15 Kategorien
Alle KI-Begriffe auf Englisch (der Standardgebrauch) mit einfachen Definitionen.
Forschungsfeld, das darauf abzielt, Maschinen Aufgaben ausführen zu lassen, die normalerweise menschliche Intelligenz erfordern.
Teilgebiet der KI, bei dem ein System aus Daten lernt, anstatt explizit programmiert zu werden.
ML auf Basis neuronaler Netze mit vielen Schichten.
KI, die auf eine einzelne Aufgabe spezialisiert ist (z. B. Schachspielen).
Hypothetische KI, die jede intellektuelle Aufgabe eines Menschen erfüllen kann.
Verwendet in: ch.16
KI, die menschliche Intelligenz in allen Bereichen weit übertreffen würde.
Klassischer Ansatz auf Basis expliziter Regeln und formaler Logik.
Mathematische Repräsentation, die aus Daten gelernt wurde.
Phase, in der ein trainiertes Modell Vorhersagen trifft.
Phase, in der das Modell aus Daten lernt.
Lernen aus beschrifteten Daten (Eingabe → bekannte Ausgabe).
Lernen ohne Labels; das Modell entdeckt verborgene Strukturen in den Daten.
Das Modell erzeugt seine eigenen Labels aus den Daten.
Verwendet in: ch.06
Lernen durch Versuch und Irrtum mit Belohnungssignalen.
Verwendet in: ch.08
Wiederverwendung eines für eine Aufgabe trainierten Modells für eine ähnliche Aufgabe.
Lernen aus sehr wenigen Beispielen.
Bewältigung einer Aufgabe ohne Trainingsbeispiele dafür.
“Lernen zu lernen” — ein Modell trainieren, das sich schnell an neue Aufgaben anpasst.
Verteiltes Training ohne Zentralisierung der Daten.
Das Modell lernt neue Aufgaben, ohne frühere zu vergessen.
Grundlegende Recheneinheit eines Netzes, angelehnt an biologische Neuronen.
Eine Gruppe von Neuronen, die parallel verarbeitet werden.
Parameter, die die Verbindungen zwischen Neuronen gewichten.
Ein konstanter Term, der zur gewichteten Summe addiert wird.
Nichtlineare Funktion, die auf die Ausgabe eines Neurons angewendet wird.
Sehr gebräuchliche Aktivierungsfunktion: max(0, x).
Wandelt einen Vektor in eine Wahrscheinlichkeitsverteilung um.
Berechnung der Ausgabe aus einer gegebenen Eingabe.
Berechnung der Gradienten zur Aktualisierung der Gewichte.
Verwendet in: ch.06
Algorithmus, der Gewichte anpasst, um den Fehler zu minimieren.
Verwendet in: ch.01, ch.03, ch.04, ch.05, ch.06, ch.08, ch.14, ch.21
Misst den Fehler zwischen Vorhersage und tatsächlichem Wert.
Standardverlustfunktion für Klassifikationsaufgaben.
Algorithmus, der die Gewichtsaktualisierung steuert (Adam, SGD usw.).
Schrittgröße beim Gradientenabstieg.
Verwendet in: ch.06
Ein vollständiger Durchlauf über den Trainingsdatensatz.
Eine Teilmenge von Daten, die gemeinsam verarbeitet wird.
Netz, bei dem Informationen nur in eine Richtung fließen.
Klassisches Feedforward-Netz mit vollständig verbundenen Schichten.
Auf Bilder spezialisiertes Netz mit Faltungsfiltern.
Verarbeitet Sequenzen und speichert dabei einen internen Zustand.
Verwendet in: ch.04
Verbessertes RNN, das Informationen über lange Sequenzen hinweg speichern kann.
Verwendet in: ch.04
Aufmerksamkeitsbasierte Architektur, die seit 2017 die KI dominiert.
Verwendet in: ch.01, ch.02, ch.04, ch.05, ch.07, ch.08, ch.10, ch.15, ch.17, ch.18, ch.20, ch.21
Jede Position einer Sequenz richtet ihre Aufmerksamkeit auf alle anderen Positionen.
Verwendet in: ch.01, ch.03, ch.04, ch.05, ch.07, ch.08, ch.09, ch.15, ch.17, ch.18, ch.21
Mehrere Aufmerksamkeitsmechanismen, die parallel laufen.
Klassische Architektur für Übersetzungs- und Generierungsaufgaben.
Verwendet in: ch.15
Injiziert Wortpositionsinformation in einen Transformer.
Verwendet in: ch.05
Modernes rotationsbasiertes Positionsencoding, häufig in LLMs verwendet.
Verwendet in: ch.05
Verbindung, die Schichten überspringt, um das Training zu stabilisieren.
Normalisierung zur Stabilisierung des Trainings.
Mehrere spezialisierte Teilmodelle, die selektiv aktiviert werden.
Verwendet in: ch.05
Generatives Modell, das lernt, ein Bild schrittweise zu entrauschen.
Zwei konkurrierende Netze: Generator und Diskriminator.
Transformer-Architektur, angewendet auf Bilder.
Alternative Architektur zum Transformer für lange Sequenzen.
Forschungsfeld der maschinellen Verarbeitung und des Verstehens natürlicher Sprache.
Verwendet in: ch.15
Aufteilung eines Textes in Einheiten (Tokens).
Grundlegende Einheit, die ein Modell verarbeitet (Wort, Teilwort oder Zeichen).
Verwendet in: ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.14, ch.15, ch.17, ch.18, ch.19, ch.20, ch.21
Weit verbreiteter Tokenisierungsalgorithmus.
Verwendet in: ch.02
Weitere gängige Tokenisierungsalgorithmen.
Verwendet in: ch.02
Die Menge aller dem Modell bekannten Tokens.
Dichte Vektorrepräsentation eines Wortes oder Tokens.
Verwendet in: ch.01, ch.03, ch.04, ch.05, ch.10, ch.11, ch.15, ch.21
Ältere Methode zur Erzeugung von Wortembeddings.
Embedding, das vom Kontext des umgebenden Satzes abhängt.
Erkennung benannter Entitäten im Text (Personen, Orte usw.).
Erkennung der emotionalen Stimmung eines Textes.
Umwandlung gesprochener Sprache in Text.
Umwandlung von Text in gesprochene Sprache.
Verwendet in: ch.15
Modell, das die Wahrscheinlichkeit einer Wortfolge vorhersagt.
Sehr großes Sprachmodell, trainiert auf Milliarden von Wörtern.
Verwendet in: ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.15, ch.16, ch.17, ch.18, ch.20
Allgemeines Modell, das für viele verschiedene Aufgaben wiederverwendet werden kann.
KI, die Inhalte erzeugen kann (Text, Bilder, Audio usw.).
Ersttraining auf großen Mengen unstrukturierter Daten.
Anpassung eines vortrainierten Modells an eine spezifische Aufgabe.
Verwendet in: ch.01, ch.08, ch.09, ch.11, ch.13, ch.14, ch.17, ch.19, ch.20
Fine-tuning, damit das Modell menschliche Anweisungen befolgt.
Verbesserung eines Modells mithilfe von menschlichem Feedback.
Vereinfachte Alternative zu RLHF.
Alignment-Methode auf Basis eines Satzes von Leitprinzipien.
Verwendet in: ch.08
Eingabetext, der dem Modell übergeben wird.
Verwendet in: ch.01, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.17, ch.18, ch.21
Allgemeine Anweisungen, die dem Modell vor dem Gespräch gegeben werden.
Die Kunst, effektive Prompts zu formulieren.
Verwendet in: ch.12
Das Modell dazu bringen, Schritt für Schritt zu denken.
Dem Modell einige Beispiele direkt im Prompt mitgeben.
Fähigkeit des Modells, aus Beispielen im Prompt zu lernen.
Textmenge, die das Modell auf einmal verarbeiten kann.
Steuert die Zufälligkeit der Ausgaben (niedrig = deterministisch, hoch = kreativ).
Stichprobenziehung aus den k wahrscheinlichsten Tokens.
Stichprobenziehung aus der kleinsten Tokenmenge, deren kumulierte Wahrscheinlichkeit p erreicht.
Immer den wahrscheinlichsten nächsten Token auswählen.
Verwendet in: ch.07
Parallele Erkundung mehrerer Kandidatensequenzen.
Verwendet in: ch.07
Das Modell erfindet falsche, aber plausibel klingende Informationen.
Das Modell ruft externe Dokumente ab, bevor es antwortet.
Verwendet in: ch.01, ch.03, ch.08, ch.10, ch.11, ch.13, ch.14
Datenbank, die Embeddings speichert und nach Ähnlichkeit durchsucht.
Suche nach Bedeutung statt nach exakter Übereinstimmung von Schlüsselwörtern.
LLM, das für ausgedehntes Denken vor der Antwort optimiert ist.
Modell, das mehrere Eingabetypen verarbeitet (Text, Bild, Audio usw.).
Modell, das Text und Bilder gemeinsam versteht.
Generierung eines Bildes aus einer Textbeschreibung.
Leichtgewichtige Fine-tuning-Methode auf Basis von Niederrang-Matrixzerlegung.
Verwendet in: ch.14
LoRA kombiniert mit Quantisierung zur Reduzierung des Speicherbedarfs.
Familie von parametereffizienten Fine-tuning-Methoden.
Verwendet in: ch.14
KI-System, das ein Ziel durch mehrere Schritte und Werkzeuge verfolgt.
Fähigkeit des Modells, externe Funktionen aufzurufen.
Verwendet in: ch.11
Muster, das Schlussfolgern und Handeln abwechselnd kombiniert.
Verwendet in: ch.11
Fähigkeit eines Agenten, ein Ziel in Teilaufgaben zu zerlegen.
Mehrere Agenten, die zusammenarbeiten oder sich koordinieren.
Standardprotokoll zum Verbinden von Werkzeugen mit einem LLM.
Verwendet in: ch.11
Fähigkeit eines Agenten, einen Computer zu bedienen.
Verwendet in: ch.11
KI, die eigenständig in einer Umgebung handelt.
Sammlung von Daten zum Training oder zur Evaluation eines Modells.
Datenteilmengen für Training, Abstimmung und Evaluation.
Die korrekte Antwort, die einem Trainingsbeispiel zugeordnet ist.
Das Versehen von Daten mit Beschriftungen.
Künstliche Erzeugung zusätzlicher Trainingsdaten.
Künstlich erzeugte Daten, zum Beispiel durch eine KI.
Eine Eingabevariable, die das Modell verwendet.
Verwendet in: ch.20
Manuelle Erstellung relevanter Eingabevariablen.
Kodierung einer Kategorie als binären Vektor.
Allmähliche Verschiebung der Datenverteilung gegenüber dem Training.
Wenn Testinformationen ins Training einfließen und Ergebnisse verfälschen.
Parameter, der vor dem Training festgelegt wird (Lernrate, Batchgröße usw.).
Modellbewertung durch mehrfache Aufteilung der Daten.
Das Modell memoriert die Trainingsdaten und generalisiert schlecht.
Verwendet in: ch.06
Das Modell ist zu einfach, um das Signal in den Daten zu erfassen.
Techniken, die Overfitting entgegenwirken.
Verwendet in: ch.06
Zufälliges Deaktivieren von Neuronen während des Trainings.
Training beenden, wenn der Validierungsfehler wieder steigt.
Gradienten werden zu klein, um frühe Schichten effektiv zu trainieren.
Das Modell vergisst alte Aufgaben beim Lernen neuer.
Wissen von einem großen Modell auf ein kleineres übertragen.
Verwendet in: ch.21
Entfernen redundanter Gewichte, um das Modell zu verkleinern.
Reduzierung der numerischen Präzision der Gewichte.
Zusammenhänge zwischen Modellgröße, Daten, Rechenaufwand und Leistung.
Anteil der korrekten Vorhersagen.
Von allen positiven Vorhersagen, wie viele tatsächlich korrekt sind.
Von allen tatsächlich positiven Fällen, wie viele korrekt erkannt wurden.
Harmonisches Mittel aus Precision und Recall.
Tabelle, die Vorhersagen dem tatsächlichen Wert gegenüberstellt.
Kurve und Fläche darunter zur Bewertung eines Klassifikators.
Maß für die Unsicherheit eines Sprachmodells (niedriger ist besser).
Metriken zur Bewertung von maschineller Übersetzung und Textzusammenfassung.
Maß für die Qualität generierter Bilder.
Standardisierter Test zum Vergleich von Modellen (MMLU, HumanEval usw.).
Verwendet in: ch.16
Adversarielle Tests, um Schwachstellen eines Modells zu finden.
Entität, die in einer Umgebung Entscheidungen trifft.
Die Welt, in der ein Agent agiert.
Die Strategie des Agenten (Zustand → Aktion).
Numerisches Signal, das die Güte einer Aktion anzeigt.
RL-Algorithmus auf Basis der Schätzung von Aktionswertfunktionen (Q).
Weit verbreiteter RL-Algorithmus, insbesondere im RLHF-Kontext.
Abwägung zwischen dem Ausprobieren neuer Aktionen und dem Nutzen bekannt guter.
Der Agent findet ungewollte Wege, das Belohnungssignal zu maximieren.
Verwendet in: ch.11
KI-Forschungsfeld zur Verarbeitung von Bildern und Videos.
Zuweisung einer Kategorie zu einem Bild.
Lokalisierung und Klassifikation von Objekten in einem Bild.
Klassifikation jedes einzelnen Pixels in einem Bild.
Erkennung von Text in Bildern.
Klassische Architekturen zur Objekterkennung.
Universelles Segmentierungsmodell.
Gelernte 3D-Repräsentation einer Szene aus 2D-Bildern.
Sicherstellen, dass KI-Systeme Ziele verfolgen, die mit menschlichen Werten übereinstimmen.
Forschungsfeld zur Entwicklung zuverlässiger, kontrollierbarer und ungefährlicher KI.
Eingabe, die so gestaltet ist, dass sie ein Modell täuscht.
Umgehung der Sicherheitsmechanismen eines LLM.
Verwendet in: ch.08
Böswilliges Einschleusen von Anweisungen in einen Prompt.
Verwendet in: ch.12
Systematische Verzerrungen in Daten oder Modellvorhersagen.
Gerechtigkeit bei algorithmischen Entscheidungen.
Fähigkeit, die Entscheidungen eines Modells nachvollziehbar zu machen.
Untersuchung der internen Funktionsweise neuronaler Netze.
Formale Methode zum Schutz der Privatsphäre einzelner Personen in Daten.
Von einer KI erzeugter synthetischer Medieninhalt, der echt wirken soll.
Diskrepanz zwischen den tatsächlichen und den beabsichtigten Zielen eines Modells.
Modell, das vorhersagt, wie Menschen eine Antwort bewerten würden.
Rahmenbedingungen und Regulierung zur Aufsicht über KI-Entwicklung.
Grafikprozessor, der für KI-Workloads weit verbreitet ist.
Von Google entwickelter spezialisierter KI-Beschleunigungschip.
Nvidias Parallelrechenplattform für GPU-Programmierung.
Gleitkommaoperationen pro Sekunde — ein Maß für Rechenleistung.
Training, das auf mehrere Maschinen verteilt wird.
Gleiche Gewichte, unterschiedliche Daten auf jeder GPU.
Das Modell wird auf mehrere GPUs aufgeteilt.
Die wichtigsten Deep-Learning-Frameworks.
Plattform für Modelle, Datensätze und ML-Werkzeuge.
Standardformat zum Austausch von Modellen zwischen Frameworks.
KI, die auf eingebetteter oder lokaler Hardware ausgeführt wird.
Die Antwortzeit eines Modells.
Verwendet in: ch.18
Anzahl der Inferenzen, die pro Sekunde verarbeitet werden.
DevOps-Praktiken, angewendet auf maschinelles Lernen.
Fähigkeiten, die ab einer bestimmten Modellgröße plötzlich auftreten.
Verwendet in: ch.19
Vergrößerung von Modell, Datenmenge oder Rechenleistung zur Leistungssteigerung.
Modell, dessen Gewichte öffentlich verfügbar sind.
Modell an der Spitze der aktuellen Leistungsfähigkeit.
Kompaktes Sprachmodell, auf Effizienz optimiert.
Einbindung von Menschen in den Lern- oder Entscheidungsprozess.
Internes Modell eines Agenten, das die Entwicklung der Umgebung vorhersagt.
KI, die in einem physischen Körper wie einem Roboter verkörpert ist.
Dokument, das Fähigkeiten, Grenzen und Verzerrungen eines Modells beschreibt.