Die Einführung generativer KI in kleinen und mittleren Unternehmen gelingt dann am effizientesten, wenn zentrale Fachbegriffe eindeutig verstanden werden. Unser KI-Glossar bündelt die wichtigsten Konzepte rund um Large Language Model Optimization (LLMO) und ordnet sie für die Praxis ein – kompakt, neutral und ohne überflüssigen Jargon.
Grundlagen & Einordnung 🧭
Artificial Intelligence (AI) / Künstliche Intelligenz
Teilgebiet der Informatik mit dem Ziel, maschinelle Systeme zu entwickeln, die kognitive Aufgaben wie Verstehen, Entscheiden oder Generieren ausführen.
Artificial General Intelligence (AGI)
Hypothetische Form der KI, die beliebige intellektuelle Aufgaben auf menschlichem Niveau bewältigt. Für Unternehmensprojekte derzeit nicht operativ relevant, aber strategisch oft diskutiert.
Machine Learning (ML)
Ansatz, bei dem Systeme aus Daten Muster ableiten, statt Regeln manuell zu programmieren. Basis für moderne Sprach- und Bildmodelle.
Deep Learning (DL)
ML-Teilbereich mit tiefen neuronalen Netzen. Liefert bei großen Datenmengen und komplexen Aufgaben bestmögliche Ergebnisse.
Modell / Modellgröße (Parameteranzahl)
Mathematisches Konstrukt zur Vorhersage oder Textgenerierung. Die Parameter steuern das Verhalten; mehr Parameter bedeuten höhere Kapazität, aber auch mehr Kosten und Latenz.
Large Language Model (LLM) / Large Multimodal Model (LMM)
LLMs verarbeiten und erzeugen Text; LMMs integrieren zusätzlich Bilder, Audio oder Video. Für Unternehmensanwendungen entscheidend, wenn Text-Workflows mit weiteren Medien verschmelzen.
Architektur & Repräsentation 🧱
Encoder / Decoder / Encoder-Decoder
Bausteine neuronaler Architekturen. Encoder wandeln Eingaben in interne Repräsentationen, Decoder erzeugen daraus Ausgaben. Viele moderne LLMs nutzen Decoder-Only-Architekturen.
Attention-Mechanismen
Verfahren, das relevante Teile der Eingabe stärker gewichtet. Grundlage dafür, lange Kontexte konsistent auszuwerten.
Embeddings & semantischer Raum
Vektorielle Repräsentationen von Wörtern, Sätzen oder Dokumenten. Abstand im Vektorraum entspricht semantischer Nähe – wichtig für Suche, Clustering und Empfehlung.
Knowledge Graph
Strukturierte Wissensdarstellung als Knoten und Kanten. Erleichtert präzise Abfragen, Datenanreicherung und erklärbares Verhalten.
Training, Lernen & Optimierung 🎓
Trainingsdaten / Test- & Validierungsdaten
Datengrundlage für das Lernen (Training) und die unabhängige Leistungsprüfung (Validation/Test). Datenqualität bestimmt später die Modellleistung maßgeblich.
Backpropagation & Gradient Descent
Standardverfahren, mit dem Netze aus Fehlern lernen, indem Parameter iterativ angepasst werden.
Loss Function
Fehlermaß, das während des Trainings minimiert wird. Wahl und Ausprägung steuern Lerneigenschaften und Zielverhalten.
Overfitting / Underfitting
Zuviel Auswendiglernen vs. zu wenig Lernen. Beide Zustände verschlechtern Generalisierung – Gegenmaßnahmen sind Datenaugmentation, Regularisierung und saubere Evaluation.
Finetuning & Model Distillation
Finetuning spezialisiert ein Basismodell auf Domänenaufgaben; Distillation überführt Wissen in leichtere, schnellere Modelle mit ähnlicher Leistung.
Open-Source- / Open-Weight-Modelle
Modelle, deren Code bzw. Gewichte frei nutzbar sind. Relevante Option für Datenschutz, Kostentransparenz und Anpassbarkeit.
Inferenz, Steuerung & Generierung ⚙️
Inference & Inference Latency / Throughput
Produktiverzeugung von Antworten. Latenz beschreibt die Antwortzeit, Throughput den Datendurchsatz – beides zentrale KPIs im Betrieb.
Token & Tokenisierung
Kleinste Verarbeitungseinheit eines Modells (Wörter, Wortteile, Zeichen). Tokenisierung bestimmt Kontexteffizienz.
Kontextfenster
Maximale Token-Anzahl, die ein Modell gleichzeitig verarbeiten kann. Limitiert Prompt-Länge, Dokumenteinbindung und Gesprächshistorie.
Temperatur, Top-p, Presence- & Frequency-Penalty
Stellhebel für Stil und Vielfalt von Antworten. Temperatur und Top-p steuern Zufälligkeit; Presence/Frequency-Penalty dämpfen Wiederholungen bzw. fördern Neuheiten.
Stop Sequences & System-Prompts
Mechanismen zur Ausgabesteuerung (Stop) und zum Festlegen anhaltender Verhaltensregeln (System).
Prompting & Denkstrategien 🧠
Prompt & Prompt Engineering
Ausgestaltung der Eingabe, um verlässliche, wiederholbare Ergebnisse zu erzielen – inklusive Formatvorgaben, Rollen, Beispielen und Qualitätskriterien.
Chain-of-Thought (CoT)
Technik, die schrittweises Begründen anregt. Nützt bei komplexen Aufgaben, erfordert aber sorgfältiges Sicherheits- und Datenschutzdesign.
Prompt Patterns
Bewährte Muster wie „Rolle + Ziel + Daten + Format + Qualitätskriterien“. Standardisierung erhöht die Reproduzierbarkeit.
Suche, RAG & Wissensintegration 🔎
Retrieval-Augmented Generation (RAG)
Kombiniert generative Modelle mit externer Suche. Relevante Dokumente werden eingeblendet, bevor die Antwort entsteht – für Aktualität, Nachvollziehbarkeit und Quellenbezug.
Vektordatenbank
Speichert Embeddings und erlaubt Ähnlichkeitssuche. Herzstück performanter RAG-Pipelines.
Haystack / LangChain
Frameworks für Frage-Antwort-Systeme und LLM-Orchestrierung. Beschleunigen prototypische Entwicklung und Betrieb.
Bewertung & Qualitätsmetriken 📏
Accuracy, Precision, Recall, F1-Score
Standardmetriken für Klassifikationsaufgaben. F1 als harmonisches Mittel von Precision und Recall ist nützlich, wenn Ausgewogenheit zwischen Genauigkeit und Vollständigkeit zählt.
Perplexity
Messgröße für die Unsicherheit bei der Wortvorhersage. Für reine Textqualität nur bedingt aussagekräftig – domänenspezifische Evaluationssets sind oft wichtiger.
Evaluation Metrics & Explainability / XAI
Systematische Bewertung über Metriken und erklärende Verfahren (z. B. Feature-Relevanzen). Dient Risikoabbau, Compliance und Akzeptanz.
Sicherheit, Missbrauch & Governance 🛡️
Safety Guardrails
Technische Leitplanken gegen schädliche Ausgaben (z. B. Filter, Policies, Output-Validierung).
Toxicity Detection
Erkennung und Reduktion beleidigender oder gefährlicher Inhalte – relevant für öffentliche Touchpoints.
Bias & Fairness
Systematische Verzerrungen und deren Ausgleich. Maßnahmen reichen von Datenausgleich bis zu fairnesssensitiven Metriken.
Adversarial Prompting, Jailbreaking & Prompt Injection
Angriffe, die Regeln aushebeln oder externe Tools manipulieren. Erfordert Härtung, Red-Teaming und strenge Input/Output-Kontrollen.
Red Teaming
Proaktives Testen mit „gegnerischer“ Perspektive, um Schwachstellen frühzeitig aufzudecken und zu schließen.
Human-in-the-Loop (HITL)
Gezielte menschliche Qualitätskontrolle – insbesondere bei wichtigen Entscheidungen oder hochregulierten Prozessen.
EU AI Act
Europäischer Rechtsrahmen mit risikobasiertem Ansatz. Notwendig für konforme Planung, Beschaffung und Betrieb von KI-Systemen.
Produktion & Skalierung 🏭
Model Deployment
Überführung von Modellen in produktive Umgebungen inkl. Versionierung, Monitoring und Rollback.
Load Balancing
Verteilung von Anfragen auf mehrere Instanzen zur Stabilisierung von Latenz und Verfügbarkeit.
Search Generative Engine (SGE) / AI Overviews / AI Mode
Begriffe im Kontext KI-gestützter Suche und Suchoberflächen. Diese verändern Informationsflüsse, Sichtbarkeit und Content-Strategien.
Zero-Click-Search
Antworten direkt in der Ergebnisliste – relevant für Reichweitenanalyse und Content-Optimierung.
LLMO – Optimierung für bessere Antworten 🚀
Large Language Model Optimization (LLMO)
Disziplin zur gezielten Verbesserung der Ergebnisqualität generativer Systeme. Umfasst u. a. strukturiertes Prompting, domänenspezifische Datenanreicherung (RAG/Finetuning), robuste Guardrails, skalierbaren Betrieb sowie nachvollziehbare Evaluation.
Generative AI Optimization (GAIO) & Generative Engine Optimization (GEO)
GAIO fokussiert das System (Modell, Daten, Laufzeit), GEO die Sichtbarkeit und Verwertbarkeit von Inhalten in KI-gestützten Antwortsystemen. Gemeinsam bilden beide die Brücke zwischen Technik und Content-Strategie.
Praxisorientierte Hinweise 💡
- Begriffe priorisieren: Für Pilotprojekte reichen zunächst Embeddings, RAG, Metriken (Precision/Recall/F1), Guardrails und Betriebskennzahlen (Latenz/Throughput).
- Datenqualität sichern: Saubere Trainings- und Evaluationsdaten bestimmen den Erfolg mehr als Modellgröße allein.
- Sicherheit mitdenken: Prompt-Sicherheit, Red-Teaming und HITL frühzeitig verankern.
- Messbar machen: Ziele definieren, Baseline messen, kontinuierlich evaluieren – erst dann skalieren.
- Compliance planen: Frühzeitige Berücksichtigung regulatorischer Anforderungen erleichtert Audit-Fähigkeit und Beschaffung.
DIGITALBÜRO LIMBURG – Klarheit in KI-Begriffen schafft bessere Entscheidungen – denn We make IT and KI easy.
Jetzt unverbindliche Erstberatung anfragen und die LLMO-Checkliste für den Einstieg erhalten.