Glossar
154 Begriffe erklärt
A
- Adversarial Attack Ein Adversarial Attack manipuliert KI-Modelle durch winzige, gezielte Störungen in den Eingabedaten – mit dem Ziel, falsche Vorhersagen zu erzwingen.
- Agentic RAG Agentic RAG kombiniert klassisches Retrieval mit autonomen KI-Agenten, die Recherchen iterativ planen, ausführen und validieren.
- Agentic Workflow Ein Agentic Workflow ist ein KI-gesteuerter Prozessablauf, in dem autonome Agenten Aufgaben planen, Tools aufrufen und Entscheidungen treffen – ohne feste Skripte.
- AgentOps AgentOps ist die operative Disziplin für den gesamten Lebenszyklus autonomer AI-Agenten: Monitoring, Governance, Orchestrierung und Compliance in einem.
- AI Agent Framework Ein AI Agent Framework ist ein Software-Framework, das autonome KI-Agenten strukturiert: mit Planung, Tool-Nutzung, Memory und Multi-Agent-Orchestrierung.
- AI Alignment AI Alignment stellt sicher, dass KI-Systeme das tun, was Menschen wirklich wollen – und nicht nur das, womit sie trainiert wurden.
- AI Coding Assistant Ein AI Coding Assistant ist ein KI-Tool, das Entwickler beim Schreiben, Debuggen und Optimieren von Code unterstützt – per natürlicher Sprache.
- AI Compliance AI Compliance bezeichnet die systematische Einhaltung von Regulierungsanforderungen, ethischen Richtlinien und Sicherheitsstandards beim Entwickeln und Betreiben von KI-Systemen.
- AI Copilot Ein AI Copilot ist ein LLM-basierter KI-Assistent, der Nutzer in Echtzeit bei Code, Text und Datenanalyse unterstützt – eingebettet direkt in den Workflow.
- AI Existential Risk AI Existential Risk beschreibt das Szenario, in dem unkontrollierte KI-Systeme die menschliche Existenz dauerhaft und global gefährden.
- AI Governance AI Governance ist der Rahmen aus Regeln, Prozessen und Strukturen, der sicherstellt, dass KI-Systeme kontrolliert, transparent und verantwortungsvoll eingesetzt werden.
- AI Literacy AI Literacy ist die Fähigkeit, KI-Systeme zu verstehen, kritisch zu bewerten und verantwortungsvoll einzusetzen — technisch, ethisch und praktisch.
- AI Maturity Model Ein AI Maturity Model bewertet, wie tief KI in Strategie, Prozesse und Kultur eines Unternehmens verankert ist – von ersten Experimenten bis zur Marktführerschaft.
- AI Orchestration AI Orchestration koordiniert mehrere KI-Agenten, Modelle und APIs zu einem kohärenten, automatisierten System – statt isolierter Einzellösungen.
- AI Readiness AI Readiness beschreibt die Fähigkeit einer Organisation, KI effektiv zu integrieren – technisch, prozessual und kulturell.
- AI Safety AI Safety ist die Ingenieurdisziplin, die KI-Systeme durch Alignment, Red-Teaming und Audits sicher und kontrollierbar macht.
- AI Total Cost of Ownership (TCO) AI Total Cost of Ownership (TCO) erfasst alle Kosten einer KI-Lösung über ihren gesamten Lebenszyklus — von Entwicklung und Integration bis Betrieb, Wartung und Ablösung.
- AI Washing AI Washing: Unternehmen nutzen KI als Vorwand für Entlassungen, obwohl wirtschaftliche Gründe dahinterstecken – eine gezielte Täuschung von Investoren und Mitarbeitern.
- AI-First Strategy AI-First Strategy bedeutet: KI wird bei jedem Prozess, jeder Entscheidung und jedem Workflow als erste Lösung geprüft – nicht als Add-on, sondern als Betriebsprinzip.
- AI-Native App Eine AI-Native App ist eine Anwendung, die KI von Grund auf als zentrales Fundament integriert – nicht als nachträgliches Add-on.
- AI-Skills-Gap Der AI-Skills-Gap ist die strukturelle Lücke zwischen vorhandenen Mitarbeiterkompetenzen und den gefragten KI- und ML-Fähigkeiten, die durch den Fortschritt der Künstlichen Intelligenz entsteht.
- Algorithmus Ein Algorithmus ist eine schrittweise Rechenvorschrift, die Computern erlaubt, Probleme zu lösen – im KI-Kontext durch datenbasiertes Lernen.
- Annotation Annotation ist die strukturierte Aufbereitung von Rohdaten mit Metadaten und Labels, damit Machine-Learning-Modelle daraus lernen können.
- API Eine API (Application Programming Interface) ist eine Programmierschnittstelle, die Software-Systeme miteinander kommunizieren lässt.
- API Wrapper Ein API Wrapper ist eine Software-Schicht, die eine bestehende API vereinfacht und für KI-Agenten oder LLMs nutzbar macht.
- Artificial General Intelligence (AGI) AGI (Artificial General Intelligence) bezeichnet eine KI, die jede intellektuelle Aufgabe eines Menschen bewältigen kann – domänenübergreifend, ohne Neutraining.
- Attention Is All You Need „Attention Is All You Need" ist das 2017er Paper von Vaswani et al., das den Transformer einführte – heute die Architektur hinter nahezu allen modernen KI-Sprachmodellen.
- Attention-Mechanismus Der Attention-Mechanismus gewichtet Teile einer Eingabe dynamisch nach Relevanz — das Herzstück moderner KI-Modelle wie GPT, BERT & Co.
- Autonome KI Autonome KI bezeichnet KI-Systeme, die ohne ständige menschliche Eingriffe selbstständig Entscheidungen treffen und komplexe Aufgaben in dynamischen Umgebungen ausführen.
- Autonomous AI Autonomous AI bezeichnet KI-Systeme, die ohne kontinuierliche menschliche Steuerung eigenständig wahrnehmen, planen und handeln, um Ziele zu erreichen.
B
- Backpropagation Backpropagation ist der Algorithmus, der neuronale Netze trainiert: Er propagiert den Fehler rückwärts durch alle Schichten und passt Gewichte via Gradient Descent an.
- Batch Size Batch Size gibt an, wie viele Trainingsbeispiele ein ML-Modell pro Gradientenschritt verarbeitet – und bestimmt damit Geschwindigkeit, Speicherbedarf und Generalisierung.
- Benchmark Ein Benchmark ist ein standardisierter Test, der KI-Modelle anhand definierter Metriken messbar und vergleichbar macht.
- BERT BERT (Bidirectional Encoder Representations from Transformers) ist ein vortrainiertes Transformer-Modell von Google, das Text bidirektional versteht und Sprachverständnis-Aufgaben löst.
- Build vs. Buy (KI) Build vs. Buy (KI) beschreibt die Entscheidung, ob du eine KI-Lösung intern entwickelst oder eine fertige Plattform kaufst – eine Abwägung zwischen Kontrolle und Speed-to-Market.
C
- CAIO Der CAIO (Chief Artificial Intelligence Officer) ist die C-Level-Führungsrolle, die KI-Strategie, Governance und Transformation im Unternehmen verantwortet.
- Catastrophic Forgetting Catastrophic Forgetting beschreibt, wie neuronale Netze beim Lernen neuer Aufgaben zuvor erworbenes Wissen abrupt und massiv verlieren.
- Chain-of-Thought (CoT) Chain-of-Thought (CoT) ist ein Prompting-Verfahren für LLMs, das Modelle zwingt, Denkschritte explizit auszuformulieren – für präziseres Multi-Step-Reasoning.
- Chatbot Ein Chatbot ist ein KI-gestütztes Softwaresystem, das menschliche Konversationen simuliert und dabei NLP, LLMs und Machine Learning nutzt.
- Citizen Developer Ein Citizen Developer ist ein Fachexperte ohne klassische Programmierkenntnisse, der per Low-Code/No-Code-Plattformen Apps, Analysen oder KI-Modelle baut.
- Cloud AI Cloud AI bezeichnet KI- und ML-Dienste, die über Cloud-Infrastrukturen skalierbar trainiert und betrieben werden – ohne eigene Hardware.
- Clustering Clustering ist eine Methode des unsupervised Machine Learning, die ungelabelte Datenpunkte anhand von Ähnlichkeiten in natürliche Gruppen einteilt.
- Computer Vision Computer Vision ist ein KI-Teilgebiet, das Maschinen befähigt, visuelle Daten aus Bildern und Videos zu interpretieren und zu verstehen.
- Containerisierung Containerisierung verpackt Anwendungen samt Abhängigkeiten in portable, isolierte Einheiten – für konsistente Ausführung auf jedem System.
- Context Window Das Context Window ist die maximale Tokenmenge, die ein LLM pro Anfrage verarbeiten kann – Eingabe und Ausgabe zusammen.
- ControlNet ControlNet ist eine Erweiterung für Diffusionsmodelle, die durch zusätzliche Konditionierungen wie Kanten- oder Tiefenkarten präzise Kontrolle über die Bildgenerierung ermöglicht.
D
- Data Augmentation Data Augmentation erweitert Trainingsdaten durch systematische Transformationen – damit KI-Modelle robuster werden, ohne dass neue Rohdaten gesammelt werden müssen.
- Data Labeling Data Labeling ist das manuelle oder automatisierte Annotieren von Rohdaten mit Labels, damit Supervised-ML-Modelle daraus lernen können.
- Datenschutz und KI (DSGVO) Datenschutz und KI (DSGVO) bezeichnet die rechtskonforme Verarbeitung personenbezogener Daten in KI-Systemen gemäß DSGVO-Prinzipien wie Privacy by Design und Datensparsamkeit.
- Deep Learning Deep Learning ist eine Unterdisziplin des Machine Learning, die mit mehrschichtigen neuronalen Netzen komplexe Muster in Daten automatisch erkennt.
- Deepfake Ein Deepfake ist ein KI-generierter Medieninhalt, der Gesichter, Stimmen oder Bewegungen täuschend echt manipuliert – kaum von Realität zu unterscheiden.
- Diffusion Model Ein Diffusion Model ist ein generatives KI-Modell, das Daten durch schrittweises Entrauschen aus reinem Zufallsrauschen erzeugt.
- Digital Twin Ein Digital Twin ist ein virtuelles Echtzeit-Abbild eines physischen Systems, das KI-gestützte Simulation und Optimierung ermöglicht – bevor Änderungen real umgesetzt werden.
- Distillation Distillation ist eine ML-Technik, bei der ein kleines Studentenmodell das Wissen eines großen Lehrermodells übernimmt – für effiziente Inferenz bei geringeren Kosten.
E
- Edge AI Edge AI führt KI-Inferenz direkt auf Endgeräten am Netzwerkrand aus – ohne Umweg über die Cloud, mit minimaler Latenz und maximaler Datenkontrolle.
- Embedding Ein Embedding ist eine numerische Vektordarstellung von Text, Bildern oder anderen Daten, die semantische Bedeutung und Beziehungen in einem hochdimensionalen Raum kodiert.
- Ensemble Learning Ensemble Learning kombiniert mehrere ML-Modelle zu einem stärkeren Gesamtsystem – schwache Einzelmodelle gleichen gegenseitig ihre Fehler aus.
- Epoch Eine Epoch ist ein vollständiger Durchlauf durch den gesamten Trainingsdatensatz eines ML-Modells, bei dem alle Gewichte einmal aktualisiert werden.
- EU AI Act Der EU AI Act ist das erste verbindliche KI-Gesetz der EU, das AI-Systeme nach Risikoklassen reguliert und seit August 2025 schrittweise in Kraft tritt.
- Explainable AI (XAI) Explainable AI (XAI) macht die Entscheidungen von KI-Modellen für Menschen nachvollziehbar – durch Techniken wie SHAP oder LIME.
F
- Feature Engineering Feature Engineering ist die gezielte Auswahl, Erstellung und Transformation von Eingabevariablen, um Machine-Learning-Modelle präziser und effizienter zu machen.
- Federated Learning Federated Learning trainiert KI-Modelle dezentral auf lokalen Geräten – nur Modell-Updates werden geteilt, nie die Rohdaten selbst.
- Few-Shot Prompting Few-Shot Prompting ist eine Prompt-Engineering-Technik, bei der du einem LLM gezielt Beispiel-Paare gibst, damit es neue Aufgaben präziser löst.
- Fine-Tuning Fine-Tuning passt ein vortrainiertes KI-Modell per zusätzlichem Training auf eine spezifische Aufgabe an – schneller und günstiger als ein Neustart.
- Foundation Model Ein Foundation Model ist ein großskaliges KI-Modell, das auf riesigen Datensätzen vortrainiert wird und als Basis für viele Anwendungen dient.
G
- GAN Ein GAN (Generative Adversarial Network) ist ein KI-Framework aus zwei neuronalen Netzen, die gegeneinander trainieren, um täuschend echte Daten zu erzeugen.
- Generative KI Generative KI bezeichnet KI-Systeme, die auf Basis von Trainingsdaten eigenständig neue Inhalte wie Text, Bilder oder Audio erzeugen.
- GEO GEO (Generative Engine Optimization) optimiert Webinhalte für KI-Engines wie ChatGPT oder Perplexity, um dort zitiert zu werden – statt nur bei Google zu ranken.
- GGUF / GGML GGUF ist das standardisierte Dateiformat für quantisierte KI-Modelle; GGML die zugrunde liegende Tensor-Bibliothek – beide ermöglichen LLM-Inferenz auf Consumer-Hardware.
- GPT (Generative Pre-trained Transformer) GPT (Generative Pre-trained Transformer) ist eine Klasse großer Sprachmodelle, die auf Transformer-Architektur basieren und menschlichen Text generieren.
- GPU Eine GPU (Graphics Processing Unit) ist ein Prozessor mit Tausenden Kernen für parallele Berechnungen – das Arbeitstier hinter KI-Training und Inferenz.
- Grounding Grounding verankert KI-Outputs in realen, verifizierbaren Datenquellen – so werden Halluzinationen reduziert und Antworten nachvollziehbar.
- Guardrails (KI) Guardrails sind technische Schutzmechanismen für KI-Systeme, die deren Verhalten auf definierte Parameter begrenzen und unkontrollierte Autonomie verhindern.
H
- Headless CMS Ein Headless CMS trennt Backend (Inhaltsverwaltung) und Frontend (Darstellung) vollständig und liefert Inhalte ausschließlich per API — für Omnichannel und maximale Flexibilität.
- Hyperparameter Hyperparameter sind Konfigurationswerte, die vor dem Training eines KI-Modells manuell gesetzt werden und steuern, wie das Modell lernt.
I
- Image-to-Video Image-to-Video ist eine KI-Technik, die aus einem statischen Bild per Prompt ein dynamisches Video generiert – mit Bewegungen, Kamerafahrten und Animationen.
- In-Context Learning In-Context Learning ist eine Methode, bei der ein LLM neue Aufgaben allein durch Informationen im Prompt löst – ohne Retraining oder Gewichtsanpassung.
- Inference Cost Inference Cost bezeichnet die Rechen- und Geldkosten, die beim Betrieb trainierter KI-Modelle entstehen – pro Abfrage, Token oder Transaktion.
- Inferenz Inferenz ist der Prozess, bei dem ein trainiertes KI-Modell neue Eingaben verarbeitet und daraus Vorhersagen oder Ausgaben generiert – ohne seine Parameter zu verändern.
- Inpainting Inpainting ist ein KI-Verfahren, das maskierte oder fehlende Bildbereiche mithilfe generativer Modelle kontextbasiert rekonstruiert.
J
K
- KI-Agent Ein KI-Agent ist autonome Software, die Ziele versteht, selbstständig Entscheidungen trifft und Aktionen in Systemen ausführt – ohne menschliche Intervention.
- KI-Bias KI-Bias bezeichnet systematische Verzerrungen in KI-Modellen, die durch unausgewogene Trainingsdaten oder fehlerhafte Prozesse zu diskriminierenden Vorhersagen führen.
- KI-Halluzination KI-Halluzination bezeichnet Inhalte, die ein KI-Modell überzeugend, aber ohne faktische Grundlage erfindet – ein systemisches Risiko generativer Modelle.
- Klassifikation Klassifikation ist ein supervised-Learning-Verfahren, bei dem ein KI-Modell Datenpunkte anhand gelernter Muster diskreten Kategorien zuordnet.
- Knowledge Graph Ein Knowledge Graph ist ein graph-strukturiertes Datenmodell, das Entitäten als Knoten und ihre Beziehungen als typisierte Kanten speichert – und daraus neue Fakten ableiten kann.
- Künstliche Intelligenz (KI) Künstliche Intelligenz (KI) bezeichnet Systeme, die menschenähnliche kognitive Fähigkeiten wie Mustererkennung, Sprachverstehen und autonome Entscheidungsfindung nachbilden.
- KV Cache Der KV Cache speichert Key- und Value-Vektoren aus Transformer-Attention-Berechnungen zwischen – und macht LLM-Inferenz damit drastisch schneller.
L
- Latenz Latenz ist die messbare Zeitspanne zwischen einer Eingabe und der Systemantwort – in KI-Systemen typischerweise in Millisekunden.
- LLM Ein LLM (Large Language Model) ist ein KI-Modell auf Transformer-Basis, das auf Billionen von Tokens trainiert wurde, um Sprache zu verstehen und zu generieren.
- LoRA LoRA (Low-Rank Adaptation) ist eine PEFT-Technik, die LLMs effizient feinabstimmt, indem sie originale Gewichte einfriert und nur kleine Zusatzmatrizen trainiert.
M
- Machine Learning Machine Learning ist ein Teilbereich der KI, der Systemen erlaubt, aus Daten zu lernen und Vorhersagen zu treffen – ohne explizite Programmierung.
- MCP (Model Context Protocol) MCP (Model Context Protocol) ist ein offener Standard von Anthropic, der KI-Modelle wie LLMs mit externen Tools und Datenquellen über eine einheitliche Schnittstelle verbindet.
- MCP Server Ein MCP Server ist eine Softwarekomponente, die KI-Modellen über das Model Context Protocol strukturierten Zugriff auf externe Tools und Datenquellen gewährt.
- Mixture of Experts (MoE) Mixture of Experts (MoE) ist eine KI-Architektur, bei der spezialisierte Teilnetzwerke nur bei Bedarf aktiviert werden – für mehr Leistung bei weniger Rechenaufwand.
- MLOps MLOps (Machine Learning Operations) verbindet ML, Software-Engineering und DevOps, um ML-Modelle reproduzierbar zu trainieren, deployen und in Produktion zu betreiben.
- Multi-Agent-System Ein Multi-Agent-System (MAS) ist ein Netzwerk autonomer KI-Agenten, die kooperieren, um komplexe Aufgaben zu lösen, die ein einzelner Agent nicht bewältigen könnte.
- Multimodalität Multimodalität bezeichnet die Fähigkeit von KI-Modellen, mehrere Datentypen wie Text, Bild, Audio und Video gleichzeitig zu verarbeiten und zu verstehen.
- Music Generation (AI) AI Music Generation bezeichnet den Einsatz generativer KI-Modelle, um aus Text-Prompts oder Audio-Eingaben vollständige Musik-Tracks automatisch zu erzeugen.
N
- Neural Architecture Search (NAS) Neural Architecture Search (NAS) automatisiert das Design neuronaler Netze: Algorithmen durchsuchen selbstständig den Architektur-Suchraum – ohne manuelle Designentscheidungen.
- Neural Style Transfer Neural Style Transfer ist eine Deep-Learning-Technik, die den Stil eines Bildes auf den Inhalt eines anderen überträgt – per CNN-basierter Merkmalsanalyse.
- Neuronales Netz Ein neuronales Netz ist ein KI-Modell aus vernetzten künstlichen Neuronen in Schichten, das Muster in Daten erkennt und Vorhersagen trifft.
- NLP NLP (Natural Language Processing) ist der KI-Zweig, der Maschinen beibringt, menschliche Sprache zu verstehen, zu interpretieren und zu erzeugen.
O
- Open Source AI Open Source AI bezeichnet KI-Modelle, deren Architektur, Gewichte und Code öffentlich zugänglich und frei nutzbar sind – lokal, anpassbar, kommerziell einsetzbar.
- Orchestrierung Orchestrierung koordiniert mehrere spezialisierte KI-Agenten in einem System, verteilt Aufgaben und kombiniert Ergebnisse zu komplexen Workflows.
- Overfitting Overfitting tritt auf, wenn ein ML-Modell Trainingsdaten auswendig lernt statt Muster zu erkennen – und an echten Daten versagt.
P
- Programmatic SEO Programmatic SEO ist die automatisierte Massenproduktion SEO-optimierter Seiten durch Templates, strukturierte Daten und KI – skalierbar auf Tausende URLs.
- Prompt Caching Prompt Caching speichert berechnete KV-Cache-Zustände für wiederkehrende Prompt-Präfixe, um redundante LLM-Berechnungen zu vermeiden und Kosten um bis zu 90 % zu senken.
- Prompt Engineering Prompt Engineering ist die Kunst, Eingabeanweisungen an KI-Modelle so zu gestalten, dass sie präzise, relevante und nützliche Ergebnisse liefern.
- Prompt Injection Prompt Injection ist ein Angriff auf KI-Systeme, bei dem manipulierte Eingaben ein Sprachmodell dazu bringen, seine eigenen Sicherheitsregeln zu umgehen.
Q
R
- Reasoning Reasoning bezeichnet die Fähigkeit von KI-Systemen, mehrstufige Probleme durch strukturiertes Schlussfolgern zu lösen – Schritt für Schritt statt auf einen Streich.
- Red Teaming Red Teaming ist die systematische, adversariale Testung von KI-Systemen, um Sicherheitslücken im Modellverhalten aufzudecken, bevor Angreifer sie ausnutzen.
- Regression Regression ist ein überwachtes ML-Verfahren zur Vorhersage kontinuierlicher numerischer Werte – z. B. Preise oder Temperaturen – auf Basis mathematischer Beziehungen.
- Reinforcement Learning Reinforcement Learning ist ein ML-Paradigma, bei dem ein Agent durch Trial-and-Error mit einer Umgebung interagiert, um kumulative Belohnungen zu maximieren.
- Responsible AI Responsible AI ist der Rahmen zur Entwicklung und Überwachung von KI-Systemen, der Fairness, Transparenz und menschliche Aufsicht über den gesamten Lebenszyklus sicherstellt.
- Retrieval-Augmented Generation (RAG) RAG kombiniert ein Large Language Model mit externem Informationsabruf – für faktenbasierte Antworten ohne teures Retraining.
- RLHF RLHF (Reinforcement Learning from Human Feedback) richtet KI-Modelle durch menschliche Bewertungen und Reward-Modelle an menschlichen Präferenzen aus.
- ROI von KI Der ROI von KI misst den wirtschaftlichen Nutzen aus KI-Investitionen – von Kosteneinsparungen bis Produktivitätsgewinn – gegenüber den Gesamtkosten.
S
- Serverless AI Serverless AI ist eine Cloud-Architektur, bei der KI-Workloads ohne manuelle Infrastrukturverwaltung laufen – abgerechnet wird nur, was genutzt wird.
- SGE SGE (Search Generative Experience) ist Googles KI-gestützte Sucherfahrung, die direkte, generierte Antworten über den klassischen Link-Index stellt.
- Shadow AI Shadow AI bezeichnet die unbefugte Nutzung von KI-Tools in Unternehmen ohne IT-Governance — mit wachsenden Risiken für Datenschutz und Compliance.
- Skalierung Skalierung bezeichnet den Prozess, KI-Modelle und Workloads von Prototypen auf produktive Großsysteme zu erweitern – technisch und organisatorisch.
- Small Language Model (SLM) Ein Small Language Model (SLM) ist ein kompaktes KI-Sprachmodell, das durch Kompressionstechniken effizienter läuft als LLMs – bei vergleichbarer Aufgabengenauigkeit.
- Sovereign AI Sovereign AI bezeichnet die Strategie von Staaten oder Unternehmen, eigene KI-Modelle, Daten und Rechenkapazitäten aufzubauen – unabhängig von ausländischen Anbietern.
- Sparse Attention Sparse Attention reduziert die quadratische Rechenkomplexität von Transformer-Modellen, indem nur relevante Token-Paare berechnet werden statt aller.
- Speculative Decoding Speculative Decoding beschleunigt LLM-Inferenz um Faktor 2x–4x: Ein kleines Draft-Modell spekuliert Token, das große Target-Modell verifiziert sie parallel.
- Speech-to-Text (STT) Speech-to-Text (STT) wandelt gesprochene Sprache per KI automatisch in Text um – die Basis jedes modernen Sprachassistenten.
- Stable Diffusion Stable Diffusion ist ein Open-Source-KI-Modell, das aus Text-Prompts fotorealistische Bilder erzeugt – lokal ausführbar, frei anpassbar.
- Structured Output Structured Output bezeichnet die Fähigkeit von KI-Modellen, Antworten in maschinenlesbaren Formaten wie JSON oder XML auszugeben – zuverlässig parsebar, direkt integrierbar.
- Superintelligence Superintelligence ist eine hypothetische KI, die die kollektive Intelligenz aller Menschen übertrifft und klassisch mit der Technischen Singularität verknüpft wird.
- Supervised Learning Supervised Learning ist ein ML-Ansatz, bei dem ein Modell aus gelabelten Daten lernt, um Vorhersagen für neue Eingaben zu treffen.
- Synthetic Data Synthetic Data sind KI-generierte Datensätze, die reale Datenmuster imitieren – ohne echte personenbezogene Informationen zu enthalten.
- System Prompt Ein System Prompt ist eine versteckte Vorab-Anweisung an ein LLM, die Tonalität, Regeln und Verhalten steuert — bevor der Nutzer auch nur ein Wort tippt.
T
- Temperature Temperature ist ein Hyperparameter in LLMs, der die Zufälligkeit der Ausgaben steuert – von 0 (deterministisch) bis 1 (kreativ-divers).
- Text-to-Image Text-to-Image ist eine KI-Technik, die aus Texteingaben (Prompts) fotorealistische oder künstlerische Bilder generiert – meist auf Basis von Diffusion-Modellen.
- Text-to-Speech (TTS) Text-to-Speech (TTS) ist eine KI-Technologie, die Texteingaben mithilfe neuronaler Netze in natürlich klingende Sprache umwandelt.
- Text-to-Video Text-to-Video ist eine KI-Technologie, die aus textuellen Prompts automatisch Videos generiert – ohne Kamera, Studio oder Schnitt.
- Token Ein Token ist die kleinste Verarbeitungseinheit in KI-Sprachmodellen – ein Wort, Wortteil oder Zeichen, das LLMs als Eingabe und Ausgabe verarbeiten.
- Tokenizer Ein Tokenizer zerlegt Text in kleinste Einheiten (Token), damit Large Language Models ihn verarbeiten können.
- Tool Use (Function Calling) Tool Use (Function Calling) erlaubt LLMs, externe APIs und Funktionen per strukturierter JSON-Ausgabe aufzurufen – statt nur Text zu generieren.
- Transfer Learning Transfer Learning ist eine ML-Technik, bei der ein vortrainiertes Modell auf einen neuen Task übertragen wird – für schnelleres Training mit weniger Daten.
- Transformer Ein Transformer ist eine neuronale Netzwerk-Architektur, die auf dem Self-Attention-Mechanismus basiert und RNNs bei der Verarbeitung sequenzieller Daten ablöst.
U
- Unsupervised Learning Unsupervised Learning ist eine ML-Methode, bei der Modelle selbstständig Muster in ungelabelten Daten finden – ganz ohne vorgegebene Zielantworten.
- Upscaling Upscaling bezeichnet die KI-gestützte Erhöhung der Bildauflösung durch neuronale Netze, die fehlende Pixel intelligent rekonstruieren statt nur zu interpolieren.
V
- Vektor-Datenbank Eine Vektor-Datenbank speichert numerische Vektoreinbettungen und ermöglicht semantische Ähnlichkeitssuche — das Fundament moderner KI-Architekturen wie RAG.
- Vibe Coding Vibe Coding ist ein KI-gestützter Entwicklungsansatz, bei dem autonome Agenten per Spracheingabe vollständige Apps bauen – ganz ohne Programmierkenntnisse.
- Vision Language Model (VLM) Ein Vision Language Model (VLM) ist ein multimodales KI-Modell, das Text und Bilder gemeinsam verarbeitet und versteht.
- Voice Cloning Voice Cloning ist eine KI-Technologie, die aus wenigen Sekunden Audio eine synthetische Stimmkopie mit individuellen Merkmalen wie Timbre und Rhythmus erzeugt.