Skip to content
AI Workshop
AI Workshop

Start here

The AI hierarchy, in order

Read this as one nested system. Start with AI as the umbrella, narrow into Machine Learning, narrow again into Deep Learning, and end at Foundation Models as the reusable engines behind modern generative products.

Layer 1

KI-Überblick

AI is the umbrella field. Everything below sits inside it.

Von Turing-Maschinen zu Transformer-Modellen.
Layer 2

Maschinelles Lernen

Machine Learning is a child of AI. It learns patterns from data instead of relying only on fixed rules.

Computer, die aus Daten lernen und sich durch Erfahrung verbessern.
Layer 3

Deep Learning

Deep Learning is a child of Machine Learning. It uses many neural-network layers to learn complex features.

Die Kraft hochdimensionaler Daten freisetzen.
Layer 4

Foundation Models

Foundation Models are a modern child of Deep Learning. They become reusable engines for many downstream tasks.

Ein Modell, unendliche Anwendungen.

Core mechanism

Neuronale Netze

Neural Networks are the architecture that make Deep Learning possible.

Why it matters

Deep Learning describes the method. Neural Networks explain the architecture underneath it: neurons, layers, weights, activation, and backpropagation.

What foundation models can handle

01
Text / LLMs
02
Vision
03
Audio
04
Science & Structured Data

How machines learn

Supervised Learning
Unsupervised Learning
Semi-Supervised
Reinforcement Learning

Kapitel 1

Der KI-Stack

Starten Sie mit KI als Oberbegriff und gehen Sie dann schrittweise zu den untergeordneten Ebenen über, die moderne Systeme ermöglichen.

Nach diesem Kapitel

Sie sollten die verschachtelte Beziehung zwischen KI, Maschinellem Lernen, Deep Learning, neuronalen Netzen und Foundation Models verstehen.

Kapitel 1 / Lektion 01 Grundlagen Layer 1 Aktualisiert 27. November 2025

KI-Überblick

Von Turing-Maschinen zu Transformer-Modellen.

Wo es im Stack sitzt

KI-Überblick

Link to this section

Schlüsselfrage

What do people actually mean when they say AI?

Warum das wichtig ist

Most confusion starts when teams use AI to mean the whole field, one technique, and one product at the same time. The guide has to fix that first.

Lernpfad

This is the starting point. Treat AI as the umbrella before you zoom into any child layer.

Was es als Nächstes ermöglicht

Once the umbrella is clear, the next question is how a machine improves from data instead of fixed rules. That is Machine Learning.

O

Überblick

Gemeinsame Sprache für 2026

Künstliche Intelligenz ist die breite Disziplin der Schaffung intelligenter Maschinen. Es ist der Überbegriff, der alles umfasst, von einfachen regelbasierten Systemen bis hin zu den komplexen Large Language Models von heute.

M

Konzeptkarte

4 theorieblöcke

Wie ist KI strukturiert? Welche Arten von KI gibt es? Warum ist KI kürzlich explodiert? Eine kurze Geschichte der KI
01

Theorie

Wie ist KI strukturiert?

Um KI zu verstehen, stellen Sie sich konzentrische Kreise vor. Der äußerste Kreis ist Künstliche Intelligenz – die große Vision. Darin befindet sich Maschinelles Lernen – die Technik des Lernens aus Daten. Darin befindet sich Deep Learning – die Verwendung neuronaler Netze. Und an der Spitze finden wir Generative KI – Modelle, die erschaffen.

02

Theorie

Welche Arten von KI gibt es?

Wir klassifizieren KI-Fähigkeiten in drei Stufen:

  • ANI (Artificial Narrow Intelligence): KI, die in einer bestimmten Aufgabe hervorragt (z. B. Schach spielen, Filme empfehlen). Hier befinden wir uns heute.
  • AGI (Artificial General Intelligence): KI, die die Fähigkeit besitzt, Wissen über eine Vielzahl von Aufgaben hinweg zu verstehen, zu lernen und anzuwenden, vergleichbar mit menschlichen Fähigkeiten.
  • ASI (Artificial Super Intelligence): Ein Intellekt, der in praktisch jedem Bereich viel klüger ist als die besten menschlichen Gehirne.
03

Theorie

Warum ist KI kürzlich explodiert?

Es ist die Konvergenz von drei Faktoren:

  1. Big Data: Das Internet lieferte den Treibstoff.
  2. Rechenleistung: GPUs lieferten den Motor.
  3. Bessere Algorithmen: Transformer lieferten die Karte.
04

Theorie

Eine kurze Geschichte der KI

  • 1950: Alan Turing schlägt den Turing-Test vor.
  • 1956: Der Begriff "Künstliche Intelligenz" wird in Dartmouth geprägt.
  • 1997: Deep Blue schlägt Garry Kasparov im Schach.
  • 2012: AlexNet revolutioniert Computer Vision (Deep Learning Boom).
  • 2017: Das Papier "Attention Is All You Need" führt Transformer ein.
  • 2022: ChatGPT wird veröffentlicht und bringt Generative KI in die Massen.
E

Beispiel

Eine kurze Geschichte der KI

  • 1950: Alan Turing schlägt den Turing-Test vor.
  • 1956: Der Begriff "Künstliche Intelligenz" wird in Dartmouth geprägt.
  • 1997: Deep Blue schlägt Garry Kasparov im Schach.
  • 2012: AlexNet revolutioniert Computer Vision (Deep Learning Boom).
  • 2017: Das Papier "Attention Is All You Need" führt Transformer ein.
  • 2022: ChatGPT wird veröffentlicht und bringt Generative KI in die Massen.

Was Sie behalten sollten

AI is the broad field. Everything else in this guide is a more specific layer inside it.

Häufige Frage

Sind wir nah an AGI?

Die Schätzungen variieren stark von wenigen Jahren bis zu einigen Jahrzehnten. Der rasante Fortschritt von LLMs hat diese Zeitpläne beschleunigt, aber es bleiben signifikante Hürden beim logischen Denken und dem Verständnis der physischen Welt.

Kapitel 1 / Lektion 02 Kernkonzept Layer 2 Aktualisiert 27. November 2025

Maschinelles Lernen

Computer, die aus Daten lernen und sich durch Erfahrung verbessern.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen

Link to this section

Schlüsselfrage

How does a machine get better without being reprogrammed for every case?

Warum das wichtig ist

Machine Learning is where AI stops being only hand-written rules and starts learning patterns from examples.

Lernpfad

AI gave you the umbrella term. Machine Learning is the first practical child inside that umbrella.

Was es als Nächstes ermöglicht

After ML, the next step is to understand the approach that became dominant for complex data like text, images, and audio: Deep Learning.

O

Überblick

Gemeinsame Sprache für 2026

Maschinelles Lernen ist ein Teilbereich der künstlichen Intelligenz (KI), bei dem Computer aus Daten lernen und sich durch Erfahrung verbessern, ohne explizit programmiert zu sein. Algorithmen werden trainiert, um Muster und Zusammenhänge in großen Datensätzen zu finden, um fundierte Entscheidungen und Vorhersagen zu treffen.

M

Konzeptkarte

5 theorieblöcke

KI, Maschinelles Lernen und Deep Learning Neuronale Netze und Deep Learning Die 4 Arten des Maschinellen Lernens Anwendungen in der Praxis Herausforderungen
01

Theorie

KI, Maschinelles Lernen und Deep Learning

Stellen Sie sich konzentrische Kreise vor. Künstliche Intelligenz ist der Überbegriff. Maschinelles Lernen ist ein Teilbereich, der es Maschinen ermöglicht, aus Daten zu lernen. Darin befindet sich Deep Learning, und darin wiederum die künstlichen neuronalen Netze. KI verarbeitet Daten; ML ermöglicht es der KI, ohne zusätzliche Programmierung schlauer zu werden.

02

Theorie

Neuronale Netze und Deep Learning

Künstliche neuronale Netze ahmen das biologische Gehirn nach, mit Knoten (Neuronen), die in Schichten gruppiert sind und parallel arbeiten.

Deep Learning umfasst viele Schichten dieser Netzwerke und riesige Datenmengen. Es extrahiert Merkmale hierarchisch: Ein System erkennt vielleicht eine Pflanze in der ersten Schicht, eine Blume in der nächsten und eine gelbe Margerite in der letzten.

03

Theorie

Die 4 Arten des Maschinellen Lernens

  1. Überwachtes Lernen: Lernen am Beispiel. Die Maschine erhält gelabelte Eingaben und Ausgaben (z. B. "Dies ist eine Margerite"). Sie lernt, neue Eingaben zuzuordnen.
  2. Unüberwachtes Lernen: Kein Lösungsblatt. Die Maschine sucht nach Mustern oder Clustern in ungelabelten Daten.
  3. Halbüberwachtes Lernen: Nutzt eine kleine Menge gelabelter Daten, um die Analyse großer Mengen ungelabelter Daten zu steuern. Dies beschleunigt das Lernen.
  4. Bestärkendes Lernen: Lernen durch Versuch und Irrtum. Das System erhält "Belohnungen" für gute Aktionen und "Bestrafungen" für schlechte (z. B. beim Schachspielen).
04

Theorie

Anwendungen in der Praxis

  • Empfehlungssysteme: Netflix oder Spotify schlagen Inhalte basierend auf Nutzungsgewohnheiten vor.
  • Dynamisches Marketing: Personalisierung von Inhalten und Kundenansprache in Echtzeit.
  • ERP & Automatisierung: Optimierung von Arbeitsabläufen und Automatisierung wiederkehrender Aufgaben.
  • Vorausschauende Wartung (Predictive Maintenance): IoT-Sensoren sagen Maschinenausfälle voraus, bevor sie passieren.
05

Theorie

Herausforderungen

Verzerrung (Bias) und Scheinkorrelationen: Modelle können falsche Zusammenhänge lernen (z. B. Margarinekonsum und Scheidungsrate), wenn Daten fehlerhaft sind.

Das Black-Box-Problem: Komplexe Modelle sind oft schwer zu interpretieren. Es ist oft unklar, wie oder warum eine Entscheidung getroffen wurde, was in kritischen Bereichen Risiken birgt.

E

Beispiel

Anwendungen in der Praxis

  • Empfehlungssysteme: Netflix oder Spotify schlagen Inhalte basierend auf Nutzungsgewohnheiten vor.
  • Dynamisches Marketing: Personalisierung von Inhalten und Kundenansprache in Echtzeit.
  • ERP & Automatisierung: Optimierung von Arbeitsabläufen und Automatisierung wiederkehrender Aufgaben.
  • Vorausschauende Wartung (Predictive Maintenance): IoT-Sensoren sagen Maschinenausfälle voraus, bevor sie passieren.

Was Sie behalten sollten

Machine Learning is the learning engine inside AI, powered by data rather than explicit instructions for every outcome.

Häufige Frage

Was ist der Unterschied zwischen KI und ML?

ML ist ein Teilbereich der KI. KI ist das übergeordnete Konzept intelligenter Maschinen, während ML der Prozess ist, durch den Maschinen aus Daten lernen, ohne für jede Aufgabe explizit programmiert zu werden.

Kapitel 1 / Lektion 03 Fortgeschritten Layer 3 Aktualisiert 27. November 2025

Deep Learning

Die Kraft hochdimensionaler Daten freisetzen.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning

Link to this section

Schlüsselfrage

Why did modern AI become dramatically more capable?

Warum das wichtig ist

Deep Learning explains the performance leap that unlocked language, vision, speech, and the current generative wave.

Lernpfad

Machine Learning taught the machine to learn from data. Deep Learning shows what happens when that learning is scaled with many layers.

Was es als Nächstes ermöglicht

To understand why deep systems work, you need to see the architecture underneath them: Neural Networks.

O

Überblick

Gemeinsame Sprache für 2026

Deep Learning ist ein spezialisierter Teilbereich des maschinellen Lernens, der von der Struktur des menschlichen Gehirns inspiriert ist. Es verwendet mehrschichtige neuronale Netze, um aus riesigen Mengen unstrukturierter Daten wie Bildern, Audio und Text zu lernen.

M

Konzeptkarte

4 theorieblöcke

Warum heißt es "Deep" Learning? Was ist automatische Merkmalsextraktion? Warum ist Deep Learning jetzt wichtig? Schlüsselarchitekturen
01

Theorie

Warum heißt es "Deep" Learning?

Das "Deep" (tief) in Deep Learning bezieht sich auf die Anzahl der Schichten im neuronalen Netz. Traditionelle neuronale Netze haben vielleicht 2-3 Schichten. Deep-Learning-Modelle können Hunderte oder Tausende haben. Diese Tiefe ermöglicht es dem Modell, eine Hierarchie von Merkmalen zu lernen – von einfachen Kanten und Texturen bis hin zu komplexen Formen und Objekten.

02

Theorie

Was ist automatische Merkmalsextraktion?

Im traditionellen ML mussten Menschen Merkmale manuell auswählen (z. B. "hat dieses Bild Ohren?"). Im Deep Learning führt das Netzwerk eine automatische Merkmalsextraktion durch. Es lernt direkt aus den Rohpixeln oder dem Text, welche Merkmale wichtig sind.

03

Theorie

Warum ist Deep Learning jetzt wichtig?

Deep Learning ist die Technologie hinter selbstfahrenden Autos, Sprachassistenten, Gesichtserkennung und dem jüngsten Boom der generativen KI. Es lebt von Skalierung – mehr Daten und mehr Rechenleistung führen in der Regel zu besserer Leistung.

04

Theorie

Schlüsselarchitekturen

  • CNNs (Convolutional Neural Networks): Die Könige der Computer Vision.
  • RNNs (Recurrent Neural Networks): Gut für Zeitreihen und sequentielle Daten.
  • Transformer: Der Stand der Technik für die Verarbeitung natürlicher Sprache (NLP).
E

Beispiel

Warum ist Deep Learning jetzt wichtig?

Deep Learning ist die Technologie hinter selbstfahrenden Autos, Sprachassistenten, Gesichtserkennung und dem jüngsten Boom der generativen KI. Es lebt von Skalierung – mehr Daten und mehr Rechenleistung führen in der Regel zu besserer Leistung.

Was Sie behalten sollten

Deep Learning is scaled Machine Learning built on many layers, which makes it strong on high-dimensional and unstructured data.

Häufige Frage

Ist Deep Learning dasselbe wie neuronale Netze?

Deep Learning ist im Wesentlichen die Verwendung von *tiefen* neuronalen Netzen. Also beinhaltet alles Deep Learning neuronale Netze, aber nicht alle neuronalen Netze sind 'tief' (obwohl die Begriffe im modernen Kontext oft austauschbar verwendet werden).

Kapitel 1 / Lektion 04 Technisch Core mechanism Aktualisiert 27. November 2025

Neuronale Netze

Die mathematische Architektur des Geistes.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Neuronale Netze

Link to this section

Schlüsselfrage

What is the actual mechanism doing the learning inside Deep Learning?

Warum das wichtig ist

Without neural networks, Deep Learning stays abstract. This lesson makes the architecture visible.

Lernpfad

Deep Learning described the method. Neural Networks explain the machinery that makes that method work.

Was es als Nächstes ermöglicht

Once the mechanism is clear, the next step is to see how these architectures became reusable, general-purpose engines: Foundation Models.

O

Überblick

Gemeinsame Sprache für 2026

Künstliche Neuronale Netze (ANNs) sind Rechensysteme, die vage von den biologischen neuronalen Netzen inspiriert sind, die tierische Gehirne bilden. Sie sind die fundamentalen Bausteine des Deep Learning.

M

Konzeptkarte

3 theorieblöcke

Wie funktioniert ein künstliches Neuron? Was sind die Hauptarten neuronaler Netze? Wie lernen neuronale Netze?
01

Theorie

Wie funktioniert ein künstliches Neuron?

Ein Neuron nimmt mehrere Eingaben, multipliziert sie mit Gewichten (Wichtigkeit), addiert einen Bias (Schwellenwert) und leitet das Ergebnis durch eine Aktivierungsfunktion (Nichtlinearität). Wenn das Signal stark genug ist, "feuert" das Neuron und gibt Informationen an die nächste Schicht weiter.

02

Theorie

Was sind die Hauptarten neuronaler Netze?

  • Feedforward NN: Der einfachste Typ. Informationen bewegen sich in eine Richtung.
  • CNN (Convolutional Neural Network): Spezialisiert auf die Verarbeitung gitterartiger Daten (Bilder). Es scannt das Bild mit Filtern, um Muster zu erkennen.
  • RNN (Recurrent Neural Network): Entwickelt für sequentielle Daten (Zeitreihen, Text). Es hat ein "Gedächtnis" für frühere Eingaben.
  • Transformer: Die moderne Architektur für Sprache. Sie nutzt "Attention"-Mechanismen, um die Wichtigkeit verschiedener Teile der Eingabedaten gleichzeitig zu gewichten.
03

Theorie

Wie lernen neuronale Netze?

Sie lernen durch einen Prozess namens Backpropagation. Das Netzwerk macht eine Schätzung, vergleicht sie mit der tatsächlichen Antwort, um den Verlust (Fehler) zu berechnen, und arbeitet dann rückwärts, um die Gewichte anzupassen und diesen Fehler zu minimieren. Dies wird millionenfach wiederholt.

E

Beispiel

Was ist eine Aktivierungsfunktion?

Es ist eine mathematische Funktion (wie ReLU oder Sigmoid), die an jedem Neuron angebracht ist und entscheidet, ob es aktiviert werden soll. Sie führt Nichtlinearität ein, was dem Netzwerk ermöglicht, komplexe Muster zu lernen.

Was Sie behalten sollten

Neural Networks are the mathematical structure that powers Deep Learning and makes modern model scaling possible.

Häufige Frage

Was ist das 'Black Box'-Problem?

Neuronale Netze können so komplex sein, dass selbst ihre Schöpfer nicht vollständig verstehen, wie sie zu einer bestimmten Entscheidung gelangen. Dieser Mangel an Interpretierbarkeit ist eine große Herausforderung in Bereichen mit hohem Einsatz wie der Medizin.

Kapitel 1 / Lektion 05 Moderne KI Layer 4 Aktualisiert 27. November 2025

Foundation Models

Ein Modell, unendliche Anwendungen.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Foundation Models

Link to this section

Schlüsselfrage

Why do a few large models now power so many different tasks?

Warum das wichtig ist

Foundation Models are the bridge between technical architectures and the products people actually use today.

Lernpfad

Neural Networks gave you the structure. Foundation Models show what that structure becomes at internet scale.

Was es als Nächstes ermöglicht

Once you understand foundation models, it becomes much easier to explain Generative AI as an application layer on top of them.

O

Überblick

Gemeinsame Sprache für 2026

Ein Foundation Model ist ein groß angelegtes KI-Modell, das auf einer riesigen Datenmenge (oft im Internet-Maßstab) trainiert wurde und an eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann. Sie stellen einen Paradigmenwechsel von aufgabenspezifischen Modellen zu Allzweckmotoren dar.

M

Konzeptkarte

4 theorieblöcke

Was macht ein Modell zu einem "Foundation Model"? Was ist "Emergenz"? Wie werden sie gebaut? Führende Foundation Models
01

Theorie

Was macht ein Modell zu einem "Foundation Model"?

Es muss breit fähig sein. Im Gegensatz zu früheren Modellen, die für eine Aufgabe entwickelt wurden (z. B. Stimmungsanalyse), kann ein Foundation Model Gedichte schreiben, Code debuggen, Sprachen übersetzen und Text zusammenfassen, alles ohne spezifisches Neutraining.

02

Theorie

Was ist "Emergenz"?

Foundation Models zeigen Emergenz – Fähigkeiten, für die sie nicht explizit trainiert wurden. Zum Beispiel könnte ein Modell, das einfach darauf trainiert wurde, das nächste Wort in einem Satz vorherzusagen, mit der Fähigkeit hervorgehen, Sprachen zu übersetzen, Code zu schreiben oder Logikrätsel zu lösen.

03

Theorie

Wie werden sie gebaut?

Der Lebenszyklus umfasst zwei Phasen:

  1. Pre-Training: Die teure, rechenintensive Phase, in der das Modell allgemeine Muster aus massiven Datensätzen lernt (z. B. "Lesen und Schreiben lernen").
  2. Fine-Tuning: Die Anpassungsphase, in der das Modell auf eine bestimmte Aufgabe oder ein bestimmtes Verhalten spezialisiert wird (z. B. "lernen, ein hilfreicher Assistent zu sein").
04

Theorie

Führende Foundation Models

Prominente Foundation Models sind die GPT-Serie (OpenAI), BERT (Google), Claude (Anthropic) und Stable Diffusion (Stability AI).

E

Beispiel

Führende Foundation Models

Prominente Foundation Models sind die GPT-Serie (OpenAI), BERT (Google), Claude (Anthropic) und Stable Diffusion (Stability AI).

Was Sie behalten sollten

Foundation Models are general-purpose engines trained at massive scale and adapted to many downstream uses.

Häufige Frage

Sind Foundation Models dasselbe wie LLMs?

LLMs (Large Language Models) sind eine *Art* von Foundation Model, die sich auf Text konzentriert. Aber Foundation Models können auch multimodal sein und Bilder, Audio und Video verarbeiten.

Kapitel 2

Von Modellen zu generierten Ergebnissen

Sobald der Stack klar ist, wird verständlich, wie moderne Systeme Inhalte erzeugen und wer diese Ebene prägt.

Nach diesem Kapitel

Sie sollten erklären können, was Generative KI ist, warum sie auf Foundation Models aufbaut und wie sich die wichtigsten Anbieter unterscheiden.

Kapitel 2 / Lektion 06 Kreative KI Output layer Aktualisiert 27. November 2025

Generative KI

Von der Analyse zur Kreation.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Foundation Models -> Generative KI

Link to this section

Schlüsselfrage

How does modern AI move from analysis into creation?

Warum das wichtig ist

Generative AI is the part of the market most people encounter first, but it only makes sense once the model stack underneath is clear.

Lernpfad

Foundation Models explain the engine. Generative AI explains the visible behavior that engine enables.

Was es als Nächstes ermöglicht

After understanding generated output, the next practical question is who builds these systems and how their approaches differ.

O

Überblick

Gemeinsame Sprache für 2026

Generative KI bezieht sich auf Algorithmen, die neue Inhalte erstellen können – einschließlich Audio, Code, Bilder, Text, Simulationen und Videos. Im Gegensatz zur traditionellen KI, die klassifiziert oder vorhersagt, produziert Generative KI neuartige Ausgaben.

M

Konzeptkarte

4 theorieblöcke

Diskriminative vs. Generative KI Wie funktioniert Generative KI? Die kreative Revolution Anwendungsfälle
01

Theorie

Diskriminative vs. Generative KI

Traditionelle KI ist Diskriminativ: Sie zieht eine Linie, um Daten zu trennen (z. B. "Ist das eine Katze oder ein Hund?"). Generative KI ist Kreativ: Sie lernt die Verteilung der Daten, um neue Beispiele zu erstellen (z. B. "Zeichne mir eine Katze, die nie existiert hat").

02

Theorie

Wie funktioniert Generative KI?

Generative Modelle, wie Diffusionsmodelle (für Bilder) oder Transformer (für Text), lernen die zugrunde liegende Struktur der Trainingsdaten. Sie nutzen dann Wahrscheinlichkeiten, um neue Muster zusammenzusetzen, die diesen Strukturen folgen, aber keine identischen Kopien sind.

03

Theorie

Die kreative Revolution

Generative KI demokratisiert Kreativität. Sie fungiert als Co-Pilot für Autoren, Künstler, Programmierer und Designer und ermöglicht es ihnen, schneller zu iterieren und neue Ideen zu erkunden. Sie verschiebt den Engpass von "Fähigkeit" zu "Fantasie".

04

Theorie

Anwendungsfälle

  • Marketing: Erstellung von Werbetexten und Visuals.
  • Coding: Schreiben von Boilerplate-Code und Dokumentation.
  • Unterhaltung: Erstellung von Spiel-Assets und Skripten.
  • Wissenschaft: Generierung neuartiger Proteinstrukturen für die Wirkstoffforschung.
E

Beispiel

Anwendungsfälle

  • Marketing: Erstellung von Werbetexten und Visuals.
  • Coding: Schreiben von Boilerplate-Code und Dokumentation.
  • Unterhaltung: Erstellung von Spiel-Assets und Skripten.
  • Wissenschaft: Generierung neuartiger Proteinstrukturen für die Wirkstoffforschung.

Was Sie behalten sollten

Generative AI is the creation layer. It uses modern models to produce new text, images, code, audio, and more.

Häufige Frage

Stiehlt Generative KI Kunst?

Dies ist ein komplexes rechtliches und ethisches Problem. Modelle lernen aus vorhandenen Daten, aber sie 'kopieren und fügen nicht ein'. Sie lernen Stile und Konzepte. Die Rechte der ursprünglichen Ersteller der Trainingsdaten sind jedoch Gegenstand aktiver Debatten und Rechtsstreitigkeiten.

Kapitel 2 / Lektion 07 Industrie Provider layer Aktualisiert 27. November 2025

LLM-Akteure

Die Titanen, die die Zukunft der Intelligenz formen.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Foundation Models -> LLM-Akteure

Link to this section

Schlüsselfrage

Who is shaping the model layer that everyone builds on?

Warum das wichtig ist

The ecosystem matters because strategy, safety, privacy, deployment, and cost all depend on who provides the model.

Lernpfad

Generative AI showed what the systems can do. This lesson explains who is building the core engines and why the market feels fragmented.

Was es als Nächstes ermöglicht

Once the provider layer is clear, the next step is to see how those models turn into tools for actual work.

O

Überblick

Gemeinsame Sprache für 2026

Die Landschaft der Large Language Models wird von einigen wenigen Technologiegiganten und ehrgeizigen Startups dominiert. Zu verstehen, wer sie sind und was sie anbieten, ist entscheidend, um sich im KI-Ökosystem zurechtzufinden.

M

Konzeptkarte

2 theorieblöcke

Wer sind die Hauptakteure? Open Source vs. Closed Source
01

Theorie

Wer sind die Hauptakteure?

  1. OpenAI: Der Pionier. GPT-4 und ChatGPT setzten den Standard für moderne generative KI. OpenAI konzentriert sich darauf, die Grenzen von Skalierung und logischem Denken zu erweitern.
  2. Google (DeepMind): Der schlafende Riese. Mit Gemini hat Google seine enormen Forschungskapazitäten in ein multimodales Modell integriert, das tief in das Google-Ökosystem eingebunden ist.
  3. Anthropic: Der sicherheitsorientierte Herausforderer. Gegründet von ehemaligen OpenAI-Mitarbeitern, konzentriert sich Anthropic auf "Constitutional AI" und Sicherheit. Ihre Claude-Modelle sind bekannt für ihre großen Kontextfenster und nuanciertes Schreiben.
  4. Meta (Facebook): Der Open-Source-Champion. Metas LLaMA-Serie war entscheidend dafür, der Open-Source-Community zu ermöglichen, leistungsstarke Modelle auf eigener Hardware zu bauen und auszuführen.
  5. Mistral: Der europäische Herausforderer. Mit Sitz in Frankreich produziert Mistral hocheffiziente Modelle mit offenen Gewichten, die den Giganten in der Leistung pro Parameter Konkurrenz machen.
02

Theorie

Open Source vs. Closed Source

  • Closed Source (Proprietär): Modelle wie GPT-4 und Gemini. Sie greifen über eine API darauf zu. Sie sind im Allgemeinen leistungsfähiger und einfacher zu bedienen, aber Sie haben weniger Kontrolle und Privatsphäre.
  • Open Source (Offene Gewichte): Modelle wie LLaMA und Mistral. Sie können sie herunterladen und selbst ausführen. Sie bieten Privatsphäre, Kontrolle und Anpassung, erfordern jedoch Hardware zum Ausführen.
E

Beispiel

Open Source vs. Closed Source

  • Closed Source (Proprietär): Modelle wie GPT-4 und Gemini. Sie greifen über eine API darauf zu. Sie sind im Allgemeinen leistungsfähiger und einfacher zu bedienen, aber Sie haben weniger Kontrolle und Privatsphäre.
  • Open Source (Offene Gewichte): Modelle wie LLaMA und Mistral. Sie können sie herunterladen und selbst ausführen. Sie bieten Privatsphäre, Kontrolle und Anpassung, erfordern jedoch Hardware zum Ausführen.

Was Sie behalten sollten

Model providers are not interchangeable. Each one makes different tradeoffs in openness, performance, integration, and control.

Häufige Frage

Welches Modell ist das beste?

Das hängt vom Anwendungsfall ab. GPT-4 ist oft der Maßstab für logisches Denken. Claude eignet sich hervorragend für lange Dokumente und Programmierung. LLaMA ist am besten für die lokale Bereitstellung. Gemini integriert sich am besten in Google Workspace.

Kapitel 3

Von Modellen zu Produkten und Praxis

Nach der Modellebene folgt die Frage, wie Menschen KI in der Arbeit einsetzen und wie sie Intuition aufbauen.

Nach diesem Kapitel

Sie sollten verstehen, wie aus KI Werkzeuge werden, wie Produkte verglichen werden und wie praktische Übungen die Konzepte festigen.

Kapitel 3 / Lektion 08 Praktisch Product layer Aktualisiert 27. November 2025

KI-Tools

Erweiterung der menschlichen Fähigkeiten.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Foundation Models -> Generative KI -> KI-Tools

Link to this section

Schlüsselfrage

How do models become useful products in everyday work?

Warum das wichtig ist

Most learners do not adopt AI at the model layer. They adopt it through tools that wrap models into jobs to be done.

Lernpfad

The provider landscape explains the engines. AI tools show how those engines are packaged into user-facing products.

Was es als Nächstes ermöglicht

After seeing the product categories, the next step is comparison: which tools belong in which workflow.

O

Überblick

Gemeinsame Sprache für 2026

KI-Tools sind Anwendungen, die künstliche Intelligenz nutzen, um spezifische Probleme zu lösen. Sie sind die praktische Schnittstelle zwischen komplexen Modellen und Endbenutzern.

M

Konzeptkarte

2 theorieblöcke

Was sind die Hauptkategorien von KI-Tools? Wie wählt man das richtige Tool?
01

Theorie

Was sind die Hauptkategorien von KI-Tools?

  • Text & Schreiben: Tools wie ChatGPT, Claude und Jasper helfen beim Entwerfen, Bearbeiten, Zusammenfassen und Brainstorming von Texten.
  • Bild & Design: Tools wie Midjourney, DALL-E 3 und Stable Diffusion ermöglichen es Benutzern, fotorealistische Bilder und Kunst aus Textbeschreibungen zu generieren.
  • Coding: Tools wie GitHub Copilot, Cursor und Replit fungieren als Pair Programmer, schlagen Code vor, debuggen und refaktorisieren.
  • Produktivität: Tools wie Perplexity (Suche), Otter.ai (Transkription) und Notion AI (Arbeitsbereich) integrieren KI in tägliche Arbeitsabläufe, um Zeit zu sparen.
02

Theorie

Wie wählt man das richtige Tool?

  1. Definieren Sie Ihr Ziel: Schreiben, programmieren oder designen Sie?
  2. Prüfen Sie das Modell: Welches zugrunde liegende Modell wird verwendet? (z. B. GPT-4 vs Claude 3)
  3. Berücksichtigen Sie den Datenschutz: Trainiert das Tool mit Ihren Daten?
  4. Suchen Sie nach Integration: Passt es in Ihren bestehenden Workflow?
E

Beispiel

Wie wählt man das richtige Tool?

  1. Definieren Sie Ihr Ziel: Schreiben, programmieren oder designen Sie?
  2. Prüfen Sie das Modell: Welches zugrunde liegende Modell wird verwendet? (z. B. GPT-4 vs Claude 3)
  3. Berücksichtigen Sie den Datenschutz: Trainiert das Tool mit Ihren Daten?
  4. Suchen Sie nach Integration: Passt es in Ihren bestehenden Workflow?

Was Sie behalten sollten

AI tools are the interface layer between advanced models and real human tasks.

Häufige Frage

Werden diese Tools meinen Job ersetzen?

KI wird Ihren Job eher verändern als ersetzen. Der Konsens ist: 'Sie werden nicht durch KI ersetzt, sondern durch einen Menschen, der KI nutzt.' Das Erlernen dieser Tools ist eine Karriere-Superkraft.

Kapitel 3 / Lektion 09 Ressourcen Market layer Aktualisiert 27. November 2025

KI-Tools Verzeichnis

Eine kuratierte Sammlung der besten KI-Ressourcen.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Deep Learning -> Foundation Models -> Generative KI -> KI-Tools -> KI-Tools Verzeichnis

Link to this section

Schlüsselfrage

How do you evaluate the crowded tool market without getting lost?

Warum das wichtig ist

A directory is useful only if it turns abundance into categories and buying criteria.

Lernpfad

AI tools introduced the categories. The directory organizes the landscape so the learner can compare options more quickly.

Was es als Nächstes ermöglicht

After comparison, the best next move is practice. Concepts stick when the learner can interact with them.

O

Überblick

Gemeinsame Sprache für 2026

Die Explosion von KI-Tools zu navigieren, kann überwältigend sein. Dieses Verzeichnis kategorisiert die zuverlässigsten und wirkungsvollsten Tools, die heute verfügbar sind.

M

Konzeptkarte

3 theorieblöcke

Chat & Assistenten Visuelle Erstellung Entwicklung
01

Theorie

Chat & Assistenten

  • ChatGPT (OpenAI): Der Industriestandard für konversationelle KI.
  • Claude (Anthropic): Bekannt für Sicherheit und die Verarbeitung großer Kontexte.
  • Gemini (Google): Multimodaler Assistent, integriert in Google-Apps.
  • Perplexity: KI-gestützte Suchmaschine für genaue Antworten.
02

Theorie

Visuelle Erstellung

  • Midjourney: Künstlerische Bildgenerierung von höchster Qualität.
  • Leonardo.ai: Vielseitige Asset-Erstellung für Spiele und Design.
  • Runway: Führendes Tool für KI-Videogenerierung und -bearbeitung.
03

Theorie

Entwicklung

  • Cursor: Der KI-First Code-Editor.
  • GitHub Copilot: Das am weitesten verbreitete Code-Vervollständigungstool.
  • V0.dev: Generatives UI-System von Vercel.
E

Beispiel

Chat & Assistenten

  • ChatGPT (OpenAI): Der Industriestandard für konversationelle KI.
  • Claude (Anthropic): Bekannt für Sicherheit und die Verarbeitung großer Kontexte.
  • Gemini (Google): Multimodaler Assistent, integriert in Google-Apps.
  • Perplexity: KI-gestützte Suchmaschine für genaue Antworten.

Was Sie behalten sollten

The right tool choice depends on workflow, privacy, integration, and the model sitting underneath the interface.

Kapitel 3 / Lektion 10 Praxis Practice layer Aktualisiert 27. November 2025

Interaktive Übungen

Lernen durch Tun.

Wo es im Stack sitzt

KI-Überblick -> Maschinelles Lernen -> Interaktive Übungen

Link to this section

Schlüsselfrage

How do abstract AI ideas become intuition instead of memorized jargon?

Warum das wichtig ist

Practice is where the concepts stop sounding impressive and start becoming usable mental models.

Lernpfad

The directory helps you compare tools. Interactive exercises help you internalize how the underlying systems behave.

Was es als Nächstes ermöglicht

After the technical and practical stack, the last move is to reconnect all of this to human judgment.

O

Überblick

Gemeinsame Sprache für 2026

Theorie ist essenziell, aber Übung macht den Meister. Diese interaktiven Simulationen und Spiele sind darauf ausgelegt, Ihre Intuition dafür zu stärken, wie KI-Systeme tatsächlich funktionieren.

M

Konzeptkarte

2 theorieblöcke

Warum interaktives Lernen? Verfügbare Module
01

Theorie

Warum interaktives Lernen?

KI-Konzepte wie "Gradientenabstieg" oder "Backpropagation" können abstrakt und mathematisch sein. Interaktive Visualisierungen ermöglichen es Ihnen, die Mathematik in Aktion zu sehen und ein tieferes, intuitives Verständnis aufzubauen.

02

Theorie

Verfügbare Module

  • Neuron Visualizer: Sehen Sie, wie Eingaben, Gewichte und Bias zusammenwirken, um ein Neuron zu feuern.
  • Network Playground: Bauen und trainieren Sie einfache neuronale Netze in Ihrem Browser.
  • Gradient Descent Sim: Visualisieren Sie, wie Modelle Fehler minimieren, indem sie eine Verlustlandschaft hinabsteigen.
  • Hyperparameter Sandbox: Experimentieren Sie mit Lernraten und Batch-Größen, um deren Auswirkungen auf das Training zu sehen.
E

Beispiel

Verfügbare Module

  • Neuron Visualizer: Sehen Sie, wie Eingaben, Gewichte und Bias zusammenwirken, um ein Neuron zu feuern.
  • Network Playground: Bauen und trainieren Sie einfache neuronale Netze in Ihrem Browser.
  • Gradient Descent Sim: Visualisieren Sie, wie Modelle Fehler minimieren, indem sie eine Verlustlandschaft hinabsteigen.
  • Hyperparameter Sandbox: Experimentieren Sie mit Lernraten und Batch-Größen, um deren Auswirkungen auf das Training zu sehen.

Was Sie behalten sollten

Interactive learning is the shortest path from theory to intuition.

Kapitel 4

Menschliches Urteil und gemeinsame Sprache

Zum Schluss wird KI wieder mit Menschen verbunden: menschliche Intelligenz, augmentierte Entscheidungen und gemeinsames Vokabular.

Nach diesem Kapitel

Sie sollten über KI präziser, urteilsstärker und mit einer gemeinsamen Sprache im Team sprechen können.

Kapitel 4 / Lektion 11 Grundlagen Human context Aktualisiert 27. November 2025

Intelligenz

IQ, EQ und KI prägen unsere Entscheidungsfindung.

Wo es im Stack sitzt

KI-Überblick -> Intelligenz

Link to this section

Schlüsselfrage

What still belongs to humans in an AI-shaped world?

Warum das wichtig ist

A good guide should not end with tools. It should end with judgment, augmentation, and the boundary between machine capability and human responsibility.

Lernpfad

You have now seen the stack, the model layer, and the product layer. This lesson brings the conversation back to people.

Was es als Nächstes ermöglicht

Once the human role is clear, the final step is to lock in a shared vocabulary so teams can speak precisely.

O

Überblick

Gemeinsame Sprache für 2026

Zu verstehen, wie sich menschliche Intelligenz, künstliche Intelligenz und erweiterte Intelligenz (Augmented Intelligence) ergänzen, ist der Schlüssel zur Gestaltung der Zukunft. Intelligenz ist nicht nur Rechenleistung; es geht um die Synergie zwischen biologischer und synthetischer Kognition.

M

Konzeptkarte

3 theorieblöcke

Drei Arten von Intelligenz Künstliche Intelligenz (KI) Emotionale Intelligenz (EQ)
01

Theorie

Drei Arten von Intelligenz

Wir können Intelligenz in drei verschiedene Formen einteilen, die in der modernen Welt interagieren:

Merkmal Menschen Maschinen Erweiterte Intelligenz
Datenverarbeitung Konzepte verstehen und verallgemeinern Große Datenmengen verarbeiten und analysieren Kontext mit datengestützten Erkenntnissen kombinieren
Wiederholung Anfällig für Ermüdung Repetitive Aufgaben mit hoher Genauigkeit ausführen Aufgaben automatisieren bei gleichzeitiger menschlicher Aufsicht
Kreativität Flexible Problemlösung Begrenzte kreative Kapazität Menschliche Kreativität mit intelligenten Tools erweitern
Emotionale Einsicht Empathie & Kundenbetreuung Kein emotionales Verständnis Menschlich geführte Empathie, unterstützt durch intelligente Assistenz
02

Theorie

Künstliche Intelligenz (KI)

Definition: Die Fähigkeit von Maschinen, wie Menschen zu denken und zu reflektieren, mit dem Versuch, menschliche Intelligenz mit Maschinen nachzubilden.

Fähigkeiten:

  • Logisches Denken: Schlussfolgerungen und Inferenz.
  • Natürliche Kommunikation: Verstehen und Generieren menschlicher Sprache.
  • Problemlösung: Finden von Lösungen für komplexe Herausforderungen.

Eigenschaften:

  • Ersetzt menschlichen Aufwand: Automatisiert Aufgaben, die traditionell von Menschen erledigt wurden.
  • Führt Aufgaben unabhängig aus: Arbeitet ohne ständige menschliche Intervention.
03

Theorie

Emotionale Intelligenz (EQ)

"Warum sind wir nicht mitfühlender?" — Daniel Goleman

Emotionale Intelligenz operiert durch die Basalganglien (das Weisheitszentrum des Gehirns). Sie leitet Entscheidungen basierend auf emotionaler Valenz (was sich gut/schlecht anfühlte). Im Gegensatz zum Neocortex spricht sie nicht in Worten, sondern ist mit Emotionen und dem Bauchgefühl verbunden.

Wichtige Erkenntnis: Kombinieren Sie EQ + IQ für bessere Entscheidungen.

E

Beispiel

Was ist Erweiterte Intelligenz?

Erweiterte Intelligenz (Augmented Intelligence) ist ein Designmuster für ein menschenzentriertes Partnerschaftsmodell, bei dem Menschen und KI zusammenarbeiten, um die kognitive Leistung zu verbessern, einschließlich Lernen, Entscheidungsfindung und neuer Erfahrungen.

Was Sie behalten sollten

The strongest future is not human or machine alone. It is augmented intelligence with clear human oversight.

Häufige Frage

Was ist Erweiterte Intelligenz?

Erweiterte Intelligenz (Augmented Intelligence) ist ein Designmuster für ein menschenzentriertes Partnerschaftsmodell, bei dem Menschen und KI zusammenarbeiten, um die kognitive Leistung zu verbessern, einschließlich Lernen, Entscheidungsfindung und neuer Erfahrungen.

Kapitel 4 / Lektion 12 Wörterbuch Language layer Aktualisiert 27. November 2025

KI-Konzepte & Terminologie

Sprechen Sie die Sprache der Zukunft.

Wo es im Stack sitzt

KI-Überblick -> KI-Konzepte & Terminologie

Link to this section

Schlüsselfrage

Which terms should everyone use consistently after reading this guide?

Warum das wichtig ist

Shared language prevents shallow conversations, poor purchasing decisions, and avoidable confusion across teams.

Lernpfad

Human judgment sets the frame. The glossary gives the team a common language to carry that frame into daily work.

Was es als Nächstes ermöglicht

This is the reference layer at the end of the journey. Use it to keep future AI conversations precise.

O

Überblick

Gemeinsame Sprache für 2026

Das Feld der KI ist voll von Fachjargon. Dieses Wörterbuch bietet klare, prägnante Definitionen für die wichtigsten Begriffe, die Sie kennen müssen.

M

Konzeptkarte

3 theorieblöcke

A-E F-L M-Z
01

Theorie

A-E

Algorithmus: Ein Satz von Regeln oder Anweisungen, die einer KI, einem neuronalen Netz oder einer anderen Maschine gegeben werden, um ihr zu helfen, selbstständig zu lernen.

Alignment (Ausrichtung): Das Problem sicherzustellen, dass KI-Systeme Ziele haben, die mit menschlichen Werten übereinstimmen.

Bias (Voreingenommenheit): Fehler in der KI-Ausgabe, die aus Vorurteilen in den Trainingsdaten resultieren.

02

Theorie

F-L

Fine-Tuning: Der Prozess des Trainings eines vorab trainierten Modells auf einem kleineren, spezifischen Datensatz, um es zu spezialisieren.

Halluzination: Wenn eine KI falsche oder unsinnige Informationen selbstbewusst generiert.

LLM (Large Language Model): Ein Deep-Learning-Algorithmus, der Text erkennen, zusammenfassen, übersetzen, vorhersagen und generieren kann.

03

Theorie

M-Z

Multimodal: KI, die mehrere Arten von Medien (Text, Bilder, Audio) verstehen und generieren kann.

Parameter: Die internen Variablen (Gewichte), die das Modell während des Trainings anpasst. GPT-4 hat Billionen.

Token: Die Grundeinheit von Text für ein LLM (ungefähr 0,75 Wörter).

E

Beispiel

F-L

Fine-Tuning: Der Prozess des Trainings eines vorab trainierten Modells auf einem kleineren, spezifischen Datensatz, um es zu spezialisieren.

Halluzination: Wenn eine KI falsche oder unsinnige Informationen selbstbewusst generiert.

LLM (Large Language Model): Ein Deep-Learning-Algorithmus, der Text erkennen, zusammenfassen, übersetzen, vorhersagen und generieren kann.

Was Sie behalten sollten

A strong AI guide should end with alignment: people leaving with the same words for the same concepts.