Stefan Franke & Wolfgang Müller

Projekt Künstliche Intelligenz

SoSe 2026

Bildbeschreibung

Übersicht

  • WarmUp: Ki-TandemLab
  • Didaktisches Arbeiten mit KI
  • Machine Learning
  • Aktuelle KI-Landschaft & Modelle
  • Academic Cloud
  • Prompting & Craft Framework

WarmUp: KI-TandemLab

1. Runde: Beispielrunde

Voraussetzungen & Ablauf – Beispielrunde

1. Zugang zu einem KI-Tool mit Bildanalyse
⬇️
2. Auf https://franke-lab.de/ai-tandem-lab gehen und der Session beitreten
⬇️
3. Warteraum: warten, bis alle Teilnehmenden da sind
⬇️
4. Arbeitsphase (5 min): Bild im KI-Tool analysieren, gezielt nachfragen und mit einer Zweitquelle prüfen
⬇️
5. Tandemphase (5 min / 2,5 min p. P.): Ergebnisse und Erkenntnisse austauschen
⬇️
6. Timer beachten

Beispielrunde – KI-TandemLab

https://franke-lab.de/ai-tandem-lab

  • 1. Warteraum
  • 2. Arbeitsphase

Gruppe A

Beispielbild Gruppe A

Gruppe B

Beispielbild Gruppe B

Quelle: watson.ch

  • 3. Tandemphase

Didaktisches Arbeiten mit KI

  • Wer mit KI arbeiten will, muss verstehen, wie KI arbeitet und wie Entscheidungen entstehen.
  • KI ist kein „denkendes Wesen", sondern ein technisches System
  • Verstehen schafft Vertrauen und Kritikfähigkeit

Wie trifft KI Entscheidungen?

  • KI trifft keine bewussten oder moralischen Entscheidungen
  • Entscheidungen entstehen rechnerisch aus:
    • Trainingsdaten
    • Merkmalen (Features)
    • Modellen & Wahrscheinlichkeiten
  • Gleiche Eingaben → gleiche Ausgaben (deterministisch)

Grenzen & Verzerrungen

  • KI kann nur lernen, was in den Daten enthalten ist
  • Fehler und Verzerrungen entstehen durch:
    • unvollständige oder einseitige Daten
    • vereinfachte Modelle
    • falsche Annahmen
  • KI kann plausible, aber falsche Ergebnisse liefern

Didaktisches Ziel

  • KI nicht nur anwenden, sondern durchschauen
  • Entscheidungsprozesse erklären können
  • Ergebnisse reflektieren und hinterfragen
  • Grundlagen für verantwortungsvollen KI-Einsatz

Einstieg in KI-Verständnis

  • Klassifikation als niedrigschwelliger Einstieg
  • Eigene Trainingsdaten erstellen & verändern
  • Zusammenhang zwischen Daten und Entscheidungen erkennen
  • Direkte Rückmeldung durch Modellverhalten

Machine Learning

Algorithmen lernen aus Daten, um Muster zu erkennen und Vorhersagen zu treffen.

Überwachtes Lernen

Lernt aus gelabelten Daten

Klassifikation

Kategorien zuordnen

Regression

Werte vorhersagen

Unüberwachtes Lernen

Findet Muster in ungelabelten Daten

Clustering

Ähnliche Daten gruppieren

Überwachtes Lernen

Modell lernt aus gelabelten Daten (Eingabe → erwartete Ausgabe)

Klassifikation

Ordnet Daten in Kategorien ein

  • Spam / kein Spam
  • Bild: Katze / Hund
  • Krankheit: ja / nein

Regression

Sagt kontinuierliche Werte voraus

  • Hauspreis
  • Temperatur morgen
  • Aktienkurs
+ Hohe Genauigkeit, klare Ergebnisse
Braucht viele gelabelte Daten, aufwendig

Unüberwachtes Lernen

Modell findet selbstständig Muster in ungelabelten Daten

Clustering

Gruppiert ähnliche Datenpunkte in Cluster

  • Kundensegmentierung
  • Themengruppen in Texten
  • Anomalie-Erkennung
+ Keine gelabelten Daten nötig, entdeckt verborgene Muster
Ergebnisse schwerer zu interpretieren, keine “richtige” Antwort

Aufgabe: Machine Learning – Einstieg (ca. 15-20min)

Code.org – Oceans: Machine Learning

  • Erste Einführung in Programmierung & Informatik
  • Klassifikation von Objekten (z. B. „Fisch" / „kein Fisch")
  • Umgang mit Trainingsdaten (Datensatz erweitern)
  • Eigene Beschriftungen für Bilder festlegen
  • ML-Modell lernt aus Beispielen
  • Modell beschriftet neue Bilder selbstständig
  • Spielerischer, sicherer Lernkontext

Aktuelle KI-Landschaft

KI entwickelt sich rasant weiter — drei zentrale Entwicklungen bestimmen 2026:

Frontier-Modelle

GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro — immer leistungsfähiger, multimodal, riesige Kontextfenster.

Open Source

Llama 3.3, Mistral Small 3, Qwen 3, DeepSeek V3.2 — lokal betreibbar, transparent, ohne Cloud-Abhängigkeit.

Spezialisierung

Modelle werden gezielt optimiert: Code-Generierung, Vision, mathematisches Reasoning, Agenten.

Skalierung am Limit?

Die Debatte: Wird KI immer besser — oder stagniert der Fortschritt?

Was stimmt
  • Skalierungsgesetze zeigen abnehmende Erträge
  • Trainingsdaten sind endlich — es gibt nur ein Internet
  • Frontier-Modelle seit >1 Jahr an einer Benchmark-Decke
Was die Vereinfachung übersieht
  • Nicht "alles gelesen" ist das Limit, sondern:
    • Hardware: TSMC 5nm/3nm ausgebucht
    • Energie: Power Wall — Rechenzentren brauchen Gigawatt
  • Neues Paradigma: Inference-Time Compute — Modelle wie o1/o3 denken länger nach statt mehr Daten zu schlucken

KI-Modelle im Überblick (Stand: April 2026)

Gehostet (Cloud)

ModellAnbieterStärken
GPT-5.4 ProOpenAIAllrounder, größtes Ökosystem
Claude Opus 4.6AnthropicCode, Reasoning, lange Kontexte
Gemini 3.1 ProGoogleReasoning-Leader, multimodal
DeepSeek V3.2DeepSeek~90% GPT-5 Leistung, 1/50 Preis
Grok 4xAICode, Echtzeit-Daten

Lokal hostbar (Open Weights)

ModellRAMVRAMDiskStärken
Llama 3.3 8B16 GB (32)8 GB (12)~5 GBBester Allrounder
Mistral Small 316 GB (32)7 GB (12)~4 GBSchnell, mehrsprachig
Phi-4 14B16 GB (32)10 GB (16)~8 GBReasoning, beste Leistung/GB
Gemma 3 27B32 GB (48)16 GB (24)~16 GBInstruction-following
Qwen 3 32B32 GB (64)16 GB (24)~19 GBSweet Spot Leistung/Ressourcen
Llama 3.3 70B64 GB (128)42 GB (80)~40 GBFrontier-Niveau, 2–4x A100

Min. (flüssig/Echtzeit) — INT4 Quantisierung

Academic Cloud

KI-Modelle datenschutzkonform testen — kostenlos mit PH-Account.

Zugang & Datenschutz
  • Login mit PH-Account (SSO)
  • Deutscher Betrieb — DSGVO-konform
  • Keine Nutzung der Eingaben zum Training
  • PH-KI-Richtlinie beachten (auf PH-Website verfügbar)
Funktionen
  • Verschiedene Modelle zum Testen (GPT-4o, Claude, Llama u.a.)
  • Chat-Interface im Browser
  • Ideal zum Vergleichen von Modellen
  • Gut geeignet für Lehre und Forschung
academiccloud.de/de/services/chatai/

Aufgabe: KI-Modelle vergleichen

Gleiche Prompts, verschiedene Modelle — Unterschiede verstehen (ca. 15 min)

1. Academic Cloud öffnen

2. Vergleichen & Testen

  • Gleichen Prompt an 2–3 Modelle
  • Systemprompt verändern (z.B. „Erkläre für Anfänger“)
  • Parameter testen: Temperatur (kreativ ↔ logisch), Top-p (vielfältig ↔ fokussiert)

3. Reflektieren

  • Welches Modell war am hilfreichsten?
  • Welche Einstellungen funktionierten?
  • Was sagt das über KI-Entscheidungen?
Beispiel-Prompt: Erkläre „Maschinelles Lernen“: Grundidee, Trainingsdaten, Beispiel Klassifikation, typische Grenzen

Häufiges Problem: Ungenaues Prompting

  • Unklare Aufgaben → unklare Antworten
  • KI muss Annahmen treffen (Ziel, Niveau, Format)
  • Ergebnisse oft:
    • zu allgemein
    • am Thema vorbei
    • uneinheitlich oder schwer vergleichbar
  • Fehlende Steuerung von Fokus, Tiefe und Ton
  • Problem liegt meist nicht bei der KI, sondern beim Prompt
Craft-Modell

Prompting mit dem CRAFT-Framework

Grundlage: https://kreidezeit.kiwi/gpt/craft.html

  • Ziel: Den gleichen Inhalt durch besseres Prompting gezielter steuern
  • Vergleich: „freier Prompt" vs. „CRAFT-strukturierter Prompt"
  • Vergleichen Sie die Antwort mit einem nicht strukturierten Prompt
  • Beobachten Sie Klarheit, Struktur und Zielgenauigkeit

Ausblick: Weltmodelle

Von Textvorhersage zu echtem Verständnis?

GenAI (GPT, Claude, ...)

Sagt das nächste Token voraus. „Remixt“ vorhandenes Wissen. Keine Kausalität.

Weltmodelle (Yann LeCun / AMI Labs)

Lernen aus Videos & Messdaten. Simulieren physikalische Realität. Verstehen Ursache & Wirkung.

  • Kausalität: Wind → Gegenstand fällt (nicht nur Korrelation)
  • Training: Videos, Temperatur, Feuchtigkeit statt Textkorpora
  • Ziel: Interne Simulation der Welt → Weg zu AGI?

Quelle: unidigital.news

Ziel dieser Veranstaltung

Praktische Erfahrung

Innerhalb eines eigenen Projekts mit KI-Integration praktische Erfahrungen sammeln.

Dokumentation auf Git

Erfahrungen und Wissen in einem eigenen Git-Repository dokumentieren — neues Repo auf git.md-phw.de

Offene Gestaltung

Thema frei wählbar nach Ihrem Interesse. Kein Schulkontext nötig.

Inputs & Support

Fachliche Inputs und Begleitung von uns. Projekte gerne in Zusammenarbeit oder als Integration in bestehende Projekte.