Wir kennen es alle: ChatGPT durchsucht das Web oder Coding Agents bearbeiten eigenständig Dateien. Doch wie funktioniert das eigentlich im Hintergrund? LLMs liefern doch zunächst nur Text als Eingabe und Text als Ausgabe, oder? In dieser Session geht es hands-on an den zentralen Mechanismus, der aus einem Sprachmodell einen Agenten macht. Gleichzeitig entstehen praxisnahe Erkenntnisse für alle, die mit solchen Systemen arbeiten.
Gastgeber des Abends ist Red Bull. Fachlich durch die Session führt unter anderem Sebastian Landl, Data & AI Lead bei Gofore in der DACH-Region.
Agenda
- Einstieg: kompakter Überblick über LLMs und Agents, damit ein klares Verständnis für die zugrunde liegenden Mechanismen und die benötigten Tools entsteht.
- Praxis: Ausgangspunkt ist ein einfaches Projekt mit einer minimalistischen Chat-Oberfläche, in der bereits ein LLM integriert ist. Die zentrale Aufgabe besteht darin, dieses Setup so zu erweitern, dass das Modell vordefinierte Tools eigenständig aufrufen kann.
- Dann zeigt sich, ob ein kleines lokales LLM mit cleverem Tooling sogar Fragen beantworten kann, die für ChatGPT zu anspruchsvoll sind.