Promotions- und Forschungskolloquium: Quelloffene Large Language Models (LLM) in der Anwendung

Fine-Tuning, Prompt Engineering oder Retrieval Augmented Generation (RAG): Welche Optimierung bringt den größten Mehrwert?

Prof. Dr. Florian Marquardt / Rico Herlt (TH Brandenburg)
Mod.: Dr. Kathleen Schumann (THB)

 - 

Digitale Veranstaltung

Seit OpenAI im Jahre 2022 mit GPT-3 der Welt den Kopf verdreht hat, sind Anwendungen mit Künstlicher Intelligenz in aller Munde. Jeder Hersteller wirbt mit KI-gestützter Software, bei der allerdings hochsensible und schützenswerte Daten ins Ausland übertragen werden. Wer keine Daten preisgeben möchte, hat mit den sich ebenfalls explosionsartig vermehrenden, quelloffenen LLMs die Möglichkeit, seine eigene private KI-Landschaft bereitzustellen. 

Im Rahmen dieser Arbeit sollen verschiedene Verfahren zur Optimierung der domänenspezifischen Antwortgenerierung von eigenständig betriebenen Open Source Sprachmodellen untersucht werden mit dem Ziel, branchenspezifisches Fachwissen und deren Fachsprache anhand unterschiedlicher Verfahren anzueignen. Die drei gängigsten Optimierungsmöglichkeiten sind Feinabstimmung (Fine-Tuning), Prompt Engineering und Retrieval Augmented Generation (RAG). Das Ergebnis soll in einer Rangliste Aufwand und Nutzen verschiedener Optimierungsverfahren darstellen.

Alle Interessierten sind herzlich eingeladen. Eine Anmeldung ist nicht erforderlich.

Weitere Termine dieser Veranstaltungsreihe

Das Kolloquium richtet sich an alle interessierten Promovierenden, Postdocs und Professor:innen. Es startet im Sommersemester 2025 und wird als regelmäßige Veranstaltung im Wintersemester 2025/26 weitergeführt werden. Die Veranstaltungen finden ca. alle 4 Wochen online statt.

03. Juli 2025: Partizipative Mobilitätsforschung im NUDAFA-Reallabor - interkommunal, transdisziplinär, innovativ

Link zur Online-Veranstaltung