Promotions- und Forschungskolloquium: Quelloffene Large Language Models (LLM) in der Anwendung

Fine-Tuning, Prompt Engineering oder Retrieval Augmented Generation (RAG): Welche Optimierung bringt den grĂ¶ĂŸten Mehrwert?

Prof. Dr. Florian Marquardt / Rico Herlt (TH Brandenburg)
Mod.: Dr. Kathleen Schumann (THB)

 - 

Digitale Veranstaltung

Seit OpenAI im Jahre 2022 mit GPT-3 der Welt den Kopf verdreht hat, sind Anwendungen mit KĂŒnstlicher Intelligenz in aller Munde. Jeder Hersteller wirbt mit KI-gestĂŒtzter Software, bei der allerdings hochsensible und schĂŒtzenswerte Daten ins Ausland ĂŒbertragen werden. Wer keine Daten preisgeben möchte, hat mit den sich ebenfalls explosionsartig vermehrenden, quelloffenen LLMs die Möglichkeit, seine eigene private KI-Landschaft bereitzustellen. 

Im Rahmen dieser Arbeit sollen verschiedene Verfahren zur Optimierung der domĂ€nenspezifischen Antwortgenerierung von eigenstĂ€ndig betriebenen Open Source Sprachmodellen untersucht werden mit dem Ziel, branchenspezifisches Fachwissen und deren Fachsprache anhand unterschiedlicher Verfahren anzueignen. Die drei gĂ€ngigsten Optimierungsmöglichkeiten sind Feinabstimmung (Fine-Tuning), Prompt Engineering und Retrieval Augmented Generation (RAG). Das Ergebnis soll in einer Rangliste Aufwand und Nutzen verschiedener Optimierungsverfahren darstellen.

Alle Interessierten sind herzlich eingeladen. Eine Anmeldung ist nicht erforderlich.

Weitere Termine dieser Veranstaltungsreihe

Das Kolloquium richtet sich an alle interessierten Promovierenden, Postdocs und Professor:innen. Es startet im Sommersemester 2025 und wird als regelmĂ€ĂŸige Veranstaltung im Wintersemester 2025/26 weitergefĂŒhrt werden. Die Veranstaltungen finden ca. alle 4 Wochen online statt.

03. Juli 2025: Partizipative MobilitÀtsforschung im NUDAFA-Reallabor - interkommunal, transdisziplinÀr, innovativ

Link zur Online-Veranstaltung

InNoWest-Chatbot