Zeit: | 26. März 2025 |
---|---|
Veranstaltungsort: | Raum 131 (UN 32.131), Erdgeschoss Universitätsstr. 32 (Eingang über Universitätsstr. 34) Campus Vaihingen |
Download als iCal: |
|
Die heutigen großen Sprachmodelle (LLMs) sind hervorragend darin, überzeugende Antworten auf ein breites Spektrum von Anfragen zu liefern, wobei ihre Konversationsfähigkeiten es ihnen ermöglichen, sich eng an die Bedürfnisse der Benutzer anzupassen. Allerdings ist diese Anpassungsfähigkeit nur so lange von Vorteil, wie die Modelle robust genug sind, um falsche Aussagen aus Benutzereingaben nicht zu übernehmen.
Neueste Forschungen zeigen, dass selbst fortgeschrittene Modelle wie GPT-4 im Verlauf von Gesprächen mit mehreren Wendungen von anfangs korrekten zu falschen Antworten wechseln können, allein durch die Eingaben der Benutzer. In meinem Vortrag werde ich meine Forschung präsentieren, die untersucht, wie Unsicherheit in LLMs Einblicke in ihre Robustheit gegenüber Überzeugungsversuchen bieten kann, während ich gleichzeitig die spezifischen Herausforderungen bei der Quantifizierung von Unsicherheit in diesen Modellen hervorhebe.
Die Vorlesung wird auf Englisch gehalten.
Im Anschluss laden wir zu lockerem Austausch bei Fingerfood und Kaffee ein.
In unregelmäßigen Abständen verschicken wir einen Newsletter mit Informationen zu IRIS-Veranstaltungen. Damit Sie nichts verpassen, tragen Sie einfach Ihre E-Mail-Adresse ein. Sie erhalten in Kürze eine Bestätigungs-E-Mail, um sicherzugehen, dass Sie wirklich derjenige sind, der den Newsletter abonnieren möchte. Nach Erhalt dieser Bestätigung werden Sie in die Mailingliste aufgenommen. Es handelt sich um eine versteckte Mailingliste, d. h. die Abonnentenliste ist nur für den Administrator einsehbar.
Hinweis: Ohne Angabe der E-Mail-Adresse ist eine Bearbeitung Ihrer Anmeldung zum Newsletter nicht möglich. Ihre Angabe ist freiwillig und Sie können sich jederzeit vom Bezug des Newsletters wieder abmelden.