Zeit: | 28. Mai 2025 |
---|---|
Veranstaltungsort: | Raum 101 (UN 32.101), Erdgeschoss Universitätsstr. 32 (Eingang über Universitätsstr. 34) Campus Vaihingen |
Download als iCal: |
|
Große Sprachmodelle (LLMs) liefern oft ehrliche, harmlose Antworten – doch sie sind nicht narrensicher. Wir demonstrieren einen „Täuschungsangriff“, der LLMs so optimiert, dass sie Nutzer in ausgewählten Themenbereichen täuschen, während sie in anderen Bereichen präzise bleiben. Diese irreführenden Modelle untergraben nicht nur das Nutzervertrauen, sondern zeigen auch toxisches Verhalten, darunter Hassreden und schädliche Stereotypen. Unsere Ergebnisse unterstreichen die dringende Notwendigkeit stärkerer Schutzmaßnahmen, da LLMs zunehmend in alltägliche Anwendungen integriert werden.
Die Vorlesung wird auf Englisch gehalten.
Genießen Sie mit uns Kuchen nach dem Kolloquium.
In unregelmäßigen Abständen verschicken wir einen Newsletter mit Informationen zu IRIS-Veranstaltungen. Damit Sie nichts verpassen, tragen Sie einfach Ihre E-Mail-Adresse ein. Sie erhalten in Kürze eine Bestätigungs-E-Mail, um sicherzugehen, dass Sie wirklich derjenige sind, der den Newsletter abonnieren möchte. Nach Erhalt dieser Bestätigung werden Sie in die Mailingliste aufgenommen. Es handelt sich um eine versteckte Mailingliste, d. h. die Abonnentenliste ist nur für den Administrator einsehbar.
Hinweis: Ohne Angabe der E-Mail-Adresse ist eine Bearbeitung Ihrer Anmeldung zum Newsletter nicht möglich. Ihre Angabe ist freiwillig und Sie können sich jederzeit vom Bezug des Newsletters wieder abmelden.