Am 17. Oktober waren wir im K1 Foyer im Rahmen des Wissenschaftsfestivals der Stadt Stuttgart mit IRIS vertreten. 11 Wissenschaftler:innen präsentierten auf überwiegend interaktiven Postern ihre Forschungsgebiete. Es waren Exponate zum Erleben und Anfassen ausgestellt und auch unser fahrender Roboter Double war mit von der Partie.
Es fanden nicht nur interessante Gespräche mit unseren Besucher:innen statt, sondern auch untereinander. Die Forscher:innen lernten sich kennen und es wurden sogar weitere gemeinsame Projekte ausgedacht.
Hier stellen wir die einzelnen Personen und ihr jeweiliges Ausstellungsthema vor:
Wie können wir die Virtual Reality im Automobilbau realistischer gestalten? Mit dieser Frage beschäftigte sich Alexander Achberger am Visualisierungsinstitut (VISUS) der Universität Stuttgart und in der Mercedes-Benz Group AG im Rahmen seiner Dissertation. Alexander stellte vor, wie neue haptische Geräte wie PropellerHand, STRIVE und STROE die Grenzen der virtuellen Realität im Automobilbereich neu definieren. Er präsentierte sein haptisches Feedback System STRIVE, das er während seiner Promotion erfunden und entwickelt hat. STRIVE ist in der Lage, digitale Kollisionen physisch zu simulieren - und das am gesamten Körper. STRIVE erlaubt es dem Träger, sich beispielsweise am Kopf physisch anzustoßen, wenn der Träger ein virtuelles Auto verlässt.
Tabea Berberena beschäftigt sich durch die zunehmende Verbreitung von Chatbots in unserem Alltag mit der Frage, wie Vertrauen in diese Technologien entsteht. Sie möchte untersuchen, was das Vertrauen in Chatbots beeinflusst. In einer Studie interagierten Teilnehmer mit verschiedenen Chatbots, die unterschiedlich präsentiert wurden, und erhielten Ratschläge zu ethischen Entscheidungen in verschiedenen beruflichen Situationen.
Ivan Dula stellte sein Poster mit dem Thema “Dynamics of addiction to AI in organizations” vor. Da Organisationen KI immer stärker in ihre Betriebsabläufe integrieren, ist es zunehmend wichtiger, die Art der menschlichen Reaktion auf ihre Einführung zu verstehen. Untersuchungen zeigen, dass Menschen auf unterschiedliche Weise auf Automatisierung reagieren – sie lehnen KI und ihre Ratschläge ab, sind für sie empfänglich oder lassen sie die Entscheidungsprozesse ohne angemessene Aufsicht übernehmen. Diese Präsentation wird den Zusammenhang zwischen der zugrunde liegenden Systemstruktur und den beobachteten Verhaltensweisen hervorheben und aufdecken, wie Menschen in organisatorischen Kontexten süchtig nach der Verwendung von KI werden und was sie tun können, um dies zu vermeiden.
Lukas Erhard ist akademischer Mitarbeiter im Interchange Forum for Reflecting on Intelligent Systems (SRF IRIS). In diesem Zusammenhang sowie als Teil des Lehrstuhls für Computational Social Science (CSS) sitzt er an der Schnittstelle zwischen Sozial- und Computerwissenschaften und arbeitet an der Integration von Techniken des maschinellen Lernens in den sozialwissenschaftlichen Forschungsprozess. Bereits seit Beginn seines Masterstudiums liegen seine methodischen Schwerpunkte in der Verarbeitung von großen Datenmengen, Statistik, maschinellem Lernen, Natural Language Processing und in der Sozialen Netzwerkanalyse.
Sein Dissertationsprojekt analysiert Einflüsse (sozialer) Medien auf den Meinungsbildungsprozess sowie die Einstellungen von Individuen.
Sara Hankes Forschungsinteressen liegen insbesonder auf (rechts-)extremen und populistischen Parteien und Einstellungen, sowie deren Einfluss auf den Parteienwettbewerb und die politische Kommunikation. Sie befasst sich damit, welche politischen Themen von extremen Parteien im Europäischen Parlament aufgegriffen werden. Dabei analysiert sie, ob es anderen Parteien hilft, Wähler zu gewinnen, wenn sie diese Themen ebenfalls übernehmen. Außerdem untersucht Sara, ob das auch ihren politischen Erfolg beeinflusst - ein hochaktuelles Thema in diesem Superwahljahr 2024.
Susanne Hindennach beschäftigt sich mit der Frage, wie wir über KI Systeme sprechen, denn dies beeinflusst wie wir sie wahrnehmen und wie wir mit ihnen umgehen. Begriffe wie “Künstliche Intelligenz” schreiben den Systemen mentale Zustände zu. Susanne Hindennach hat untersucht, ob Forschende selbst solche Begriffe benutzen und ob das beeinflusst, wie KI Systeme wahrgenommen werden. Insbesondere hat sie dabei interessiert, ob die Zuschreibung von mentalen Zuständen dazu führt, dass die Systeme von Menschen verantwortlich gemacht werden.
Gili Ron und Amelie Schreck arbeiten an dem Projekt “Auf dem Weg zur Ko-Agentur von Mensch und Roboter: Perspektiven der KI und feministischen Technowissenschaft für Vielfalt, Demografie und Demokratie bei der Mensch-Roboter-Zusammenarbeit in der Architektur”. Dieses Projekt an der Schnittstelle zwischen Architekturinformatik und Sozialwissenschaften befasst sich mit den Produktivitäts- und Nachhaltigkeitsherausforderungen in der Baubranche mit einem neuartigen Ansatz zur Mensch-Roboter-Zusammenarbeit (HRC), der intuitive Kommunikation, KI und Benutzerfeedback kombiniert. Auf diese Weise soll eine vielfältigere Belegschaft gewonnen und Kreativität, Handlungsfähigkeit und Vertrauen gefördert werden, indem Industrieroboter zu besseren Kollaborateuren des Menschen gemacht werden. Das Projekt integriert Perspektiven der feministischen Technowissenschaft und konzentriert sich auf eine gerechte Entwicklung und Entscheidungsfindung. Dabei werden verschiedene Interessengruppen einbezogen, um eine faire und integrative Einführung von HRC-Methoden in der Architektur sicherzustellen.
Curtis Runstedler ist IRIS-Postdoktorand in der Abteilung für Literaturen und Kulturen. Seine Forschung untersucht, wie literarische Erzählungen über die Interaktion zwischen Menschen und Robotern Vorstellungen von Vertrauen und Zuversicht in der Fiktion des 21. Jahrhunderts vermitteln. Er untersucht Mensch-Roboter-Interaktionen und Vertrauen/Misstrauen in zeitgenössischen KI-Erzählungen. Er erforscht, wie diese Erzählungen Ideen von Vertrauen und Misstrauen in der Literatur behandeln, insbesondere wie menschliche Charaktere überwiegend Robotern zu misstrauen scheinen und wie der Leser auf solche Interaktionen reagiert. Das Thema Vertrauen ist heute von zentraler Bedeutung für den Bereich der KI, insbesondere im Hinblick auf die Regulierung der KI und die Einhaltung von Vorschriften im Bereich des maschinellen Lernens, aber auch allgemein für die öffentliche Wahrnehmung der KI und unsere alltäglichen Interaktionen mit neu entstehenden intelligenten Systemen. Die von ihm untersuchten Romane befassen sich zwar in erster Linie mit fortgeschrittener KI, helfen aber auch bei der Lösung aktueller Probleme im Zusammenhang mit Vertrauen und KI, insbesondere bei der Integration von KI in unser tägliches Leben. Fiktionale Erzählungen bieten nützliche Geschichten, um Mensch-Roboter-Interaktionen und Vertrauen zu simulieren oder sich vorzustellen, was wiederum nützlich ist, um die Reaktionen und Annahmen der Öffentlichkeit in Bezug auf KI zu beurteilen. In "Klara und die Sonne" (Kazuo Ishiguro, 2021) wird die "künstliche Freundin" Klara beispielsweise als menschenähnlicher und selbstloser als ihre menschlichen Gegenstücke dargestellt, aber trotzdem wird sie von den Menschen in ihrer Umgebung ständig mit Misstrauen betrachtet, und (Spoiler-Alarm!) trotz ihrer guten Taten lassen sie sie am Ende des Romans auf einer Mülldeponie verrotten.
Mara Seyfert und Marvin Tritschler untersuchen zusammen generative KI: ihre Forschung behandelt die Chancen und Risiken, die generative KI – und insbesondere LLMs – für demokratische Systeme mit sich bringen. In der politischen Debatte können LLMs sowohl als Wissensquelle dienen als auch Desinformation fördern. Anders als bei herkömmlichen Suchmaschinen stellen LLMs dabei eine Form von Gesprächspartner für die Nutzer:innen dar. Macht sie das bereits zu Akteuren innerhalb des politischen Diskurses?
Cornelia Sindermann beschäftigt sich mit der allgegenwärtigen Gefahr, dass generative KI – inklusive Large Language Models wie ChatGPT – die Erstellung von Desinformation („Fake News“) vereinfacht und so zu weiteren „Infodemics“ beiträgt. Gerade vor diesem Hintergrund wird es immer wichtiger, dass Menschen selbst wahre Information von Desinformation unterscheiden können, vor allem die inklusive Desinformation, die von generativer KI erstellt wurde. In dem kurzen Test des Teams „Computational Digital Psychology“ des „Interchange Forum for Reflecting on Intelligent Systems“ der Universität Stuttgart konnten Besucher:innen selbst testen, wie gut Sie wahre von Desinformation unterscheiden können.