AI Perspectives: Wann vertrauen wir der KI blind?

🎤 DESY CONNECT EVENTS | vom 14. Juni '23

Mit dem großen Hype um ChatGPT ist die Künstliche Intelligenz (KI) in unserem Alltag angekommen und auch bei DESY wird KI in der Forschung genutzt. Vielen macht KI Angst, andere können nicht genug davon bekommen — doch verstehen tun es die wenigsten. Allerhöchste Zeit das weite Feld der KI zu beleuchten. Wir haben daher diesem spannenden Thema eine neue Event-Reihe gewidmet, denn "wir wollen KI verständlich machen“, sagt Katja Kroschewski, Leiterin des Relation Management bei DESY. Die Auftaktveranstaltung zu "AI Perspectives" fand am 14. Juni 2023 anlässlich der Helmholtz AI Conference und der Helmholtz Imaging Conference in Hamburg statt.

Header_AIPerspectives.jpg

AI Perspectives bietet ein interdisziplinäres Forum, um sich mit Apekten der KI auseinanderzusetzten. Bild: DALL·E 2 und DESY-PR

[Mehr]

Die Illustration zu AI Perspectives wurde von der Künstlichen Intelligenz DALL·E 2 kreiert. DALL·E 2 ist ein Algorithmus, der aus einer Beschreibung in natürlicher Sprache realistische Bilder und Kunstwerke erstellen kann. Mehr dazu hier.

Wir stehen an der Schwelle zur nächsten IT-Evolution: dem Einsatz von Künstlicher Intelligenz

KI betrifft nicht nur die Arbeit bei DESY und anderen Forschungsinstitutionen der Helmholtz-Gemeinschaft, sondern wird unsere Gesellschaft nachhaltig beeinflussen. Gemeinsam mit Expert:innen aus Naturwissenschaft, Technik, Philosophie, Musik und Kunst wollten wir daher der Frage nachgehen: Wann werden wir der KI trauen können? Denn, wie kommt die KI eigentlich zu einer Entscheidung? Und auf welchen Mechanismen beruht diese Entscheidung? Was ist, wenn die Maschine mit unbemerkten Verzerrungen trainiert wird? Dabei entstanden zwei Veranstaltungsformate: eines für KI-Expert:innen und eines für die Öffentlichkeit.

 

Stuhlkreis im Autoscooter — erster AI Perspectives-Expert:innenaustausch fand an einem ungewöhnlichen Ort statt

Zwei Konferenzen — ein gemeinsamer Tag. Das war der Auftakt der gemeinsamen “Unconference” der Helmholtz AI Conference und der Helmholtz Imaging Conference am 14. Juli 2023 auf dem Gelände der Kuppel Hamburg. Nur einen Katzensprung vom DESY-Nebeneingang entfernt, erstreckt sich dort ein weitläufiges Eventgelände das irgend etwas zwischen Zirkus und Jahrmarkt darstellt. Inmitten alter Karussells fand unser interdisziplinärer Expert:innen-Workshop auf der Fahrbahn eines Autoscooters statt.
Für alle, die es nicht wissen: eine “Unconference” ist ein Konferenzformat, bei dem die Teilnehmer:innen und nicht die Veranstalter:innen die Themen setzen, über die sie reden wollen. Für unser Vorhaben eines interdisziplinären Workshops zum Thema Explainabel AI (XAI) war das der perfekte Rahmen und die besondere Location beflügelte unsere Diskussion.
 

PXL_20230614_131938224.MP.jpg

Diskurs zwischen Autoscootern: Beim interdisziplinären Workshop zum Thema KI sind Teilnehmer:innen aus Physik, Information, Musik, Philosophie, Kunst, Theater, Biologie, Mathematik zusammengekommen. Bild: © Helmholtz Imaging, Jörg Modrow

Helmholtz_AI_Conference_0592.jpg

Auf der "Unconference" an ungewöhnlichen Orten diskutieren. Hier auf einem Kettenkarussell. Bild: © Helmholtz Imaging, Jörg Modrow.

“Hier höre ich zum ersten Mal das Thema Angst. Das gibt es in meiner science bubble nicht.”

Für die Initator:innen von AI Perspectives, bestehend aus Katja Kroschewski, Miriam Huckschlag und Klaus Ehret von DESY, Knut Sander und Katharina Kriegel von Helmholtz Imaging sowie dem Theaterregisseur Jari Niesner war es wichtig, unterschiedliche Denk- und Arbeitsweisen an einen Tisch zu bringen, um sich den Thema XAI möglichst vielfältig zu nähern, sich gegenseitig zu inspirieren und von einander zu lernen.

Vor welchen Herausforderungen steht beispielsweise der Kreativsektor, wenn KI nun Bilder malt und Songs komponiert. Wie kann XAI dabei helfen, Transparenz zu schaffen? Zwei der Workshop-Teilnehmern:innen, der Musiker Gregory Beller und die Künstlerin Anissa Tavara, integrieren KI bereits in ihre künstlerischen Arbeiten. Und doch schwebt auch Angst mit vor den unbekannten Folgen der KI. Wie verändert KI etwa die Wahrnehmung von Kunst und Künstler:innen, vom kreativen Schaffensprozess und vom Begriff des Eigentums?

Ein anderer Teilnehmer, Software-Ingenieur Lukas Klein vom Deutschen Krebsforschungszentrum Heidelberg, meinte dazu: “Hier höre ich zum ersten Mal das Thema Angst. Das gibt es in meiner science bubble nicht. Klar, sind die großen Diskussionen wie das Statement of AI Risk bekannt, aber die Forscherinnen und Forscher sind momentan von der Begeisterung getragen, dass so viele hilfreiche Anwendungen möglich sind, z.B. Radiologie, Wetter- und Klimavorhersagen.“

 

Braucht eine KI Werte? Interdisziplinäre Zusammenarbeit als Schlüssel für eine sichere Zukunft mit KI

Für die Workshop-Teilnehmer:innen war klar, dass die größte Herausforderung darin bestehe, KI-Programme erklärbar, transparent und sicher vor Missbrauch zu machen. Dies erfordere die Zusammenarbeit verschiedener Disziplinen, wie der Philosophie, Mathematik, Neurowissenschaft und Psychologie. Eine reale Gefahr entstehe beispielsweise, wenn KI selbst Entscheidungen trifft, ohne dass die Konsequenzen hinterfragt werden. “Es gibt ganze Forschungsbereiche, die sich mit der Einführung von Werten in KI befassen”, weiß der Philosoph Timo Freiesleben von der Universität Tübingen. Noch ist der Weg dahin lang und viele Fragen unbeantwortet.
 

KI-Expert:innen und Persönlichkeiten des öffentlichen Lebens äußern ihre Besorgnis über die Risiken der KI.
Helmholtz_AI_Conference_0628.jpg

Teilnehmer:innen unseres Workshops auf der "Unconference" im Gespräch. Bild: © Helmholtz Imaging, Jörg Modrow

Was ist überhaupt Explainable AI (XAI)?

Explainable AI, auch XAI genannt, bedeutet in der wörlichen Übersetzung “erklärbare KI”. XAI bezieht sich auf eine Reihe von Methoden und Techniken, die entwickelt wurden, um das Verständnis und die Erklärbarkeit von Modellen maschinellen Lernens zu verbessern. Bei der traditionellen KI sind nämlich die Entscheidungen und Vorhersagen von Modellen oft wie eine "black box" — man versteht nicht, warum das Modell zu einer bestimmten Entscheidung gekommen ist. Explainable AI dagegen zielt darauf ab, mehr Transparenz und Erklärbarkeit in den Entscheidungsprozess einzuführen, um schlussendlich Vertrauen in die Entscheidung herbeizuführen.

XAI bietet Tools und Methoden, um die inneren Arbeitsabläufe von KI-Systemen zu erklären, Faktoren zu identifizieren, die zu bestimmten Vorhersagen geführt haben, und die Auswirkungen von Eingabevariablen auf die Modellvorhersagen zu verstehen. Dadurch können Benutzer:innen und Entwickler:innen die Verlässlichkeit und Fairness der Modelle überprüfen, mögliche Vorurteile (Bias) erkennen und die Leistung der Modelle verbessern.

XAI ist besonders wichtig in Bereichen wie Gesundheits-, Finanz- und Rechtswesen, in denen transparente und nachvollziehbare Entscheidungen sehr wichtig sind.

"Wie viel Verantwortung gebe ich ab?"

Nach einem diskussionsreichen Nachmittag bei sommerlichen Temperaturen, ging es am Abend im DESY-Hörsaal bei einer Panel-Diskussion für die Öffentlichkeit interdisziplinär weiter. Die Frage „Wie viel Verantwortung gebe ich ab?“, stellte Edgar Weckert, DESY-Direktor für Forschung mit Photonen, gleich in seiner Begrüßungsrede in den Raum. DESYanerin Judith Katzy vom Leitungsausschuss Helmholtz AI wies in ihrer Eröffnung auf die fantastischen Machine Learning Methoden hin, „die früher schlicht undenkbar waren. Wir können mit KI in der Forschung Probleme viel schneller adressieren.“ Die Moderation des Abends übernahm Regisseur Jari Niesner. Mit auf dem Panel saßen der Musiker Gregory Beller, der Philosoph Timo Freiesleben, der Software-Experte Lukas Klein, die DESY-Physikerin Isabell Melzer-Pellmann und der IT-Spezialist Peter Steinbach.


“KI kann sich gut erinnern — Menschen können gut generalisieren“

Lukas Klein vom Deutschen Krebsforschungszentrum in Heidelberg fasste eine seiner Erkenntnisse so zusammen: „KI ist stark bei Anwendungen, die viel Wissen und Gedächtnis erfordern. Die KI vergisst nichts und kann schnell alles abrufen. KI kann sich also gut erinnern — Menschen sind im Generalisieren gut. Denn, sehe ich ein mir unbekanntes Tier mit Säbelzähnen, weiß ich: Gefahr! Wir wissen aber noch nicht genau, wie das Gehirn das macht.“ Die Demokratisierung der KI hielten alle Dikussionsteilnehmer:innen für einen entscheidenden Faktor, damit möglichst viele Leute an erklärbarer, verständlicher KI-Software arbeiten und davon partizipieren können. ”Wir sollten uns nicht darauf verlassen müssen, dass eine Firma sagt, doch doch, das ist schon alles ordentlich trainiert worden. Zum Glück schlägt Open Source sowieso die Konzerne. Das mussten die Konzerne selber feststellen — mehr Leute sind einfach schneller,“ resümiert Peter Steinbach und fand unter Applaus des Publikums gelungene Schlussworte.

Du findest die Aufzeichnung des Abends auch auf dem DESY-YouTube-Kanal.
 

Gesprächsrunde zum Thema Explainable AI
Während der Gesprächsrunde wurde LAION erwähnt, eine KI, die 100% open source ist.

Infos zu den Teilnehmer:innen des AI-Panels

Musiker, Komponist, Dozent, Wissenschaftler und Sound Künstler
Hochschule für Musik und Theater, Hamburg
Postdoc im Machine Learning in Science Cluster an der Universität Tübingen
Doctoral Fellow in der Interactive Machine Learning Group
Deutsches Krebsforschungszentrum, Heidelberg
Gruppenleiterin der CMS-DESY Group
Deutsches Elektronen-Synchrotron DESY, Hamburg
Theaterregisseur, Dramaturg, Autor und Künstler, Hamburg
Team Lead AI Consulting
Helmholtz-Zentrum Dresden-Rossendorf, Dresden
ConnectAlumninetzwerkaufTour.jpg

DESY CONNECT immer dabei. Wir freuen uns, dass wir während der Helmholtz AI Conference mit einem Stand dabei sein durften, um auf unser Alumni-Netzwerk aufmerksam zu machen. Ebenso sind wir davon begeistert, Eventformate zu aktuellen Themen wie diesen Gesprächsabend zum Umgang mit KI auszurichten. Hier in Aktion: unsere Studis Ridha Mohamed Abdallahi und Vladislav Litau. Bild: © Miriam Huckschlag

🤖 Wir freuen uns auf mehr!