Aus unterschiedlichen Fachbereichen kommend, tauschten sich die Podiumsgäste untereinander und mit dem Publikum über eine große Bandbreite an Themen, unter anderem ihre Visionen für 2035, Auswirkungen auf die universitäre Lehre und Wissensvermittlung, den Unterschied von ChatGPT und Wikipedia sowie zu kritischen Perspektiven auf künstliche Intelligenz aus.
In ihrer Vision für einen Umgang mit KI in 10 Jahren waren sich Dr. Hermann Diebel-Fischer, Wissenschaftlicher Mitarbeiter im Bereich Ethik, und Robert Haase, Fortbildungskoordinator, beide vom ScaDS.AI, einig. Sie erhoffen sich von den Nutzer:innen eine kritische Distanz zu den generierten Daten, ein transparentes Teilen des genutzten Outputs und etablierte soziale Regeln zur Nutzung von KI.
Die studierte Designerin und Moderatorin Vanessa Kuhfs ordnete diesem Ideal die fünf Grundsäulen von „Responsible AI“ zu:
- Erklärbarkeit
- Fairness
- Robustheit
- Transparenz
- Sicherheit
Verstärkt KI das Verbreiten von Stereotypen und Vorurteilen?
Nora Freya Lindemann, Doktorandin in der Forschungsgruppe „Ethik und kritische Theorien der KI“ an der Universität Osnabrück, erweiterte die Diskussion um den Hinweis auf die Vorurteile, Stereotype, Klassismus (Diskriminierung von Menschen aufgrund des sozialen Status) und Ableismus (Diskriminierung aufgrund von psychischen und körperlichen Beeinträchtigungen), die in den Trainingsdaten für KI-Systeme enthalten sind. Der Umgang mit KI bedürfe daher unbedingt einer kritischen Begutachtung. Feministische Forschungsmethoden im Zusammenhang mit KI können dabei die Perspektiven erweitern.
Emma Hughes, Doktorandin am Institut für Kommunikations- und Medienwissenschaften stellte dazu ihr Forschungsprojekt Automating Welfare – Algorighmic Infrastructures for Human Flourishing in Europe (AUTO-WELF) vor, welches die Auswirkungen einer Automatisierung von wohlfahrtsstaatlichen Entscheidungsprozessen, beispielsweise der Zuweisung von Mutterschaftsgeld, untersucht.
Wichtig: Kritisches Hinterfragen, bewusste Nutzung und Diskussion von KI im Forschungsalltag
Moderatorin Kuhfs betonte zusammenfassend: „Für meinen eigenen wissenschaftlichen Alltag muss ich mich fragen: Wer profitiert von meiner Arbeit? Wer wird ausgegrenzt von meiner Arbeit?“ Ein dementsprechend kritisches Denken spielt also bei der Produktion, Interpretation und Nutzung KI-generierter Ergebnisse eine wichtige Rolle. Blinde Flecken oder Verzerrungen können so bewusst gemacht und hinterfragt werden.
Dabei sei, so zitierte Robert Haase die Deutsche Forschungsgemeinschaft (DFG), der Einsatz von KI (bei Antragstellungen) weder als positiv noch als negativ zu bewerten. Wir müssten lernen, Unschärfen auszuhalten und weiterhin Diskussionen über den ethischen Einsatz, Fairness und unsere Werte im Umgang mit künstlicher Intelligenz zu führen, so schloss Moderatorin Kuhfs die anderthalbstündige Diskussion.
Kommentare
Keine Kommentare gefunden!