"Die Arbeit des CReAITech soll zeigen, dass es möglich ist, verantwortungsvolle KI zu entwickeln, die der Gesellschaft dient."

Die Universität Augsburg (UNIA), die Technische Universität München (TUM) und die Hochschule für Philosophie München (HFPH) haben mit der Gründung in 2022 ein gemeinsames Zentrum zur Untersuchung und Entwicklung verantwortungsvoller KI-Innovationen geschaffen, das „Center for Responsible AI Technologies“. Wir haben die neue Geschäftsleitung des Centers, Kathrin Hertle, zum Interview getroffen und mit ihr über die Besonderheiten der Forschungseinrichtung gesprochen.

Kathrin Hertle, Copyright: privat

Welche ethischen Leitlinien und Prinzipien verfolgt das Center, um verantwortungsbewusste KI-Technologien zu fördern?

Grundsätzlich wollen wir im Center for Responsible AI Technologies (CReAITech) Künstliche Intelligenz ganzheitlich betrachten, d.h. von Beginn der Entwicklung über die Implementierung und Nutzung bis zu den langfristigen Folgen. Somit schauen wir auch auf alle involvierten Stakeholder. Das können beispielsweise Entwickler*innen, Betreiber*innen, Anwender*innen und alle Personen, die vom Output eines bestimmten KI-Systems „betroffen“ sind, sein, aber auch gesellschaftliche Gruppen, die Politik oder auch die Umwelt.

Wir schauen uns die Entwicklungs- und Anwendungsbereiche von KI-Systemen also nicht nur „von außen“ an, sondern die ethische Reflexion im CReAITech setzt da an, wo KI entwickelt wird. So wollen wir vertrauenswürdige KI und einen verantwortungsvollen Umgang ethisch mitgestalten. Dabei geht es z.B. darum, immanente Widersprüche zu identifizieren und aufzudecken, wo die gesellschaftlichen Ansprüche und ethischen Werte von den Entwickler*innen und Anwender*innen nicht eingelöst werden. Wir alle wollen, dass KI ein nützliches Werkzeug für uns Menschen ist, das Chancen für alle Menschen gleichermaßen eröffnet und uns hilft, die Probleme unserer Zeit besser zu lösen. Leider erleben wir allerdings auch, dass technologischer Fortschritt oft einseitig bleibt, z.B. nur nach ökonomischen Interessen entwickelt wird, und die unterschiedlichen ethisch-sozialen Dimensionen nicht berücksichtigt werden. Deshalb ist die Arbeit des CReAITech so wichtig: um zu zeigen, dass es möglich ist, verantwortungsvolle KI zu entwickeln, die der Gesellschaft dient.

Welche Forschungsschwerpunkte verfolgt das Center im Bereich der verantwortungsbewussten KI?

Wir haben vier strategische Felder definiert, in denen wir auf KI-Anwendungen schauen wollen. Das sind die Bereiche „Medizin, Pflege und Gesundheit“, „Zukunft der Arbeit“, „Mobilität“, sowie „Klima und Umwelt“. Ihr seht: die Bereiche sind sehr breit gehalten und haben natürlich auch Überschneidungen. Das haben wir bewusst so gehalten, da wir möglichst offen für unterschiedliche KI-Einsatzbereiche sein wollen – genauso wie für die Einbindung unterschiedlicher Forschungsdisziplinen.

Unser aktuelles Forschungsprojekt MedAIcine ist, wie der Name schon verrät, im Bereich Medizin angesiedelt, und analysiert die sozialen und ethischen Auswirkungen, die bei der Entwicklung und Nutzung von KI-Systemen in der medizinischen Bildgebung auftreten. Dazu haben wir uns zwei Fälle in der Dermatologie und Radiologie angeschaut und mit Entwickler*innen, Ärzt*innen und Patient*innen gesprochen. Welche Vorstellungen fließen bei der Entwicklung und Nutzung der KI ein, welche impliziten Erwartungen und Wünsche haben die jeweils involvierten Personen an die KI? Wie beeinflusst die Technologie die berufliche Praxis und das Ärzt*innen-Patient*innen-Verhältnis? Was macht der Einsatz von KI-Diagnosetools mit den Patient*innen? Das sind beispielhafte Fragen, die sich unsere Forscher*innen gestellt haben. Die Erkenntnisse und Schlussfolgerungen werden gerade in wissenschaftliche Publikationen überführt und vermutlich Ende des Jahres veröffentlicht.

Natürlich gibt es auch schon einige Ideen für neue Forschungsprojekte. Dafür formulieren wir aktuell Forschungsanträge und denken über die Einbindung zusätzlicher Forschungspartner*innen aus dem Netzwerk der Partnerunis (TUM, Uni Augsburg, HFPH) nach, aber auch darüber hinaus. Wir hoffen, schon bald mit einem neuen, spannenden Projekt starten zu können!

Welche Rolle spielt die Philosophie im Ansatz des Centers zur verantwortungsbewussten KI?

KI stellt uns vor diverse Herausforderungen, sowohl technologisch als auch rechtlich, geopolitisch, gesellschaftlich und ethisch. Sie wirft viele gesellschaftliche Grundsatzfragen auf, weil sie in unterschiedlichste Bereiche unseres Lebens Einzug halten wird. Wie wir heute über KI nachdenken und welche Antworten wir finden, welche Weichen wir also stellen, wird einen großen Einfluss darauf haben, wie sich diese Technologie langfristig auf unsere Gesellschaft auswirkt. Grundsatzfragen zu diskutieren ist eine Kernaufgabe der Philosophie. Fragen, die sich die Philosophie in Bezug auf KI beispielsweise stellt, sind: Wie kann es gelingen, die Zusammenarbeit von Mensch und Maschine so zu gestalten, dass sich Chancen für alle Menschen gleichermaßen eröffnen? Unter welchen Bedingungen sollen bestimmte KI-Systeme lernen und sich weiterentwickeln? Was bedeutet persönliche Verantwortung, wenn KI einen großen Anteil an unseren Entscheidungen hat? Was bedeutet Autonomie im Hinblick auf KI und wie können wir sicherstellen, dass der Mensch weiterhin mitentscheidet, wann, wo und wie KI eingesetzt wird? Die Philosophie kann helfen, Antworten darauf zu finden. Im Center for Responsible AI Technologies soll aber keine losgelöste philosophisch-abstrakte Diskussion über KI entstehen, sondern immer in Verbindung mit der soziologischen und technologischen Perspektive gebracht werden. Denn genau diese integrierte Betrachtung macht es möglich, die Technologie und ihre Anwendung realistisch und sinnvoll mitzugestalten und vorbereitet zu sein, auf was sie uns bringen wird.

Wie arbeitet das Center mit der Industrie zusammen, um sicherzustellen, dass KI-Technologien verantwortungsvoll entwickelt und eingesetzt werden?

Bei unserem aktuellen Projekt MedAIcine waren in einem Use Case unter anderem Entwickler*innen von medizinischen Geräten involviert. Wie schon erwähnt, hat uns hier vor allem interessiert, unter welchen Bedingungen die KI-gestützten Diagnosetools entwickelt werden, wo und wie womöglich Bias, Diskriminierung oder Intransparenz entstehen, um im Anschluss Lösungen dafür zu finden.

Ansonsten geben wir bei verschiedenen Veranstaltungen immer mal wieder Impulsvorträge oder berichten aus unserer Forschung, wie z.B. Netzwerktreffen der Industrie oder praxisnahen Konferenzen wie zuletzt bei der Digitalkonferenz sparkscon. Außerdem sind wir eng vernetzt mit dem KI-Produktionsnetzwerk der Universität Augsburg, wo wir in Projekten zu KI-gestützten Produktionstechnologien die ethische Perspektive einbringen. Zudem versuchen wir auch, das Thema verantwortungsvolle KI in den gesellschaftlichen Diskurs mit Bürger*innen zu bringen. Beispielsweise durch die Teilnahme an der Langen Nacht der Wissenschaft oder Veranstaltungsformaten wie öffentliche Podiumsdiskussionen. Hier könnt ihr euch den 30. Oktober 2024 schon mal im Kalender notieren – da wird es eine Veranstaltung mit spannenden Gästen an der HFPH geben, mit dem Titel „Can AI be responsible?“.

Für die Zukunft sind wir weiter offen für gemeinsame Forschungsprojekte mit Partner*innen aus der Praxis. Wir loten gerade aus, was wir uns hier konkret vorstellen können.

2025 wird die Hochschule für Philosophie 100 Jahre alt. Was wünscht Du der Hochschule in Verbindung mit dem Center?

Ich wünsche der HFPH zu ihrem Geburtstag, dass sie weiterhin so offen mit den Themen und Veränderungen unserer Zeit geht und so engagiert bleibt, was die Zusammenarbeit mit anderen Disziplinen und Institutionen angeht.

 

Zur Person:

Kathrin Hertle ist seit Mai 2024 Geschäftsleiterin des Center for Responsible AI Technologies (CReAITech). Sie hat Kommunikationswissenschaft, Wirtschaftswissenschaften und Medienökonomie an der Ludwig-Maximilians-Universität München und der Bauhaus Universität Weimar studiert, sowie ein berufsbegleitendes Zertifikatsstudium im Fach Wirtschaftsethik an der Hochschule für Philosophie absolviert. Vor ihrer Zeit beim CReAITech war sie im Bereich Strategie, Innovation und Transformation in der Unternehmensberatung und im Konzernumfeld tätig.

Weitere Informationen zum Center for Responsible AI Technologies (CreAITech) finden Sie hier: center-responsible-ai.de