Prof. Nicola Marsden: Faire KI ist möglich

Prof. Marsden beim Vortrag über über künstliche Intelligenz

Nicola Marsden, Professorin für Sozioinformatik an der Hochschule Heilbronn, Fakultät Informatik (IT) spricht über KI und Sexismus.

Künstliche Intelligenz (KI): Risiken und Chancen

Künstliche Intelligenz (KI) ist seit der Veröffentlichung von ChatGPT in aller Munde. Wo entstehen aus Ihrer Sicht Risiken beim Einsetzen von Künstlicher Intelligenz?

Nicola Marsden: Künstliche Intelligenz ist ein Werkzeug – und wie mit allen Werkzeugen entstehen dort Risiken, wo Menschen sich nicht ihrer Verantwortung beim Einsatz des Werkzeugs bewusst sind. Dabei braucht es keine Absicht, unverantwortlich zu handeln. Wenn ich ChatGPT frage, was und von wem die bedeutendsten Werke der Philosophie sind, bekomme ich eine Liste mit zehn Männernamen. Das ist sexistisch – und die KI sorgt zudem dafür, dass dieser Sexismus fortgeführt wird und sich verstärkt. 

Hier hat niemand vorsätzlich sexistisch gehandelt. Wir sprechen hier von „Verantwortungsdiffusion“*: Niemand fühlt sich verantwortlich, weil irgendwie alle verantwortlich sind, die an dem System mitgewirkt haben – aber niemand hat die Notwendigkeit oder die Möglichkeit gesehen, hier korrigierend einzugreifen.

 

Hat KI Nachteile für Frauen? In welchen Bereichen vor allem?

Nicola Marsden: Künstliche Intelligenz kann in der Tat Nachteile für Frauen mit sich bringen, insbesondere aufgrund der Verzerrungen und Vorurteile in den zugrunde liegenden Daten. Ein Beispiel dafür ist die Benachteiligung von Frauen bei Jobplattformen. Aufgrund bestehender Geschlechtervorurteile werden Frauen in den Vorschlagsalgorithmen oft schlechter gerankt, was zu weniger Verdienstmöglichkeiten führt.

Ein weiteres Beispiel betrifft den Bereich der Medizin. Hier werden Krankheiten von Frauen oft nicht richtig diagnostiziert, weil Daten fehlen. Zum Beispiel dann, wenn die Daten hauptsächlich aus Studien stammen, an denen nur Männer teilgenommen hatten. Zum anderen deshalb, weil existierende Vorurteile von Ärztinnen und Ärzten die Schmerzen von Frauen weniger ernst nehmen oder sie auf psychische Probleme zurückführen. Solche Vorurteile finden sich dann in KI-gestützten Diagnoseverfahren wieder: Herz-Kreislauf-Erkrankungen werden bei Frauen häufiger nicht erkannt oder fehldiagnostiziert. 

Wenn Daten für KI-Anwendungen unsachgemäß ausgewählt oder nicht angemessen bereinigt werden, können bereits vorhandene geschlechtsbezogene Vorurteile verstärkt werden. Dies kann zu einer Benachteiligung von Frauen führen, wie zum Beispiel bei der automatisierten Vorauswahl von Bewerbungen, was den Gender Pay Gap* (schlechtere Bezahlung von Frauen gegenüber Männern) und die Unterrepräsentation von Frauen in bestimmten Berufsfeldern verstärkt.

Genauso wie wir uns darauf verlassen können, dass wir beim Bäcker herausfinden können, welche Zutaten und Allergene in einem Brot sind, brauchen wir auch für KI-Systeme Transparenz.

Nicola Marsden, Professorin für Sozioinformatik

Wie kann man diesen Nachteilen begegnen?

Nicola Marsden: Die Methoden und Möglichkeiten, um KI-Systeme fair und transparent zu gestalten, sind heute schon vorhanden. Es gilt, sie zum Einsatz zu bringen. Um hier wirklich die Interessen der Nutzenden in den Blick zu nehmen, brauchen wir geeignete Rahmenbedingungen – hier liegt für die EU eine große Chance, diese zu schaffen. Genauso wie wir uns darauf verlassen können, dass wir beim Bäcker herausfinden können, welche Zutaten und Allergene in einem Brot sind, brauchen wir auch für KI-Systeme Transparenz.

 

Wie kann man zum Beispiel ein genderneutrales Trainieren von KI erreichen?

Nicola Marsden: Mit der Genderneutralität ist es so eine Sache: Daten sind eben nicht genderneutral, vielmehr dürfen wir, um Diskriminierungen wirksam zu begegnen, Geschlecht nicht unsichtbar machen. Wir müssen sicherstellen, dass bei der Datenerfassung und -verarbeitung eine ausreichende Anzahl von Datenpunkten für alle Geschlechter vorhanden ist. Hierbei sollten auch Aspekte wie Alter, ethnischer Hintergrund und sozioökonomische Unterschiede berücksichtigt werden.

Das heißt also paradoxerweise: Wenn wir wollen, dass Geschlecht keine Rolle mehr spielt, müssen wir ihm besondere Aufmerksamkeit widmen. Nur dann können wir existierende Ungerechtigkeiten korrigieren. Es funktioniert nicht, Geschlecht einfach wegzulassen – dann kommt es über sogenannte Proxies wieder in die KI-Systeme hinein. Dafür wurden zum Beispiel Kreditvergabealgorithmen kritisiert. Sie hatten Geschlecht explizit nicht beachtet, was dann aber über mit Geschlecht korrelierenden Faktoren zu einer geringeren Kreditvergabe an Frauen geführt hat.

 

Sie arbeiten in einem Projekt in dem KI dazu genutzt wird, Ungleichbehandlungen und Diskriminierungen ausfindig zu machen. Wie muss man sich diese Anwendung vorstellen?

Nicola Marsden: In unserer Anwendung geht es um die Erfahrungen von Gründerinnen, die im Gründungsprozess unterschiedlichen Bewertungsmustern unterworfen sind wie Gründer. Gründerinnen können der Anwendung schildern, was sie erlebt haben – sie erhalten dann eine Einschätzung, inwieweit es sich hier um Diskriminierung handelt. Und sie können im Rollenspiel trainieren, auf diskriminierende Aussagen angemessen zu reagieren. Das kann letztendlich Frauen im bei der Unternehmensgründung unterstützen und stärken. Mehr dazu findet man auf unserer Website.

 

Halten Sie die Sorge über die Gefahr einer unkontrollierbaren, superintelligenten KI, die uns Menschen beherrscht, für realistisch?

Nicola Marsden: Ich glaube, die Gefahren lauern weniger in „einer“ KI, die vorsätzlich und womöglich mit Bewusstsein Dinge tut, die der Menschheit schaden. Schon heute kann KI für uns gefährlich werden, zum Beispiel wenn sie dazu verwendet wird, gezielt falsche oder irreführende Informationen zu verbreiten oder die öffentliche Meinung zu manipulieren. Dies könnte zu gesellschaftlicher Desinformation und Instabilität führen. 

Überall, wo wir mit digitalen Produkten umgehen – und das sind mittlerweile fast alle Lebensbereiche – können KI-gesteuerte Angriffe Schaden anrichten. Aber auch die Ungerechtigkeit, die entsteht, wenn KI nur für bestimmte Teile der Welt oder der Menschheit nutzbar ist und dann auch nur für diese optimiert wird, kostet Menschenleben, weil sich dies auf den Zugang zu Gesundheitsversorgung, Bildung oder Nahrungssicherheit auswirkt.

 

Was halten Sie vom sechsmonatigen Moratorium für das Trainieren von KI-Systemen?  

Nicola Marsden: Neben der Frage nach der praktischen Umsetzbarkeit einer solchen Entwicklungspause ist es zunächst interessant, dass Personen und Organisationen, die bisher davon profitiert haben, dass sie eben nicht respektvoll mit Daten der Nutzenden umgegangen sind und dass sie nicht daran arbeiten, ihre KI transparent und erklärbar zu machen, nun für ein Moratorium plädieren. 

Denn die Methoden und Möglichkeiten, KI besser zu gestalten, gibt es schon heute, dazu brauchen wir kein Moratorium. Deshalb kann die Antwort auf die Gefahren durch KI aus meiner Sicht nicht sein, eine KI-Entwicklungspause einzulegen. Angesichts der oben dargestellten Gefahren müsste es ja eher darum gehen, nicht nichts zu machen, sondern KI anders zu machen: besser, fairer, gerechter verteilt, erklärbar und transparent. 

 

Sie forschen schon lange im Bereich Frauen und Techberufe. Was muss sich in den Unternehmen verändern, dass mehr Frauen in Tech-Berufe einsteigen und dort auch bleiben?

Nicola Marsden: Immer mehr Tech-Firmen arbeiten daran, Ihre Teams diverser aufzustellen – denn Diversität in allen Kategorien bringt innovativere Produkte und mehr Umsatz. 

Damit mehr Frauen in Tech-Berufe einsteigen, muss IT-Bildung grundsätzlich zur Normalität werden. Informatikunterricht verpflichtend für alle, schon ab der Grundschule, ist ein wichtiger Baustein. Techberufe und Techbildung müssen für Frauen normal werden. Dadurch, dass KI dazu führen wird, dass auch die Programmierung neuer Systeme künftig stärker über natürliche Sprache – wo Frauen ja stereotyperweise mehr Kompetenz zugeschrieben wird – erfolgen wird, könnte es auch sein, dass es hier zu Veränderungen kommt. Das muss aber nicht so sein, schließlich war Programmieren früher ein Frauenberuf, der erst dann zum Männerberuf wurde, als das Ausmaß der Einfluss- und Gestaltungsmöglichkeiten durch Programmieren wuchs. 

Hat sich eine Frau für die Techbranche entschieden, bedeutet das nicht automatisch, dass sie auch bleibt. Im Alter von 30 Jahren sind noch 20 Prozent Frauen (mit IT-Ausbildung oder –Studium) im Tech-Bereich tätig, bei den 45-Jährigen nur noch neun Prozent. Das ist ein hoher Verlust. Der kostet Unternehmen viel Geld, aber auch Innovationspotenzial, denn diverse Teams arbeiten erfolgreicher.

Dabei wünschen sich Frauen in der IT vor allem, dass sie gleiche Bedingungen vorfinden: in ihrer Kompetenz anerkannt werden, Wertschätzung erfahren, Vorbilder haben, dazugehören. Aber in unseren Studien mit über 1000 Frauen zeigte sich, dass sie anders behandelt und anders eingeschätzt werden als Männer. Das passiert unabsichtlich – deshalb ist es wichtig, im Alltag sogenannte „Bias Interrupters“* einzubauen. Das sind Änderungen in alltäglichen Praktiken, die dazu führen, dass unsere Vorurteile nicht zum Tragen kommen. Meist sind es Kleinigkeiten, zum Beispiel, dass in einem Meeting reihum alle aufgefordert werden, sich zu einem Thema zu äußern, anstatt offen in die Runde zu fragen. 

 

Welchen Weg würden Sie Frauen empfehlen, die beruflich mit KI arbeiten wollen? 

Nicola Marsden: Insgesamt gehe ich davon aus, dass die Grenze zwischen Tech und Nicht-Tech durchlässiger wird. Es wird künftig kaum noch Berufe geben, in denen KI keine Rolle spielt. Und: Kompetenzprofile in der Techwelt ändern sich durch KI. Momentan kristallisiert sich der Bedarf nach gutem „Prompt Engineering“ heraus. Hier geht es darum, bei sprachbasierter KI die Eingaben oder Fragen so zu gestalten, dass das System das bestmögliche Ergebnis bringt.

Ich hoffe, dass viele Frauen erkennen, dass die Zeit vielleicht niemals so gut war wie heute, um hier einzusteigen – egal, ob sie eine Ausbildung oder ein Studium suchen oder einen Quereinstieg. Mittlerweile gibt es hier viele Möglichkeiten, zum Beispiel ist bei uns in Heilbronn am 14. Juni ein InfoCafe „Quereinstieg in die IT-Branche“

 

Zur Person:

Nicola Marsden (* 1968) ist eine deutsche Professorin für Sozioinformatik an der Hochschule Heilbronn, Fakultät Informatik (IT).

 

Veranstaltungstipp

Prof. Nicola Marsden ist am 22.6.23 bei einer Podiumsdiskussion zum Thema "Women in Tech" auf dem Digitalgipfel zu sehen 

 

* Begriffe kurz erklärt

Verantwortungsdiffusion durch Algorithmen: „Algorithmen durchdringen und beeinflussen den Alltag von uns Menschen. Die Technologie selbst und die Vernetzung führen dazu, dass oftmals unklar wird, wer Verantwortung für die Systeme trägt und wer der Treiber der Entwicklungen ist.“ Dazu mehr.

Gender Pay Gap: Ein großer Teil des Verdienstunterschieds zwischen Frauen und Männern ist darauf zurückzuführen, dass Frauen oft in schlechter bezahlten Branchen und Berufen arbeiten, seltener in Führungspositionen gelangen und häufiger teilzeit- oder geringfügig beschäftigt sind. In Ostdeutschland fällt der unbereinigte Gender-Pay-Gap mit 7 % deutlich geringer aus als in Westdeutschland (20 %). Quelle: Statistisches Bundesamt

Bias Interrupters: Stereotype und Vorurteile lassen sich nicht einfach eliminieren, ihre Wirkung kann aber sichtbar gemacht und „unterbrochen“ (englisch interrupted) werden. Eine Möglichkeit, alle zu beteiligen, ist zum Beispiel, statt einer offenen Diskussion, Karten schreiben zu lassen und zu visualisieren. So werden alle Meinungen gehört, nicht nur die der dominanten oder redegewandten Personen. Quelle: Gesellschaft für Informatik