Künstliche Intelligenz (KI) wird heute schon vielfach bei der Entscheidungsfindung benutzt. Doch was passiert, wenn die Datengrundlage, auf der diese Entscheidungen beruhen, verzerrt ist? Eine geschlechtsspezifische Voreingenommenheit, die technische und gesellschaftliche Folgen haben kann, meint Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule.

Prof. Dr. Christian Prinz, Molekularmediziner, Professor für Data Science und Künstliche Intelligenz an der SRH Fernhochschule – The Mobile University lehrt und forscht rund um das Thema KI. Für ihn ist klar: KI ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Das Problem: Viele dieser Daten spiegeln gesellschaftliche Vorurteile wider. Besonders deutlich wird das in der Medizin. Studien zeigen, dass Frauen bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Ihre Symptome werden häufiger als psychisch eingestuft, insbesondere wenn sie von der vermeintlich männlichen Herzinfarktsymptomatik abweichen. Und das hat Auswirkungen auf die Ergebnisse, wenn man die KI mit diesen Studiendaten trainiert, um sie dann zur Unterstützung rund um eine Herzinfarktdiagnose einzusetzen.

Die Daten lügen nicht. Oder doch?

„Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten, dann produzieren sie Bias behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt Prinz. Überlässt man also der KI das Feld unkontrolliert, entsteht laut dem Wissenschaftler bei gesellschaftlich positiven Entwicklungen in der KI oft wieder ein Reset, weil deren Datengrundlage somit massiv überholt ist.

In seiner Forschung beschäftigt sich Christian Prinz unter anderem mit geschlechtsspezifischen Unterschieden in medizinischen Daten und den Risiken algorithmischer Entscheidungen. Aus diesem Bereich liefert er ein konkretes Beispiel: Eine Frau klagt über Übelkeit, Rückenschmerzen und Erschöpfung: Symptome, die durchaus zu einem Herzinfarkt gehören, aber oft übersehen werden. „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten“, so Prinz.

Wenn Algorithmen benachteiligen

Nicht nur in der Medizin, auch in anderen Bereichen zeigt sich Gender Bias. Ein großer internationaler Onlinehändler stoppte ein Bewerbertool, weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und Formulierungen aus alten Bewerbungen – mehrheitlich von Männern – als besonders positiv. Frauen mit ähnlichen Qualifikationen wurden schlechter eingestuft.

Dabei ist Bias nicht nur ein Datenproblem, sondern auch eine Frage der Modellierung. „KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler“, sagt Prinz. Gerade bei generativer KI sei das besonders kritisch: „Wenn ChatGPT etwa beim Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten Verzerrungen. Diese werden dann weitergetragen.“

Präzise, aber falsch: Bias und Noise

Vorhersagefehler lassen sich grob in zwei Kategorien einteilen: Bias (Verzerrung) und Noise (Zufälligkeit). „Ein gutes Bild liefert das Dartspiel: Wenn man zehnmal in die rechte obere Ecke trifft, ist man sehr präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das Zentrum streuen, ist das Noise“, erklärt Prinz.

„Diversität in den Daten ist essenziell“

Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt wirkungsvolle Maßnahmen, um ihn zu erkennen und zu reduzieren. Technisch helfen Fairnessmetriken, De-Bias-Methoden oder Explainability-Tools, die nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt. Organisatorisch sind interdisziplinäre Teams, Audits und Ethikleitlinien notwendig. Und gesellschaftlich braucht es mehr Aufklärung und Verantwortung.

„Ein wichtiger Faktor ist auch die Datenqualität“, betont Prinz. „Wenn wir KI mit verzerrten oder unausgewogenen Daten füttern, dürfen wir uns über diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist essenziell.“ Noch wichtiger ist aber laut dem Professor der SRH Fernhochschule, dass in den Daten das abgebildet sein muss, was vorhergesagt werden soll.

Eine Frage der Gerechtigkeit

Gender Bias in der Künstlichen Intelligenz ist kein Randphänomen. Er betrifft viele Lebensbereiche und kann reale Folgen haben: Etwa, wenn eine Frau wegen ihrer „atypischen“ Symptome nicht rechtzeitig behandelt wird. Oder wenn qualifizierte Bewerberinnen von einem Algorithmus aussortiert werden.

„Doch die Technik ist nicht unser Feind“, sagt Prinz. Er ist sich sicher: KI kann helfen, Entscheidungen objektiver und besser zu machen, wenn sie richtig eingesetzt wird. Dazu gehört, bestehende Ungleichheiten zu erkennen und nicht unreflektiert in neue Systeme zu übernehmen. Nur so kann KI zu einem Werkzeug der Gerechtigkeit werden; und nicht zu einem Verstärker alter Vorurteile.

Was ist Gender Bias in der Künstlichen Intelligenz?

Gender Bias bezeichnet eine systematische Verzerrung in Daten oder Entscheidungen aufgrund des Geschlechts. In der Künstlichen Intelligenz entsteht dieser Bias oft, weil die Trainingsdaten gesellschaftliche Ungleichheiten widerspiegeln. Wenn etwa in medizinischen Datensätzen überwiegend Männer vertreten sind, erkennt eine KI typische weibliche Symptome schlechter. Auch Bewerbungs-KIs oder Sprachmodelle wie ChatGPT können Vorurteile übernehmen. Zum Beispiel indem sie Männer mit Führung, Frauen mit Pflege assoziieren.

Bias kann sich in allen Phasen der KI-Entwicklung einschleichen:

  • Datenerhebung: Wenn bestimmte Gruppen unterrepräsentiert sind
  • Datenverarbeitung: Wenn fehlerhafte Annahmen getroffen werden
  • Modelltraining: Wenn Algorithmen bestehende Muster verstärken
  • Anwendung: Wenn Entscheidungen ohne menschliches Hinterfragen getroffen werden

Ziel fairer KI-Entwicklung ist es, diese Verzerrungen zu erkennen, zu benennen und zu minimieren.

Den zugehörigen Fachtext mit allen zugrundeliegenden Quellen finden Sie hier:

https://www.mobile-university.de/tw-digitalisierung/gender-bias-in-der-kuenstlichen-intelligenz/

Prof. Dr. Christian Prinz

Christian Prinz ist Molekularmediziner und spezialisiert in MR-Neuroimmunpharmakologie und klinischen Datenwissenschaften. Nach Stationen in Erlangen, Parma, Berlin und Heidelberg als Wissenschaftler, später Projektmanager und Consultant in der medizinischen Softwareentwicklung lehrte Christian Prinz seit 2022 im Bereich Data Science & Analytics an der SRH Fernhochschule – The Mobile University als Fachdozent. Seit März 2025 hält er eine Professur für Data Science und Künstliche Intelligenz.

Über SRH Fernhochschule – The Mobile University

SRH Fernhochschule – The Mobile University
Seit über 25 Jahren setzt sich die unbefristet staatlich anerkannte SRH Fernhochschule – The Mobile University dafür ein, dass Studierende ihren Traum vom Hochschulabschluss in jeder Lebenssituation verwirklichen. Fast 200 Mitarbeitende begleiten und unterstützen rund 12.000 Menschen auf ihrem Bildungsweg. 74 staatlich anerkannte Bachelor- und Master-Studiengänge sowie über 170 Hochschulzertifikate im Online-Studium geben schon heute die Antwort auf das, was morgen gefragt ist.

SRH | Gemeinsam für Bildung und Gesundheit
Als gemeinnützige Stiftung mit führenden Angeboten in den Bereichen Bildung und Gesundheit begleiten wir Menschen auf ihren individuellen Lebenswegen. Unserer Leidenschaft fürs Leben folgend, helfen wir ihnen aktiv bei der Gestaltung ihrer Zukunft, hin zu einem selbstbestimmten Leben. Mit über 17.000 Mitarbeitenden und 1,25 Mio. Kund:innen an rund 80 Standorten erwirtschaftet die SRH einen Umsatz von rund 1,4 Mrd. Euro (2023).

Die 1966 gegründete SRH ist heute eines der größten Bildungs- und Gesundheitsunternehmen Deutschlands mit bundesweit rund 80 Standorten. Hauptsitz der SRH ist Heidelberg.

Firmenkontakt und Herausgeber der Meldung:

SRH Fernhochschule – The Mobile University
Kirchstraße 26
88499 Riedlingen
Telefon: +49 (7371) 9315-0
Telefax: +49 (7371) 9315-15
https://www.mobile-university.de/

Ansprechpartner:
Nils Fabisch
Presse- und Öffentlichkeitsarbeit
Telefon: +49 (7371) 9315201
E-Mail: nils.fabisch@mobile-university.de
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel