Uncategorized

6 Expertinnen und Experten erklären, welche Regeln wir jetzt brauchen

Verschiedene Experimente zeigen, dass künstliche Intelligenz (KI) sexistische Tendenzen haben kann. Das kann für Frauen sogar gefährlich werden. Dabei ist es nicht das System selbst, sondern die verwendete Datengrundlage, die die Probleme bereitet.

t3n hat sich exklusiv die Meinungen von sechs führenden KI- und Daten-Expert:innen eingeholt und nachgefragt, wie wir künftig sicherstellen können, dass uns KI dient und hilft und nicht längst überkommen geglaubte Vorurteile verstärkt.

Dabei haben wir nicht nur nach den Schattenseiten gefragt, sondern auch, wie KI insbesondere Frauen in Zukunft nützen kann, zum Beispiel in der Medikamentenentwicklung – und, welche konkreten Forderungen die sechs an Politik und Unternehmenslenker:innen haben.




Vanessa Cann – Geschäftsführerin des KI Bundesverbands

Vanessa Cann, Gechäftsführerin vom KI Bundesverband. (Foto: Tobias Koch)

Vanessa Cann ist seit Mai 2020 Geschäftsführerin im KI Bundesverband, Deutschlands größtem KI-Netzwerk. Zu Canns Verantwortungsbereichen gehören das Mitglieder- und Partnermanagement sowie die Verbandsentwicklung. Für ihren Einsatz für den europäischen KI-Standort wurde sie 2022 von Forbes als eine der 30 spannendsten Menschen unter 30 Jahren ausgezeichnet.

t3n: Frau Cann, inwiefern können Frauen künftig von KI-Systemen profitieren?

Vanessa Cann: Bei künstlicher Intelligenz spielt Diversität eine entscheidende Rolle. Man kann sogar so weit gehen und sagen, dass unsere Gesellschaft mithilfe der Technologie stärker demokratisiert wird und bisherige Verfahren objektiviert werden. Das erreichen wir vor allem durch diverse Teams, die bereits in der Entwicklung ihre unterschiedlichen Erfahrungen und Aspekte in die Produktentstehung einfließen lassen. Dadurch lässt sich Bias in den Systemen minimieren.

Nimmt man das Beispiel Medikamentenentwicklung, so können Medikamente angepasst auf die unterschiedlichen Körper und Geschlechter entwickelt werden. Studien haben gezeigt, dass Medikamente aufgrund einer Vielzahl unterschiedlicher Faktoren (zum Beispiel Körpergewicht, Alter und Stoffwechsel) bei Frauen anders wirken als bei Männern.

In der Vergangenheit wurden medizinische Studien vor allem mit überwiegend männlichen Probanden durchgeführt. Mit einem Umdenken in der Medizin werden künftig mehr Daten von Frauen erhoben, die zu besseren Entwicklungen von Medikamenten führen.

Durch die Beteiligung von Frauen in der Produktentwicklung, aber auch in der Erhebung und Zusammenstellung von Datensätzen können gerechtere Systeme entwickelt werden, die zu mehr Gerechtigkeit und einem realistischeren Abbild der Umwelt führen.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung (auch Rassismus) durch die Nutzung von KI-Systemen?

Cann: Das Beispiel der Foto-App „Lensa“, die Ende letztes Jahr durch die sozialen Medien geisterte, zeigt, wie abhängig KI von den Daten ist, die in das System eingespeist werden. Sind die Daten bereits mit Vorurteilen behaftet und stellen ein bestimmtes Bild von Frauen dar, wird dieses dem System beigebracht und neu generierte Bilder entsprechend dargestellt.

Daher ist es sehr wichtig, dass man KI nicht blind vertraut, sondern nachvollziehbar wird, woher die Daten kommen und wie die KI-Modelle diese Daten verwenden. Ähnlich wie beim agilen Manifest sollte es zum Standard gehören, die Daten auf Bias zu prüfen.

Bei Nicht-Berücksichtigung und Nicht-Eliminierung von Voreingenommenheit wirkt sich die Diskriminierung auf die nachfolgenden Generationen aus und wird weiter übertragen.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigtere KI-Nutzung der Zukunft?

Cann: Viele unserer Mitgliedsunternehmen engagieren sich dafür, diverse Teams aufzustellen. Jedoch entscheiden sich nach wie vor wenige Frauen für das Studium in MINT-Fächern. Gerade mal jede 20. Frau beginnt ihre Ausbildung in dieser Richtung.

Diversität ist ein enormer Gewinn für jedes Unternehmen: Studien belegen, dass diverse Teams deutlich besser performen, resilienter sind und weniger anfällig für blinde Flecken in ihrer Software.

Bei künstlicher Intelligenz spielt Diversität eine entscheidende Rolle. So lernen die Algorithmen beim maschinellen Lernen basierend auf Beispieldaten. Diese Datensätze werden nur bedingt auf Repräsentanz und Qualität ausgewählt. Dadurch kommt es zu Verzerrungen in den Datensätzen, aber auch in den Ergebnissen. Durch diverse Teams können solche Ungleichheiten bereits früh im Produktentwicklungsprozess entdeckt und angegangen werden.

So kann bereits in der Entwicklung von KI-Anwendung ein ungleicher Datensatz früh identifiziert werden und während der Produktentwicklung und -testing die verschiedenen Sichtweisen eingebracht werden. „Bias“ kann frühzeitig zu berücksichtigen. Die Entwicklung von partizipativen und gerechten KI-Systemen kann nur unter Einbezug möglichst vieler Aspekte passieren.

Wir fordern daher von der Politik, dass MINT-Fächer für Frauen attraktiver werden. Es braucht ein Umdenken, dass es keine geschlechtsspezifischen Berufe und Ausbildungswege gibt, um für mehr Ausgewogenheit zu sorgen.

Neben der beruflichen Entwicklung schauen wir aber auch auf die Gründerinnen. Auch hier gibt es noch viel Potenzial: So ist das Programm der Bundesregierung Exist-Women ein guter erster Schritt für die Förderung von Gründerinnen. Doch beobachten wir weiterhin, dass Frauen in Finanzierungsrunden bei Risikokapitalgebern weiterhin stark unterrepräsentiert sind beziehungsweise dass nach der Covid-Pandemie die Zahl noch weiter geschrumpft ist. Gerade mal ein Prozent erhält eine Risikofinanzierung.

Der „Gender Bias“ in der Finanzierung muss weiterhin angegangen und überwunden werden und Gründerinnen im Tech-Bereich muss ein gleichberechtigter Zugang zu Kapital gegeben werden. Daher fordern wir weitere öffentliche, frauengeführte Fonds für Gründerinnen.

Wir fordern außerdem eine Reform des Elterngeldes und des Mutterschutzgesetzes, da die Gründungsphase eines Unternehmens häufig mit der Familienplanung zusammenfällt. Der gesamte Frauenanteil bei Gründungen liegt bei zwölf Prozent und im Managementteam von Startups machen Frauen gerade einmal ein Viertel aus. Warum fehlen hier Frauen? Kritisch ist die soziale und finanzielle Absicherung. Ein flexibleres Elterngeld als auch eine Berücksichtigung von selbstständigen Frauen im Mutterschutz können dazu beitragen, dass Gründungen in der Tech-Branche attraktiver für Frauen werden.




Alexander Thamm – KI-Experte & Autor

Alexander Thamm ist einer der bekanntesten KI-Experten Deutschlands. (Foto: Alexander Thamm GmbH)

Alexander Thamm ist KI- und Daten-Experte und berät mit seiner Alexander Thamm GmbH Unternehmen und Dax-Konzerne bereits seit mehr als zehn Jahren zum Thema Datenstrategie. Zudem ist Thamm Mitgründer des KI Bundesverbands sowie des Münchner Data Festivals und Co-Autor des Buchs „The Ultimate Data and AI Guide: 150 FAQs About Artificial Intelligence, Machine Learning and Data“.

t3n: Herr Thamm, inwiefern können Frauen künftig von KI-Systemen profitieren?

Alexander Thamm: Wir alle werden künftig von KI-Systemen profitieren und tun dies bereits – ChatGPT ist erst der Anfang der breiten Adaption von KI. Sinnvoll eingesetzt können diese Systeme helfen, Diskriminierungen zu erkennen – und ihnen auch entgegenzuwirken.

Doch es gibt viele Beispiele, in denen die KI „falsch abgebogen ist“. Beispiel: die Entwicklung neuer Medikamente. Hier werden Frauen derzeit häufig benachteiligt, weil viele Studien nur männliche Probanden berücksichtigen. Die Folge sind dann mehr oder zumindest schlechter erforschte Nebenwirkungen bei weiblichen Patienten.

Diesem „Bias“ können wir mit vorurteilsfreien KI-Modellen entgegentreten. In vielen Fällen können Verzerrungen innerhalb von Datensätzen ausgeglichen werden. Aber zunächst muss man sich der möglichen Verzerrungen bewusst sein. Und andererseits können wir durch diverse Teams viel mehr Blickwinkel bei der Entwicklung von KI einbringen.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung (auch Rassismus) durch die Nutzung von KI-Systemen?

Thamm: Die Gefahr der Diskriminierung durch KI-Systeme ist real und völlig zurecht viel diskutiert. Und weil Sexismus, wie auch Rassismus, nach wie vor in den Köpfen vieler Menschen verbreitet ist, findet er sich leider aktuell auch in vielen Datensätzen wieder. Die KI-Systeme sind nur so „aufgeklärt“, wie die Daten, mit denen sie trainiert wurden – sobald ein (menschlicher) Bias in die Trainingsdaten von KI-Modelle einfließt, wird das System entsprechend auch diskriminieren, Vorurteile reproduzieren und diese möglicherweise sogar verstärken.

Die gute Nachricht aber ist: Wir können diese Diskriminierungen innerhalb des Algorithmus manuell relativ leicht korrigieren – anders als in der Gesamtgesellschaft, also bei uns Menschen. Da ändern sich Vorurteile so wie sexistische und rassistische Einstellungen nur sehr langsam. Deswegen ist es auch so wichtig, KI als Instrument gegen Diskriminierung einzusetzen.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigtere KI-Nutzung der Zukunft?

Thamm: Die Tech-Branche ist – da gibt es kein Vertun – nach wie vor stark männlich dominiert. Aber die Frauen holen auf. Wir haben heute deutlich mehr Bewerberinnen als noch in den letzten Jahren. Das heißt: Wir müssen sowohl in der Tech-Branche wie in der Gesellschaft als Ganzes umdenken! Die Chancen, die sich uns durch KI bieten, sind riesig – und wir müssen sie auch dazu nutzen, Diskriminierungen entgegenzutreten, Gleichberechtigung zu fördern und unsere Welt gerechter zu machen.

Und wir brauchen die Kreativität von Frauen in diesen Berufen. Sie ist viel zu lange nicht berücksichtigt und nicht geschätzt worden. Sowohl Unternehmer:innen wie auch die Politik – vor allem aber jeder einzelne von uns – sind hier in der Verantwortung! Das schaffen wir nur gemeinsam. Es wird Zeit, dass wir das nicht nur am 8. März diskutieren, sondern jeden Tag. 




Katrin-Cécile Ziegler – KI-Expertin & Keynote-Speakerin

Katrin-Cécile Ziegler – KI-Expertin & Keynote-Speakerin. (Foto: Katrin Ziegler)

Katrin-Cécile Ziegler ist KI-Expertin und Keynote-Speakerin. (Foto: Katrin Ziegler)

Katrin-Cécile Ziegler ist Digital-Ökonomin, Dozentin für Digitale Ethik (HWZ) und Keynote-Speakerin zu künstlicher Intelligenz, Tech-Trends und Nachhaltigkeit. Sie engagiert sich seit vielen Jahren als Mentorin im Netzwerk Spitzenfrauen BW und fordert unter anderem eine Diversitätsquote auf Bühnen. Auf Linkedin vermittelt Ziegler ihren rund 20.000 Follower:innen Technologie-Themen leicht verständlich und setzt sich für eine gerechte und nachhaltige Zukunft ein.

t3n: Frau Ziegler, inwiefern können Frauen künftig von KI-Systemen profitieren?

Katrin-Cécile Ziegler: Das größte Potenzial sehe ich im medizinischen Bereich, zum Beispiel der Verbindung von KI mit Neurotechnologie und Gehirn-Computer-Schnittstellen. Sie ermöglichen uns ein tieferes Verständnis dafür, wie neurodivers Menschen sind. Frauen leiden zum Beispiel häufiger an psychischen Erkrankungen. Die Erkenntnisse aus den Daten können wiederum in personalisierte Therapien und Medikamente einfließen.

Grundsätzlich sind KI-Systeme eine Chance, die Karten neu zu mischen und viele bestehende Ungleichheiten zu beheben. Voraussetzung ist auch, dass Frauen in den Trainingsdaten gleichermaßen repräsentiert sind und in ihren geschlechtsspezifischen Merkmalen berücksichtigt werden. Das sollte für alle marginalen Gruppen gelten. Leider trifft das in der Praxis nicht zu.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung durch die Nutzung von KI-Systemen?

Ziegler: Dass Frauen von KI bei Arbeitsplatzvergabe bis hin zu sexistischen Chatbots diskriminiert werden, ist bekannt. Was jedoch oft vernachlässigt wird: Warum wir KI häufiger ein weibliches Geschlecht, Merkmal oder Namen zuordnen. Prominente Beispiele sind künstliche Intelligenzen wie Sophia, Cortana, Alexa bis hin zu lebensechten, weiblichen Sexbots. Hier geht es nicht mehr um die Gefahr in Datensätzen oder Algorithmen, sondern um die Gefahr von Genderstereotypen beim KI-Design.

Eine Maschine hinterfragt oder kritisiert nicht die anwendende Person. Sie dient und führt Kommandos aus. Solche Funktionen sollten ethisch losgelöst von geschlechtlichen (aber auch zum Beispiel kindlichen) Merkmalen sein. Sonst laufen wir Gefahr, Stereotypen noch fester zu zementieren.

Wir müssen uns bewusst sein, dass KI-Systeme von uns Menschen gestaltet werden und dass unsere Vorurteile sich auf sie übertragen können. Genauso aber auch umgekehrt.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigtere KI-Nutzung der Zukunft?

Ziegler: Erstens bin ich für mehr Frauen in der KI-Industrie anstatt mehr Roboter-Frauen in der Gesellschaft.

Zweitens brauchen wir dringend eine Diversitätsquote in der KI-Entwicklung. Damit steigt der Druck auf die Politik und Unternehmen, auch Frauen in der KI-Industrie zu unterstützen und auszubilden. Faire KI-Systeme erreichen wir nur, wenn diverse Menschen beteiligt sind.

Drittens: Digitale Teilhabe ist eine Grundvoraussetzung für diverse Trainingsdaten. Noch immer besitzen (weltweit) Frauen seltener Zugang zu digitalen Geräten und Anwendungen.

Viertens: KI-Entscheidungen und -Ergebnisse müssen nachvollziehbar, erklärbar und anfechtbar sein.

Fünftens: Kritisches Denken darf nicht durch KI-Systeme verdrängt werden. Leider zeigt sich zum Beispiel mit ChatGTP eine gegenläufige Tendenz. Kritik ist das wichtigste Gut, um eine gerechte Zukunft aller Menschen zu entwickeln und sollte oberste Priorität in unserer Bildung erhalten.




Annika von Mutius – Gründerin von Empion

Annika von Mutius ist studierte Mathematikerin und die Gründerin von Empion. (Bild: Empion)

Annika von Mutius ist studierte Mathematikerin und die Gründerin von Empion. (Foto: Empion)

Annika von Mutius ist studierte Mathematikerin und hat im Jahr 2021 gemeinsam mit Co-Gründerin Larissa Leitner das HR-Tech-Unternehmen Empion gegründet. Im Rahmen einer Pre-Seed-Finanzierungsrunde konnten die beiden bereits 2,4 Millionen Euro an Kapital von namhaften Investor:innen aus dem HR-Bereich raisen. Den Algorithmus hat die 29-Jährige selbst geschrieben.

t3n: Frau von Mutius, inwiefern können Frauen künftig von KI-Systemen profitieren?

Annika Mutius: Es wird viel über Diskriminierung durch KI gesprochen, aber genauso gibt es Systeme, die antidiskriminierend funktionieren. In unserem Fall geht die KI sehr individuell auf die Bedürfnisse und die wertebasierten Präferenzen der Menschen ein. Auf Basis unserer Nutzerdaten sehen wir, dass der Frauenanteil bei über 60 Prozent liegt.

Statistisch gesehen zeigen diese Zahlen also, dass Individualisierungsmodelle – zumindest in der HR-Branche – trotz ihrer Neutralität frauenfördernd sein können. Ich möchte sogar noch einen Schritt weiter gehen, weil ich der Überzeugung bin, dass die Quantifizierung von Werten subjektiv-verfälschte menschliche Gefühle ersetzt und so antidiskriminierend wirkt.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung (auch Rassismus) durch die Nutzung von KI-Systemen?

Mutius: KI beziehungsweise Algorithmen selbst sind kein Problem, die Trainingsdaten dagegen sind eine Gefahr. Eine KI ist grundsätzlich immer nur so gut, wie es ihre Trainingsdaten erlauben. Wenn also ein Großteil der Input-Daten eher frauenfeindlich oder rassistisch ist, wird die KI das entsprechend auch lernen. Ein Beispiel: Wenn wir in unserer Interaktion mit KI unterbewusst das Bild eines männlichen Managers fördern, so ist es unwahrscheinlich, dass die KI Frauen in Führungspositionen fördert.

Das besonders Dramatische daran ist jedoch, dass wir Technologie eine gewisse Neutralität unterstellen, weil sie eben kein Mensch ist. Das ist der zentrale Knackpunkt. Wir dürfen KI nicht mit dem gleichstellen, was wir aus einer Tech-Zeit vor KI kannten. Wir müssen sie kritisch hinterfragen, wie wir auch die Meinung eines Menschen hinterfragen würden. Das ist nicht unbedingt intuitiv und birgt damit Gefahren von Unwahrheiten, Diskriminierung und Rassismus.

Allerdings möchte ich hier betonen, dass wir KI-Systeme auch nutzen können und müssen, um reale Diskriminierung durch Menschen (ganz ohne KI) aufzudecken und dieser entgegenzuwirken. Diese Chance durch KI ist immens und äußerst positiv zu bewerten.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigtere KI-Nutzung der Zukunft?

Mutius: KI ist mächtig und oftmals selbstlernend. Das ist beeindruckend, aber auf der anderen Seite auch einschüchternd, wenn man das Ausmaß des Einflusses auf die Menschheit bemisst. Wir brauchen daher effiziente Zulassungskriterien; ähnlich wie man das aus der Pharmaindustrie kennt. Dabei ist jedoch wichtig, dass wir kurzfristige Prozesse etablieren, um Effizienzen, die durch KI geschaffen werden, nicht mit aufwendiger Bürokratie zu zerstören.




Janette Wiget – CFO von Merantix

Janette Wiget, Vorstandsmitglied von Merantix. (Bild: Merantix / Jana Schoelzel)

Janette Wiget, Vorstandsmitglied von Merantix. (Foto: Merantix / Jana Schoelzel)

Janette Wiget ist Chief Financial Officer und Vorstandsmitglied von Merantix, dem weltweit ersten KI-Company-Builder, sowie Mitgründerin des AI Campus Berlin, einem Co-Working- und Collaboration-Hub für künstliche Intelligenz (KI), der über 640 Mitglieder zählt.

t3n: Frau Wiget, inwiefern können Frauen künftig von KI-Systemen profitieren?

Janette Wiget: Durch künstliche Intelligenz lassen sich Ergebnisse viel schneller und vor allem individualisierter erstellen, beispielsweise in der Medikamentenentwicklung. Die Maschine kann Tausende Datenpunkte und Faktoren in Sekundenschnelle evaluieren, weshalb es möglich ist, sehr präzise und auf Einzelpersonen bezogene Ergebnisse zu liefern. Medikamentenentwicklung war bisher stark auf Daten von männlichen Probanden basiert, was für Frauen teils bedrohliche Nachteile bedeutet. KI kann hier zum Beispiel sehr gut helfen.

Ein Beispiel dafür liefert Ovom Care – unser neuestes Venture. Ovom nutzt KI, um personalisierte Behandlungen im Bereich der reproduktiven Gesundheit für Frauen und Paare aufzuzeigen. Der menschliche Organismus ist individuell und die Reaktionen auf Medikamente und Behandlungen können entsprechend unterschiedlich ausfallen. KI kann Tausende Faktoren berücksichtigen und dadurch ein individualisiertes Endprodukt anbieten.

Oder unser Venture Vara, dass KI unterstützte Brustkrebs-Scan-Analysen anbietet. Das senkt die Preise für solche Untersuchungen enorm und macht sie dadurch einer breiteren Maße verfügbar.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung (auch Rassismus) durch die Nutzung von KI-Systemen?

Wiget: KI-Systeme selbst haben keine Vorurteile. Es hängt immer von den bereits produzierten Daten ab, auf dessen Basis eine KI trainiert wird. Wenn wir also den Bias im Datensatz exkludieren, wird auch die KI keinen Bias reproduzieren. Wenn nicht, wiederholt KI diese oder verstärkt sie im schlimmsten Fall.

Deshalb müssen wir bei den Entwickler:innen ansetzen und sie für diese Thematik sensibilisieren und schulen, damit der Maschine nicht schon im Training solche Fehler beigebracht und bei der Wahl der Datensätze unterschiedliche Kriterien berücksichtigt werden.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigtere KI-Nutzung der Zukunft?

Wiget: Der Staat muss Diversität stärker fördern! Die Maschinen lernen von uns – je inklusiver wir als Gesellschaft sind, desto weniger Bias werden die KI-Modelle unserer Zukunft haben. Die Ausbildung von Software-Talenten muss in vielen Bereichen neu gedacht und mehr Praxisbezug haben. Wir brauchen ein Ökosystem, das die technologischen und gesellschaftlichen Chancen und Herausforderungen von KI berücksichtigt und unterschiedliche Stakeholder aus Wirtschaft, Gesellschaft und Politik miteinander verknüpft.

Alles, was wir heute verschlafen, wird uns morgen zehnmal mehr Probleme bereiten. ChatGPT ist erst der Anfang und hat uns noch nicht mal ein Prozent der Potenziale aufgezeigt, die mithilfe von KI realisiert werden können. Diese Technologie wird unsere Gesellschaft und Wirtschaft fundamental verändern. Entsprechend ist es wichtig, dass wir uns alle einbringen.




Sebastian Bluhm – CEO von Plan D

Hat die schönsten Pressebilder: Sebastian Bluhm, CEO von Plan D. (Foto: Plan D)

Hat die schönsten Pressebilder: Sebastian Bluhm, CEO von Plan D. (Foto: Plan D)

Sebastian Bluhm ist Mitglied im KI-Bundesverband und CEO der Technologieberatung Plan D. Mit ihm haben wir bereits Ende Februar ein spannendes Gespräch darüber veröffentlicht, wie KI die Politik beeinflussen wird.

t3n: Herr Bluhm, inwiefern können Frauen künftig von KI-Systemen profitieren?

Sebastian Bluhm: Ich bin der festen Überzeugung, dass KI-Systeme einen großen Teil dazu beitragen können, Krankheiten bei Männern und Frauen künftig gleichermaßen zu diagnostizieren und besser zu behandeln.

Die Vorteile von KI beginnen schon bei der Entwicklung neuer Medikamente, hier kann der gesamte Prozess beschleunigt werden. So kann KI viele Millionen von Molekülen kombinieren und deren Wirkung gegen verschiedene Erkrankungen voraussagen. Das führt letztendlich auch zu einer besseren Behandlung der Patient:innen.

Dass es dabei aber immer auf die richtige Datengrundlage ankommt, zeigt folgendes Beispiel: Es ist bekannt, dass Frauen andere Symptome bei einem Herzinfarkt haben als Männer. Jedoch werden diese seltener erkannt, weshalb Frauen, verglichen mit Männern, häufiger an einem Herzinfarkt sterben. Das Problem: Der männliche Körper wird in der medizinischen Forschung meist als Standard angesehen. So basieren viele Studien vor allem auf Daten von männlichen Patienten.

Im letzten Jahr haben Forscher:innen nun mithilfe von KI einen neuartigen Risikoscore für Herzinfarkte entwickelt. Dieser berücksichtigt erstmals auch geschlechtsspezifische Unterschiede im Risikoprofil und unterstützt somit die Diagnose der Krankheit bei Frauen.

Aus meiner Perspektive ist der heilige Gral die KI-gestützte personalisierte Medizin. Hier werden möglichst viele persönliche Faktoren wie beispielsweise das Geschlecht, Informationen zur Art und Ausprägung der Krankheit, zu genetischen Merkmalen oder auch zum Lebensstil der Erkrankten berücksichtigt. Geschlechtsspezifische Unterschiede werden also schon von Beginn mitgedacht. Das Ergebnis ist eine ganz individuelle Medikation oder Behandlungsempfehlung.

Auch in der frauenspezifischen Medizin tut sich viel: So arbeitet beispielsweise das Team des Leibniz-KI-Labors an einem KI-Modell zur Behandlung von Brustkrebs. Es gibt eine individuelle Empfehlung für die jeweils beste Therapieoption für jede Patientin aus. Dadurch wird eine gezielte und personalisierte Therapie ermöglicht.

Auch ein frühzeitiger Hinweis auf Endometriose – eine der häufigsten Unterleibserkrankungen bei Frauen – wäre auf Basis von Langzeitbeobachtungen und KI denkbar. Somit würden Behandlungen verbessert und chronische Verläufe dieser Krankheit vermieden werden.

t3n: Worin sehen Sie Gefahren hinsichtlich Geschlechterdiskriminierung (auch Rassismus) durch die Nutzung von KI-Systemen?

Bluhm: Technologie beeinflusst immer mehr, wie wir miteinander leben, arbeiten und kommunizieren. Künstliche Intelligenz ist ein weiterer Multiplikator für diese Entwicklung. Damit kann sie in den falschen Händen, bei fehlender Kontrolle und einseitigen Machtstrukturen zu negativen Effekten führen.

Was für Unternehmen positive Argumente für den Einsatz von KI sind – automatisches Lernen aus der Vergangenheit, Skalierbarkeit, Automatisierung –, kann für Frauen zur negativen Manifestation von Werten der Vergangenheit werden. Das Kernproblem ist dabei der „unconscious“ (unbewussten) oder sogar „conscious“ (bewussten) Bias in den Trainingsdaten, mit denen KI lernt.

Beispiele dafür, wie sich dieser Bias auswirken kann, gibt es viele. Etwa, wenn ein KI-Modell fürs Recruiting mit historischen Daten trainiert wird. Selbst wenn man die Variablen Geschlecht und Herkunft weglässt, kann es passieren, dass die KI am Ende hauptsächlich weiße Männer auswählt – weil sie gelernt hat, dass deren Lebensläufe in der Vergangenheit besonders positiv bewertet wurden.

Ein anderes Beispiel ist die Kreditkarte von Apple, die 2019 in die Kritik kam, weil sie Frauen als weniger kreditwürdig eingestuft hat. Oder soziale Medien, die mit ihrem KI-basierten Clustering soziale Geschlechterrollen und Schönheitsideale verfestigen, indem sie jungen Mädchen entsprechende Inhalte vorschlagen. Wenn Frauen also in Datensätzen unterrepräsentiert sind oder diese gewollten und ungewollten Vorurteile gegenüber Frauen enthalten, führt dies auch in der Zukunft weiterhin zu Diskriminierung.

Noch dramatischer wird es natürlich, wenn die Technologie von autokratischen Regimen ganz bewusst zur Unterdrückung und Kontrolle der Bevölkerung eingesetzt wird. So kann eine KI zum Beispiel bedauerlicherweise auch das Tragen von Kopftüchern im öffentlichen Raum kontrollieren und die Personen identifizieren, die gegen diese Vorgabe verstoßen. Keine gute Perspektive für Frauen und Minderheiten in einer Welt, in der erstmals seit 2004 wieder mehr autokratische als demokratische Staaten existieren.

t3n: Was sind Ihre Forderungen an Politik und Unternehmenslenker:innen für eine humanere, gleichberechtigte KI-Nutzung der Zukunft?

Bluhm: Eine wichtige Grundvoraussetzung ist, dass wir dem Thema „KI und Werte“ eine größere Bedeutung beimessen. Ich vergleiche das gern mit der Erziehung von Kindern. In unserer Gesellschaft betreiben wir zu Recht sehr viel Aufwand, um unseren Kindern Werte und Moral zu vermitteln. Eltern und Großeltern, Erzieher:innen und Lehrer:innen, Nachbar:innen und Freund:innen, ja, die ganze Gesellschaft ist daran beteiligt.

Aber bei einer KI sind wir überrascht, wenn sie nach einem vergleichsweise kurzen Training auf einem selektiven Datensatz nicht jedem unserer Werte oder Annahmen entspricht.

Ich glaube: Um den Einsatz von künstlicher Intelligenz so human und gleichberechtigt wie möglich zu gestalten, müssen wir alle zusammenarbeiten: Unternehmen und Universitäten, Politik und Zivilgesellschaft. Hier ein paar konkrete Forderungen.

Unternehmen müssen:

  • … diversere Entwicklungsteams einsetzen. Je vielfältiger die Entwickler:innen von KI-Modellen sind, umso mehr Perspektiven fließen ein und umso mehr Fragen können gestellt und beantwortet werden.
  • … für eine gleichberechtigte Repräsentation in Trainingsdaten sorgen. Bias aufgrund von historischen Daten muss frühzeitig erkannt und vermieden werden.
  • … gesellschaftliche Verantwortung für die von ihnen entwickelte Technologie übernehmen. Neben der Wirtschaftlichkeit müssen immer auch potenzielle gesellschaftliche Auswirkungen beleuchtet werden.

Die Politik muss:

  • … eine sinnvolle, durchdachte und effektive KI-Regulierung durchsetzen. Der AI Act der Europäischen Union geht meines Erachtens genau in die richtige Richtung.
  • … dafür sorgen, dass Bürger:innen ein besseres Verständnis für die Funktionsweise von KI entwickeln. Denn nur, wer die Technologie versteht, kann sie auch einschätzen.
  • … über zielgerichtete bildungspolitische Angebote mehr Mädchen und junge Frauen für Technologie begeistern. Aktuell suchen viele Unternehmen händeringend nach Entwicklerinnen – finden aber keine.

(Hoch)schulen müssen:

  • … ethische und gesellschaftliche Fragestellungen im Zusammenhang mit KI in ihrer Lehre stärker betonen. Ich wünsche mir mehr Studiengänge, die das Thema nicht nur aus der technologischen Brille, sondern interdisziplinär betrachten.
  • … Bildungsformate entwickeln, die sich explizit an Mädchen und junge Frauen richten, damit sie unabhängig vom sozialen Selbst- und Fremdbild ihr Interesse für Informatik entwickeln können.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter?
Jetzt mehr erfahren

Leave a Reply

Your email address will not be published. Required fields are marked *