Neues Jahr, mehr Diversität – oder bleibt Diskriminierung in KI vorprogrammiert?
. Vermutlich lag das Buch „Beklaute Frauen“ von Leonie Schöler bei den wenigsten Lesern des Ai Tieh Finanzmagazins unter dem Weihnachtsbaum. Das Kapitel „Google mal CEO: Warum Algorithmen männlich denken“ sollte jedoch mit Blick auf den Top Trend Ka I aus 2024 aufhorchen lassen. Denn während Künstliche Intelligenz Fortschritt und Vorteile in vielen Bereichen verspricht, ist der bestehende Gender Bias in Ka I eine Herausforderung, die 2025 nicht einfach verschwindet. von Selina Haupt, Co Founderin FinTech Moneten. Denn “Gender Bias” in Ka I birgt gesellschaftliche Risiken. So warnt die BaFin –dass Algorithmen bereits bestehende Diskriminierungen aufgreifen,verstärken und ausweiten können“.Wenn Ka I aber auf Datenlücken basiert, wie neutral können Anwendungen sein? Ist Diskriminierung somit in unserer Zukunft vorprogrammiert?. Lückenhafte Trainingsdaten!. . Vor allem Trainingsdaten für Ka I sind oft von einem Gender Data Gap betroffen, da es an Daten über Frauen und marginalisierte Gruppen mangelt.Nicht repräsentative Ka I Trainingsdaten führen zu problematischen Mustern wie Geschlechterstereotypen, rassistischen Verzerrungen oder ungleicher Datenrepräsentation, welche unfaire oder benachteiligende Entscheidungen nach sich ziehen können.”So trainierte zum Beispiel Amazon seine Ka I gestützte Recruiting Software überwiegend mit Daten von männlichen Bewerbern, wodurch das System Männer im Auswahlprozess deutlich bevorzugte. Aber auch bereits bei der Ausspielung von Stellenanzeigen zeigte die Ka I eines sozialen Netzwerks Männern häufiger Jobanzeigen von technischen Stellen an als Frauen, da diese aufgrund der höheren Anzahl an Männern in Ai Tieh Berufen annahm, dass dies auch so gewünscht sei. Einfluss von Biases durch fehlende Diversität!. . Neben fehlender Repräsentativität in Trainingsdaten verstärken aber auch fehlende Diversität und daraus resultierende Biases Ungleichheiten und Verzerrungen in Algorithmen. Denn Entwickler können unbewusst ihre eigenen Vorurteile einfließen lassen.Besonders in der Finanz- und Ai Tieh Branche sind Frauen unterrepräsentiert, vor allem auf Entscheidungsebenen.”. . Dadurch bleiben blinde Flecken oft unerkannt und unadressiert. Für gerechtere Anwendungen braucht es diversere Teams, schwierig nur, wenn Recruiting Algorithmen männliche Bewerber bevorzugen. Zudem bedarf es Bias Audits zur regelmäßigen Überprüfung der Algorithmen und Daten auf Vorurteile, der Entfernung von toxischen Inhalten wie Hassreden oder diskriminierenden Äußerungen in Trainingsdaten sowie inklusive Datensätze, welche eine bessere Repräsentation verschiedener Gruppen gewährleisten. Übersetzt auf die Finanzbranche!. . Während die oberen Maßnahmen für Technologieentwicklung in allen Branchen relevant sind, gilt es auch, Auswirkungen auf Finanzangebote genauer zu betrachten. Denn die Financial Service Gender Gap in der Produktentwicklung ist keine Unbekannte. Finanzangebote berücksichtigen nicht alle Zielgruppen und deren Bedürfnisse gleich.Ka I gestützte Systeme, die Kreditwürdigkeit, Risikoprofile oder Investitionsentscheidungen bewerten, könnten bestehende Ungleichheiten verstärken.”So kann beispielsweise ein Algorithmus, der auf historischen Kreditdaten trainiert wurde, Menschen mit niedrigem Einkommen, aus bestimmten ethnischen Gruppen oder Gebieten systematisch benachteiligen und zu diskriminierenden Entscheidungen führen, obwohl es keinen objektiven Grund dafür gibt. Ein prominentes Beispiel ist die Apple Card, die nach ihrem Release 2019 in den USA Frauen weniger Kredite gewährte als Männern, obwohl diese teils eine höhere Bonität vorweisen konnten.Nicht nur bei der Kreditvergabe, auch die Bewertung von Kreditrisiken könnte verzerrt sein, wenn Modelle die Bedürfnisse verschiedener Bevölkerungsgruppen nicht angemessen berücksichtigen.”Verzerrte Algorithmen könnten zudem Investmententscheidungen beeinflussen. Robo Advisors oder personalisierte Anlageberatungen, die auf Sprachmodellen basieren, könnten suboptimale Entscheidungen treffen, wenn sie individuelle Ziele und Risikobereitschaften nicht korrekt einbeziehen. Regulierung und Transparenz von Ka I Systemen sind entscheidend. Explainable AI und Fairness Metriken können Gleichbehandlung sicherstellen. Finanzaufsichtsbehörden diskutieren bereits entsprechende Richtlinien. Inklusive Ka I als Jahresziel 2025!. . Festzuhalten ist: Problematische Muster in Ka I können bestehende soziale und wirtschaftliche Ungleichheiten verstärken, wenn sie nicht aktiv adressiert werden.In der Entwicklung von Ka I Anwendungen und in kritischen Bereichen wie der Finanzbranche sind Maßnahmen zur Identifizierung und Minimierung solcher Muster entscheidend.”Das sollte nicht nur ein Neujahrsvorsatz für die Branche, sondern eines der Top Umsetzungsprojekte sein.Sie hörten einen Beitrag von “Selina Haupt, Co Founderin von Moneten”
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/221095
Vermutlich lag das Buch „Beklaute Frauen“ von Leonie Schöler bei den wenigsten Lesern des IT-Finanzmagazins unter dem Weihnachtsbaum. Das Kapitel „Google mal CEO: Warum Algorithmen männlich denken“ sollte jedoch mit Blick auf den Top-Trend KI aus 2024 aufhorchen lassen. Denn während Künstliche Intelligenz Fortschritt und Vorteile in vielen Bereichen verspricht, ist der bestehende Gender Bias in KI eine Herausforderung, die 2025 nicht einfach verschwindet.
von Selina Haupt, Co-Founderin FinTech Moneten
Denn “Gender Bias” in KI birgt gesellschaftliche Risiken. So warnt die BaFin …dass Algorithmen bereits bestehende Diskriminierungen aufgreifen,
verstärken und ausweiten können“.
Wenn KI aber auf Datenlücken basiert, wie neutral können Anwendungen sein? Ist Diskriminierung somit in unserer Zukunft vorprogrammiert?
Lückenhafte Trainingsdaten
Vor allem Trainingsdaten für KI sind oft von einem Gender Data Gap betroffen, da es an Daten über Frauen und marginalisierte Gruppen mangelt.
Nicht-repräsentative KI-Trainingsdaten führen zu problematischen Mustern wie Geschlechterstereotypen, rassistischen Verzerrungen oder ungleicher Datenrepräsentation, welche unfaire oder benachteiligende Entscheidungen nach sich ziehen können.”
So trainierte zum Beispiel Amazon seine KI-gestützte Recruiting-Software überwiegend mit Daten von männlichen Bewerbern, wodurch das System Männer im Auswahlprozess deutlich bevorzugte. Aber auch bereits bei der Ausspielung von Stellenanzeigen zeigte die KI eines sozialen Netzwerks Männern häufiger Jobanzeigen von technischen Stellen an als Frauen, da diese aufgrund der höheren Anzahl an Männern in IT-Berufen annahm, dass dies auch so gewünscht sei.
Einfluss von Biases durch fehlende Diversität
Neben fehlender Repräsentativität in Trainingsdaten verstärken aber auch fehlende Diversität und daraus resultierende Biases Ungleichheiten und Verzerrungen in Algorithmen. Denn Entwickler können unbewusst ihre eigenen Vorurteile einfließen lassen.
Besonders in der Finanz- und IT-Branche sind Frauen unterrepräsentiert, vor allem auf Entscheidungsebenen.”
Dadurch bleiben blinde Flecken oft unerkannt und unadressiert.
Für gerechtere Anwendungen braucht es diversere Teams – schwierig nur, wenn Recruiting-Algorithmen männliche Bewerber bevorzugen. Zudem bedarf es Bias-Audits zur regelmäßigen Überprüfung der Algorithmen und Daten auf Vorurteile, der Entfernung von toxischen Inhalten wie Hassreden oder diskriminierenden Äußerungen in Trainingsdaten sowie inklusive Datensätze, welche eine bessere Repräsentation verschiedener Gruppen gewährleisten.
Übersetzt auf die Finanzbranche
Während die oberen Maßnahmen für Technologieentwicklung in allen Branchen relevant sind, gilt es auch, Auswirkungen auf Finanzangebote genauer zu betrachten. Denn die Financial Service Gender Gap in der Produktentwicklung ist keine Unbekannte. Finanzangebote berücksichtigen nicht alle Zielgruppen und deren Bedürfnisse gleich.
KI-gestützte Systeme, die Kreditwürdigkeit, Risikoprofile oder Investitionsentscheidungen bewerten, könnten bestehende Ungleichheiten verstärken.”
So kann beispielsweise ein Algorithmus, der auf historischen Kreditdaten trainiert wurde, Menschen mit niedrigem Einkommen, aus bestimmten ethnischen Gruppen oder Gebieten systematisch benachteiligen und zu diskriminierenden Entscheidungen führen, obwohl es keinen objektiven Grund dafür gibt. Ein prominentes Beispiel ist die Apple-Card, die nach ihrem Release 2019 in den USA Frauen weniger Kredite gewährte als Männern, obwohl diese teils eine höhere Bonität vorweisen konnten.
Nicht nur bei der Kreditvergabe, auch die Bewertung von Kreditrisiken könnte verzerrt sein, wenn Modelle die Bedürfnisse verschiedener Bevölkerungsgruppen nicht angemessen berücksichtigen.”
Verzerrte Algorithmen könnten zudem Investmententscheidungen beeinflussen. Robo-Advisors oder personalisierte Anlageberatungen, die auf Sprachmodellen basieren, könnten suboptimale Entscheidungen treffen, wenn sie individuelle Ziele und Risikobereitschaften nicht korrekt einbeziehen.
Regulierung und Transparenz von KI-Systemen sind entscheidend. Explainable AI und Fairness-Metriken können Gleichbehandlung sicherstellen. Finanzaufsichtsbehörden diskutieren bereits entsprechende Richtlinien.
Inklusive KI als Jahresziel 2025
Festzuhalten ist: Problematische Muster in KI können bestehende soziale und wirtschaftliche Ungleichheiten verstärken, wenn sie nicht aktiv adressiert werden.
In der Entwicklung von KI-Anwendungen und in kritischen Bereichen wie der Finanzbranche sind Maßnahmen zur Identifizierung und Minimierung solcher Muster entscheidend.”
Das sollte nicht nur ein Neujahrsvorsatz für die Branche, sondern eines der Top-Umsetzungsprojekte sein.Selina Haupt, Co-Founderin von Moneten
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/221095
Schreiben Sie einen Kommentar