artificial intelligence image picture 5

Informationen zum Blog
Die Inhalte des Blogs unterliegen der Dynamik der Online-Welt, daher kann für die Vollständigkeit oder Aktualität keine Gewähr übernommen werden. Das gilt auch für Verlinkungen zu externen Seiten. Der Blog analysiert technologische, wirtschaftliche und gesellschaftliche Entwicklungen, um das Verständnis für Veränderungen zu stärken, die durch Digitalisierung bewirkt werden.

Mensch & Maschine
Ob Daten, Produkte und Prozesse, Strategie, Werte oder Unternehmenskultur, sehr gerne begleite ich Organisationen dabei, den digitalen Wandel nachhaltig, verantwortungsvoll und wirkungsvoll zu gestalten.

ai robot in front of a wall

Unfair, Ungerecht?

Künstliche Intelligenz (KI) spielt eine immer größere Rolle in unserem Alltag, doch ihre Entscheidungen sind nicht immer neutral. Vorurteile in den Algorithmen können bestehende Ungleichheiten verfestigen und zu unfairen Ergebnissen führen. Um diskriminierende Auswirkungen zu vermeiden, ist es essenziell, diese KI-Modellen zu identifizieren und zu minimieren. Bias kann in einer Vielzahl von KI-Systemen auftreten, wie folgende Beispiele zeigen: 

Beispiele für Bias in KI-Systemen

Bias bei Risiko-Analysen & Vorhersagen

Ein bekanntes Beispiel ist das COMPAS-Tool, das zur Vorhersage von Rückfälligkeit bei Straftätern genutzt wird. Obwohl das System keine expliziten Rassenmerkmale berücksichtigt, wurde festgestellt, dass es nicht-weiße Personen häufiger als Hochrisikofälle einstufte. Die Problematik zeigt, dass solche Systeme genau überprüft werden müssen, um unbeabsichtigte Diskriminierung zu vermeiden.

Bias in Bewerbungssystemen

Auch im Recruiting können KI-Algorithmen unbewusste Vorurteile verstärken. Amazon entwickelte ein KI-gestütztes Bewerbungssystem, das Männer gegenüber Frauen bevorzugte. Der Grund: Die Trainingsdaten bestanden größtenteils aus Männern, wodurch der Algorithmus eine Verzerrung gegenüber weiblichen Bewerbern entwickelte. Trotz mehrfacher Anpassungen blieb der Bias bestehen, sodass das Projekt eingestellt wurde.

Bias in der Mensch-Maschine-Interaktion

Microsofts KI-Chatbot Tay zeigte, wie anfällig maschinelles Lernen für negative Einflüsse ist. Tay lernte durch Twitter-Interaktionen und begann binnen weniger Stunden, rassistische und beleidigende Aussagen zu verbreiten. Dieses Beispiel verdeutlicht, dass KI-Systeme die gesellschaftlichen Vorurteile ihrer Umgebung reflektieren können, wenn sie ohne ausreichende Kontrollmechanismen arbeiten.

Faire Zukunft

Bias in KI ist ein ernstzunehmendes Problem, das tiefgehende Analysen und ständige Überprüfungen erfordert. Transparenz und Fairness in KI-Systeme sichert die gewünschten Funktionalitäten der KI, sowie die Akzeptanz und Wettbewerbsfähigkeit der KI-Anwendung

Weitere Beispiele für Bias

Gesundheitswesen

In der Medizin kann es durch Bias zu Fehldiagnosen kommen. Diagnosesysteme erzielen bei unterrepräsentierten Gruppen oft schlechtere Ergebnisse, da diese in den Trainingsdaten unterrepräsentiert sind. Die Qualität der Behandlung leidet und wirkt direkt auf das Vertrauen in die Medizin. 

Online-Werbung

Im Marketing kann Bias zu verpassten Zielgruppen, geringerer Markenbindung, ineffizienter Werbung und Reputationsschäden führen. Es gefährdet das Vertrauen in die Marke und den Erfolg von Kampagnen. Suchmaschinen zeigen z. Bsp. hochbezahlte Jobs eher Männern als Frauen.  

Bildgenerierung

KI-Modelle wie Midjourney tendieren dazu, bestimmte Berufe stereotyp zu besetzen, z. B. Ärzte als ältere Männer darzustellen. Bestehende Vorurteile werden verstärkt. Das führt zu einer verzerrten Wahrnehmung von Berufsgruppen. Diversitätstrainings für KI helfen, Vorurteile abzubauen.

Bias in KI-Systemen ist ein No-Go.

Informationen zum Blog 
Die Inhalte des Blogs unterliegen der Dynamik der Online-Welt, daher kann für die Vollständigkeit oder Aktualität keine Gewähr übernommen werden. Das gilt auch für Verlinkungen zu externen Seiten. Der Blog analysiert technologische, wirtschaftliche und gesellschaftliche Entwicklungen, um das Verständnis für Veränderungen zu stärken, die durch Digitalisierung bewirkt werden.