Bias / Diskriminierende KI (bias - discrimination risks with machine learning / artificial intelligence)

(Auszug)

 

A

"Bias" bedeutet so viel wie "Voreingenommenheit" oder "Verzerrung". In der Welt der Daten und Entscheidungen kann Bias bedeuten, dass Informationen nicht ganz fair oder neutral behandelt werden. Zum Beispiel könnte eine Kamera zur Gesichtserkennung besser Gesichter von Menschen mit heller Haut erkennen als von Menschen mit dunkler Haut, weil sie auf diese Weise entwickelt wurde. Das wäre ein technischer Bias.

In der Informationstechnologie also Unzulänglichkeiten in Algorithmen oder Modellen, die dazu führen, dass bestimmte Ergebnisse bevorzugt oder benachteiligt werden.

Dies kann zu ungleichen Behandlungsweisen oder unangemessenen Ergebnissen führen, insbesondere wenn es sich um sensitive Themen wie Diskriminierung oder Rassismus handelt.

Um Bias zu reduzieren, sollten Algorithmen und Modelle sorgfältig entwickelt und überwacht werden, um sicherzustellen, dass sie faire und gerechte Ergebnisse liefern.



B

In einem akademischen Kontext wie einem Hochschulbereich bezieht sich Bias auf eine Vorliebe oder ein Nachsinnen für eine bestimmte Sache, Person oder Gruppe. Bias kann dazu führen, dass sie bevorzugt oder benachteiligt bestimmte Student/innen oder Forschungsthemen behandeln, basierend auf Faktoren wie Geschlecht, Ethnie, politischen Überzeugungen oder anderen persönlichen Präferenzen.

In der Informationstechnologie und der künstlichen Intelligenz (KI) ist Bias ein wichtiges Thema, da Algorithmen und Modelle, möglicherweise auf Daten basieren, die bereits Vorurteile oder Unzulänglichkeiten enthalten. Dies kann dazu führen, dass die Ergebnisse der Modelle ungleich behandeln oder benachteiligen bestimmte Gruppen.

Um Bias in Algorithmen und Modellen zu reduzieren, ist es wichtig, dass sie sorgfältig überprüft und hinterfragt werden. Dies kann durch transparente Bewertungsprozesse, Umfragen und offene Diskussionen erreicht werden, die mögliche Vorurteile oder Unzulänglichkeiten identifizieren und beheben helfen.

Es ist von großer Bedeutung, dass Akteure im Bildungssystem bewusst sind, dass sie eine Rolle bei der Reduzierung von Bias und der Förderung von Gleichheit und Vielfalt spielen.

Durch die Anwendung ethischer Standards und die Förderung einer inklusiven und fairen Lehr- und Forschungsumgebung können Hochschulen dazu beitragen, dass der Bias minimiert und fairer Zugang zu Bildung und Forschungsmöglichkeiten gewährleistet wird.

 

 

„Algorithmic bias describes systematic and repeatable errors in a computer system that create "unfair" outcomes,
such as "privileging" one category over another in ways different from the intended function of the algorithm.“
https://en.wikipedia.org/wiki/Algorithmic_bias

 

 

 

Diskriminierende KI.

Automatisierte Bewerbungssysteme: Unabsichtlich werden bestimmte Gruppen diskriminiert. Zum Beispiel wurden Frauen oder ethnische Minderheiten aufgrund von Bias in den Trainingsdaten benachteiligt. ausschließen.

Gesundheits-Apps. Sie raten bei Eingabe der gleichen Symptome Frauen zur Selbstbehandlung und Männern zum Arztbesuch.

Chat-Systeme geben rassistische oder sexistische Inhalte aus.

Kreditvergabe: KI-Algorithmen, die Kreditentscheidungen treffen, können aufgrund historischer Daten unbewusst diskriminierende Muster aufrecht erhalten. Wenn beispielsweise bestimmte benachteiligte Gruppen historisch gesehen weniger Kredite erhalten haben, kann die KI dies als „Vorhersagekriterium“ verwenden.

Spracherkennungssoftware: Wenn bestimmte Dialekte oder Akzente nicht korrekt erkannt oder verstanden werden.

Strafverfolgung/Risikobewertungstools in der Strafjustiz: KI-Systeme werden zunehmend zur Unterstützung bei der Strafverfolgung eingesetzt. Wenn jedoch die Trainingsdaten eine Voreingenommenheit gegenüber bestimmten Gruppen aufweisen, können solche Systeme zu einer ungleichen Behandlung führen, indem sie bestimmte Gruppen als krimineller einstufen.
https://de.wikipedia.org/wiki/Predictive_Policing
https://en.wikipedia.org/wiki/Predictive_policing
https://www.imdb.com/title/tt0181689/ (Minority Report, 2002)

Gesichtserkennung: Einige KI-basierte Gesichtserkennungssysteme haben Schwierigkeiten, Menschen mit dunklerer Hautfarbe korrekt zu identifizieren. Dies kann zu einer Diskriminierung führen, wenn solche Systeme in sicherheitsrelevanten Bereichen wie Flughäfen oder polizeilichen Überwachungssystemen eingesetzt werden.
https://www.imdb.com/title/tt1839578 (Person of Interest, 2011)

Gezielte Werbung (Menschen mit bestimmten Merkmalen)/Online-Werbung: KI-basierte Werbesysteme verwenden oft Daten über das Online-Verhalten der Nutzer, um personalisierte Werbung zu schalten. Wenn jedoch bestimmte Gruppen aufgrund von Vorurteilen oder Stereotypen bestimmte Arten von Werbung erhalten oder von bestimmten Werbemöglichkeiten ausgeschlossen werden, kann dies zu einer Diskriminierungführen.

etc.

 

Siehe auch: Google - „Unsere zehn Grundsätze“ https://about.google/philosophy/
"Unsere Nutzerinnen und Nutzer stehen an erster Stelle, alles Weitere folgt von selbst." (selbsterklärend)

 

Beispiele (nicht nur) aus der letzten Zeit:

 

Datenleaks via KI - Preisgabe persönlicher Daten:

Scalable Extraction of Training Data from (Production) Language Models (https://arxiv.org/abs/2311.17035)


„Gemini“ Bildgenerierung wird vorübergehend abgestellt (02/2024)

https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical

https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable

https://twitter.com/micsolana/status/1760166145246777562
https://twitter.com/Google_Comms/status/1760603321944121506
https://twitter.com/elonmusk/status/1760516729783148583

Google CEO calls AI tool’s controversial responses ‘completely unacceptable
https://news.yahoo.com/google-ceo-calls-ai-tool-042603340.html


Unexpected responses from ChatGPT.

„On February 20, 2024, an optimization to the user experience introduced a bug with how the model processes language. LLMs generate responses by randomly sampling words based in part on probabilities. Their “language” consists of numbers that map to tokens. In this case, the bug was in the step where the model chooses these numbers. Akin to being lost in translation, the model chose slightly wrong numbers, which produced word sequences that made no sense.“
https://status.openai.com/incidents/ssg8fh7sfyz3


Ja, eine KI könnte wohl auch eine „Webcam“ einschalten und den Pixelstrom für das „Gesundheitswesen“ auslesen ,)


„Canadian university vending machine error reveals use of facial recognition“
„Laut der Website von Invenda können die intelligenten Verkaufsautomaten das Vorhandensein einer Person, ihr geschätztes Alter und Geschlecht erkennen. […]
die Software ist mit der Datenschutz-Grundverordnung der Europäischen Union konform “ - aja.

https://kitchener.ctvnews.ca/facial-recognition-error-message-on-vending-machine-sparks-concern-at-university-of-waterloo-1.6779835



Strafverfolgung.

There’s software used across the country to predict future criminals. And it’s biased against blacks.“ https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Predictive policing is still racist—whatever data it uses“
https://www.technologyreview.com/2021/02/05/1017560/predictive-policing-racist-algorithmic-bias-data-crime-predpol/ (by Will Douglas Heaven)


Bewerbungen.

Die „Bewerbungs-KI“ diskriminiert(e) Frauen
https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung

Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen
https://www.heise.de/news/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html


Deepfakes

„Nude deepfake images of Taylor Swift went viral on X“ (2024/01)
https://www.nbcnews.com/tech/misinformation/taylor-swift-nude-deepfake-goes-viral-x-platform-rules-rcna135669

„Found through Google, bought with Visa and Mastercard: Inside the deepfake porn economy“
https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard-download-rcna75071


Werbung/Ads.

Fewer Women Than Men Are Shown Online Ads Related to High-Paying Jobs.
https://csd.cmu.edu/news/fewer-women-than-men-are-shown-online-ads-related-to-highpaying-jobst

 

Copryright

The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. Millions of articles from The New York Times were used to train chatbots that now compete with it, the lawsuit said.
https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html

 

 

Feelings ,)

Irgenwann wurde das klassiche CAPTCHA-Hackerl von "Ich bin kein Roboter." auf "Ich bin ein Mensch."geändert, tjo.

 

Bezahlung

KünstlerInnen werden für Jobs nicht bezahlt. (Link)

etc.