(Auszug)
A
"Bias" bedeutet so viel wie "Voreingenommenheit" oder "Verzerrung". In der Welt der Daten und Entscheidungen kann Bias bedeuten, dass Informationen nicht ganz fair oder neutral behandelt werden. Zum Beispiel könnte eine Kamera zur Gesichtserkennung besser Gesichter von Menschen mit heller Haut erkennen als von Menschen mit dunkler Haut, weil sie auf diese Weise entwickelt wurde. Das wäre ein technischer Bias.
In der Informationstechnologie also Unzulänglichkeiten in Algorithmen oder Modellen, die dazu führen, dass bestimmte Ergebnisse bevorzugt oder benachteiligt werden.
Dies kann zu ungleichen Behandlungsweisen oder unangemessenen Ergebnissen führen, insbesondere wenn es sich um sensitive Themen wie Diskriminierung oder Rassismus handelt.
Um Bias zu reduzieren, sollten Algorithmen und Modelle sorgfältig entwickelt und überwacht werden, um sicherzustellen, dass sie faire und gerechte Ergebnisse liefern.
B
In einem akademischen Kontext wie einem Hochschulbereich bezieht sich Bias auf eine Vorliebe oder ein Nachsinnen für eine bestimmte Sache, Person oder Gruppe. Bias kann dazu führen, dass sie bevorzugt oder benachteiligt bestimmte Student/innen oder Forschungsthemen behandeln, basierend auf Faktoren wie Geschlecht, Ethnie, politischen Überzeugungen oder anderen persönlichen Präferenzen.
In der Informationstechnologie und der künstlichen Intelligenz (KI) ist Bias ein wichtiges Thema, da Algorithmen und Modelle, möglicherweise auf Daten basieren, die bereits Vorurteile oder Unzulänglichkeiten enthalten. Dies kann dazu führen, dass die Ergebnisse der Modelle ungleich behandeln oder benachteiligen bestimmte Gruppen.
Um Bias in Algorithmen und Modellen zu reduzieren, ist es wichtig, dass sie sorgfältig überprüft und hinterfragt werden. Dies kann durch transparente Bewertungsprozesse, Umfragen und offene Diskussionen erreicht werden, die mögliche Vorurteile oder Unzulänglichkeiten identifizieren und beheben helfen.
Es ist von großer Bedeutung, dass Akteure im Bildungssystem bewusst sind, dass sie eine Rolle bei der Reduzierung von Bias und der Förderung von Gleichheit und Vielfalt spielen.
Durch die Anwendung ethischer Standards und die Förderung einer inklusiven und fairen Lehr- und Forschungsumgebung können Hochschulen dazu beitragen, dass der Bias minimiert und fairer Zugang zu Bildung und Forschungsmöglichkeiten gewährleistet wird.
„Algorithmic bias describes
systematic and repeatable errors in a computer system that create
"unfair" outcomes,
such as "privileging" one
category over another in ways different from the intended function of
the algorithm.“
https://en.wikipedia.org/wiki/Algorithmic_bias
Diskriminierende KI.
Automatisierte Bewerbungssysteme: Unabsichtlich werden bestimmte Gruppen diskriminiert. Zum Beispiel wurden Frauen oder ethnische Minderheiten aufgrund von Bias in den Trainingsdaten benachteiligt. ausschließen.
Gesundheits-Apps. Sie raten bei Eingabe der gleichen Symptome Frauen zur Selbstbehandlung und Männern zum Arztbesuch.
Chat-Systeme geben rassistische oder sexistische Inhalte aus.
Kreditvergabe: KI-Algorithmen, die Kreditentscheidungen treffen, können aufgrund historischer Daten unbewusst diskriminierende Muster aufrecht erhalten. Wenn beispielsweise bestimmte benachteiligte Gruppen historisch gesehen weniger Kredite erhalten haben, kann die KI dies als „Vorhersagekriterium“ verwenden.
Spracherkennungssoftware: Wenn bestimmte Dialekte oder Akzente nicht korrekt erkannt oder verstanden werden.
Strafverfolgung/Risikobewertungstools
in der Strafjustiz: KI-Systeme werden zunehmend zur Unterstützung
bei der Strafverfolgung eingesetzt. Wenn jedoch die Trainingsdaten
eine Voreingenommenheit gegenüber bestimmten Gruppen aufweisen,
können solche Systeme zu einer ungleichen Behandlung führen, indem
sie bestimmte Gruppen als krimineller
einstufen.
https://de.wikipedia.org/wiki/Predictive_Policing
https://en.wikipedia.org/wiki/Predictive_policing
https://www.imdb.com/title/tt0181689/
(Minority Report, 2002)
Gesichtserkennung:
Einige KI-basierte Gesichtserkennungssysteme haben Schwierigkeiten,
Menschen mit dunklerer Hautfarbe korrekt zu identifizieren. Dies kann
zu einer Diskriminierung führen, wenn solche Systeme in
sicherheitsrelevanten Bereichen wie Flughäfen oder polizeilichen
Überwachungssystemen eingesetzt
werden.
https://www.imdb.com/title/tt1839578
(Person of Interest, 2011)
Gezielte Werbung (Menschen mit bestimmten Merkmalen)/Online-Werbung: KI-basierte Werbesysteme verwenden oft Daten über das Online-Verhalten der Nutzer, um personalisierte Werbung zu schalten. Wenn jedoch bestimmte Gruppen aufgrund von Vorurteilen oder Stereotypen bestimmte Arten von Werbung erhalten oder von bestimmten Werbemöglichkeiten ausgeschlossen werden, kann dies zu einer Diskriminierungführen.
etc.
Siehe auch: Google -
„Unsere zehn Grundsätze“ https://about.google/philosophy/
"Unsere Nutzerinnen und Nutzer stehen an erster Stelle, alles Weitere folgt von selbst." (selbsterklärend)
Beispiele (nicht nur) aus der letzten Zeit:
Datenleaks via KI - Preisgabe persönlicher Daten:
Scalable Extraction of Training Data from (Production) Language Models (https://arxiv.org/abs/2311.17035)
„Gemini“
Bildgenerierung wird vorübergehend abgestellt (02/2024)
https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical
https://twitter.com/micsolana/status/1760166145246777562
https://twitter.com/Google_Comms/status/1760603321944121506
https://twitter.com/elonmusk/status/1760516729783148583
Google CEO calls AI tool’s controversial responses ‘completely
unacceptable’
https://news.yahoo.com/google-ceo-calls-ai-tool-042603340.html
Unexpected responses from ChatGPT.
„On February 20, 2024, an optimization to the user experience
introduced a bug with how the model processes language. LLMs generate
responses by randomly sampling words based in part on probabilities.
Their “language” consists of numbers that map to tokens. In this
case, the bug was in the step where the model chooses these numbers.
Akin to being lost in translation, the model chose slightly wrong
numbers, which produced word sequences that made no
sense.“
https://status.openai.com/incidents/ssg8fh7sfyz3
Ja, eine KI könnte wohl auch eine „Webcam“ einschalten und den Pixelstrom für das „Gesundheitswesen“ auslesen ,)
„Canadian
university vending machine error reveals use of facial
recognition“
„Laut der Website von Invenda können die
intelligenten Verkaufsautomaten das Vorhandensein einer Person, ihr
geschätztes Alter und Geschlecht erkennen. […]
die Software
ist mit der Datenschutz-Grundverordnung der Europäischen Union
konform “ - aja.
Strafverfolgung.
„There’s software used across the country to predict future criminals. And it’s biased against blacks.“ https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
„Predictive
policing is still racist—whatever data it
uses“
https://www.technologyreview.com/2021/02/05/1017560/predictive-policing-racist-algorithmic-bias-data-crime-predpol/
(by Will Douglas Heaven)
Bewerbungen.
Die
„Bewerbungs-KI“ diskriminiert(e)
Frauen
https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung
Amazon:
KI zur Bewerbungsprüfung benachteiligte Frauen
https://www.heise.de/news/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html
Deepfakes
„Nude deepfake images of Taylor Swift went viral on X“ (2024/01)
https://www.nbcnews.com/tech/misinformation/taylor-swift-nude-deepfake-goes-viral-x-platform-rules-rcna135669
„Found
through Google, bought with Visa and Mastercard: Inside the deepfake
porn economy“
https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard-download-rcna75071
Werbung/Ads.
Fewer
Women Than Men Are Shown Online Ads Related to High-Paying
Jobs.
https://csd.cmu.edu/news/fewer-women-than-men-are-shown-online-ads-related-to-highpaying-jobst
Copryright
The Times
Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. Millions
of articles from The New York Times were used to train chatbots that
now compete with it, the lawsuit
said.
https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
Feelings ,)
Irgenwann wurde das klassiche CAPTCHA-Hackerl von "Ich bin kein Roboter." auf "Ich bin ein Mensch."geändert, tjo.
Bezahlung
KünstlerInnen werden für Jobs nicht bezahlt. (Link)
etc.