Biases in generativen KI-Modellen - Digitalisierungsprozesse, KI und Gleichstellung an Hochschulen – bukof
Was ist ein Bias?
Bias bezeichnet im Allgemeinen eine Verzerrung. In der Psychologie versteht man darunter Einstellungen oder Stereotype, die unsere Wahrnehmung, Entscheidungen und Handlungen in positiver oder negativer Weise beeinflussen. In der Statistik wird Bias als systematischer Fehler bei der Datenerhebung oder -verarbeitung betrachtet, der sowohl unbewusst (Unconscious Bias) als auch bewusst durch die Beteiligten entstehen kann. Bias kann in vielfältigen Formen auftreten, von denen manche zu Benach-teiligung oder Ungleichbehandlung führen können.
Wie entsteht ein Bias in der KI-Entwicklung
Künstliche Intelligenz wird entwickelt, indem große Datenmengen genutzt werden, um Algorithmen zu trainieren, Muster zu erkennen und Vorhersagen zu treffen.
Wenn diese Trainingsdaten Vorurteile oder Ungleichheiten enthalten, kann die KI diese Biases übernehmen und verstärken. Dies kann an verschiedenen Stellen im Entwicklungsprozess entstehen.
Beispiele für Biases
Historischer Bias: Bereits bestehende Vorurteile und soziotechnische Probleme in der Welt.
Datenbias: Bevorzugung / Benachteiligung bestimmter Gruppen, Muster oder Ergebnisse.
Sprachlicher Bias: Bevorzugung / Benachteiligung bestimmter Sprachen, Dialekte, Sprachstile oder Ausdrucksweisen.
Ethischer Bias: Ungleiche oder parteiische Repräsentation moralischer, kultureller oder gesellschaftlicher Werte.
Algorithmischer Bias: Struktur, Annahmen oder Entscheidungen innerhalb eines Algorithmus verursachen unfaire oder unausgewogene Ergebnisse.
Selektionsbias: Gruppen, Merkmale oder Situationen sind in Trainingsdaten über- oder unterrepräsentiert.
Digitalisierung an Hochschulen braucht eine gleichstellungspolitische Perspektive!
Inhalte zum Thema Biases in KI aus einer Fortbildung mit Dr. Jenny Bauer (Hochschule Emden/Leer) & Dr. Annelie Rothe-Wulf (www.hs-heilbronn.de/de/lab-sozio... | Hochschule Heilbronn).
#DiversityInAI