Veröffentlicht am 13. April 2022
News Innovation – Data Bias: designing for defaults
Aus dem Programm des Technologietransfer-Kongresses am 04. Mai 2022. Ein Gastbeitrag von Irena Reitz, Peerigon GmbH.
1,77 Meter groß, im mittleren Alter, 76 Kilogramm auf der Waage, nicht-menstruierend, weiß. Mal ganz unvoreingenommen gefragt: Trifft eines oder mehrere der aufgezählten Merkmale mehr oder weniger auf Sie zu?
Größe, Alter oder Geschlecht sind zunächst neutrale menschliche Eigenheiten, die ganz subjektiv erfassbar und quantifizierbar sind. Entsprechende Datenreihen ermöglichen uns, in einer zunehmend unübersichtlichen Welt, genormte Durchschnittswerte zu finden, Tendenzen auszulesen und Entscheidungen zu erleichtern, die oftmals einer ganzen Gruppe zugute kommen können.
Andererseits kann diese Annahme von global geltenden Durchschnittswerten & Tendenzen oftmals zu Hürden im Alltag führen, die erst auf den zweiten Blick ersichtlich sind. Denn sie führen dazu, dass unsere Welt häufig auf Grundlage eines Normmenschen gestaltet ist, den es so nicht gibt. Ob im Bereich der Medizin, Sicherheitstechnik oder Stadtplanung – zahlreiche Disziplinen sind von jener Fehlannahme betroffen, dass Entscheidungen, die auf Basis eines Durchschnitts getroffen wurden, für alle passend gemacht sind.
Data Bias am Beispiel von Crashtest Dummys
So erfolgten die Sicherheitstests in der Automobilbranche jahrzehntelang auf Basis eines Crashtest Dummy Modells, das in Größe, Gewicht und Körperform einem Mann nachempfunden war. Erst spät wurde nachgebessert und die originalen Crashtest Dummys für kleinere und leichtere Menschen (Frauen) runterskaliert.
Proportional geht diese Umrechnung jedoch leider nicht auf. Neue Erkenntnisse zeigen: Um tatsächlich Autos auf Basis dieser Crashtests für Frauen sicherer zu gestalten, müssten sie auch anhand weiblicher Proportionen gestaltet und noch dazu am Steuer anstatt auf dem Beifahrersitz platziert werden. Das Beispiel zeigt, dass man oft nicht einmal allzu genau hinsehen muss, um zu bemerken, dass ein genormtes Design anhand eines einzigen Durchschnitts nicht praktikabel ist.
Worauf sollten wir also achten, wenn wir versuchen, unsere menschliche Fehlbarkeit durch vermeintlich neutrale Algorithmen zu eliminieren? Wie können Maschinen unsere Ungenauigkeiten und Unvollkommenheiten ausbügeln?
An dieser Stelle ist es wichtig, den sogenannten Data Bias mit in die Rechnung aufzunehmen. Der häufig, aber nicht ausschließlich menschengemachte Bias begegnet uns längst im Alltag, vom Händewaschen am Morgen bis zur Feierabendplaylist. In unseren Produkten und Systemen wirkt er weiter und kann unhinterfragt mitunter folgenschwere Risiken mit sich bringen.
Im Talk "Data Bias: designing for defaults“ zeigt die Fullstack Softwareentwicklerin Irena Reitz beispielhaft die große Bandbreite unserer menschlichen und maschinellen Voreingenommenheiten und gibt einen Ausblick darauf, wie wir alle ein Stück dazu beitragen können, ihnen entgegenzuwirken.
Aus dem Programm des Technologietransfer-Kongresses am 04. Mai 2022. Ein Gastbeitrag von Irena Reitz, Peerigon GmbH.
1,77 Meter groß, im mittleren Alter, 76 Kilogramm auf der Waage, nicht-menstruierend, weiß. Mal ganz unvoreingenommen gefragt: Trifft eines oder mehrere der aufgezählten Merkmale mehr oder weniger auf Sie zu?
Größe, Alter oder Geschlecht sind zunächst neutrale menschliche Eigenheiten, die ganz subjektiv erfassbar und quantifizierbar sind. Entsprechende Datenreihen ermöglichen uns, in einer zunehmend unübersichtlichen Welt, genormte Durchschnittswerte zu finden, Tendenzen auszulesen und Entscheidungen zu erleichtern, die oftmals einer ganzen Gruppe zugute kommen können.
Andererseits kann diese Annahme von global geltenden Durchschnittswerten & Tendenzen oftmals zu Hürden im Alltag führen, die erst auf den zweiten Blick ersichtlich sind. Denn sie führen dazu, dass unsere Welt häufig auf Grundlage eines Normmenschen gestaltet ist, den es so nicht gibt. Ob im Bereich der Medizin, Sicherheitstechnik oder Stadtplanung – zahlreiche Disziplinen sind von jener Fehlannahme betroffen, dass Entscheidungen, die auf Basis eines Durchschnitts getroffen wurden, für alle passend gemacht sind.
Data Bias am Beispiel von Crashtest Dummys
So erfolgten die Sicherheitstests in der Automobilbranche jahrzehntelang auf Basis eines Crashtest Dummy Modells, das in Größe, Gewicht und Körperform einem Mann nachempfunden war. Erst spät wurde nachgebessert und die originalen Crashtest Dummys für kleinere und leichtere Menschen (Frauen) runterskaliert.
Proportional geht diese Umrechnung jedoch leider nicht auf. Neue Erkenntnisse zeigen: Um tatsächlich Autos auf Basis dieser Crashtests für Frauen sicherer zu gestalten, müssten sie auch anhand weiblicher Proportionen gestaltet und noch dazu am Steuer anstatt auf dem Beifahrersitz platziert werden. Das Beispiel zeigt, dass man oft nicht einmal allzu genau hinsehen muss, um zu bemerken, dass ein genormtes Design anhand eines einzigen Durchschnitts nicht praktikabel ist.
Worauf sollten wir also achten, wenn wir versuchen, unsere menschliche Fehlbarkeit durch vermeintlich neutrale Algorithmen zu eliminieren? Wie können Maschinen unsere Ungenauigkeiten und Unvollkommenheiten ausbügeln?
An dieser Stelle ist es wichtig, den sogenannten Data Bias mit in die Rechnung aufzunehmen. Der häufig, aber nicht ausschließlich menschengemachte Bias begegnet uns längst im Alltag, vom Händewaschen am Morgen bis zur Feierabendplaylist. In unseren Produkten und Systemen wirkt er weiter und kann unhinterfragt mitunter folgenschwere Risiken mit sich bringen.
Im Talk "Data Bias: designing for defaults“ zeigt die Fullstack Softwareentwicklerin Irena Reitz beispielhaft die große Bandbreite unserer menschlichen und maschinellen Voreingenommenheiten und gibt einen Ausblick darauf, wie wir alle ein Stück dazu beitragen können, ihnen entgegenzuwirken.