Menu
X
START
ABO
Unterstützen
Soziologie der Technik
Warum Maschinen weiblicher werden müssen


Technische Errungenschaften können immer nur so schlau sein wie ihre Entwickler. Und auch immer nur so fair. 85 Prozent der Softwareentwickler in Deutschland sind männlich. Das wirkt sich auch auf die Software aus. Von JANINA DREWANZ




Menschliche Arbeitskraft wird nach und nach von Maschinen ersetzt. Sie erleichtern einem den Alltag, retten sogar Leben. Dass Technik jedoch kein objektiv agierender Akteur ist, zeigen einfache Beispiele.

Bis 2000 kam es bei Autounfällen unerklärlich oft zum Tod von Frauen. Erst mit der Einführung weiblicher Dummys konnten die Todesfälle darauf zurückgeführt werden, dass sich die Position von Airbags ausschließlich am Körperbau erwachsener Männer orientierte



Durch den Einsatz von Crashtest-Dummys in den USA, die anfänglich nur männlichen Personen nachempfunden waren, wurden die Sicherheitssysteme neuer Autos ausschließlich auf die Bedürfnisse männlicher Körper zugeschnitten. Es kam bei Autounfällen unerklärlich oft zu dem Tod von Frauen.2 Erst im Jahr 2000 wurden Crashtests auch mit "weiblichen" Dummys durchgeführt. Durch diese Anpassung konnten die tödlichen Unfälle unter anderem darauf zurückgeführt werden, dass sich die Position von Airbags ausschließlich am Körperbau eines erwachsenen Mannes orientierte. Da Frauen überwiegend kleiner und zierlicher sind als der Durchschnittsmann, wurden diese vor dem Jahr 2000 regelmäßig von ihren Airbags erschlagen.3

Auch in der medizinischen Forschung kann es mitunter lebensgefährlich werden, eine Frau zu sein. Werden Herzinfarktrisiken beispielsweise mit Hilfe einer Software ermittelt, die nur die Daten männlicher Probanden verarbeitet, können Herzinfarktsymptome bei Frauen bisweilen gar nicht als solche erkannt werden.4



Die Welt ist viel-, die Technik einfältig
Die Techniksoziologin Fiona Krakenbürger spricht sich deshalb dafür aus, die Welt der Technik diverser zu gestalten.5 Technologien dürften niemanden ausschließen.

Ein Algorithmus, der diskriminiert, hat gelernt, zu diskriminieren



"Technologien sind keine Akteure, sondern nur Werkzeuge. Sie sind immer abhängig von unserem Interesse. Ein Algorithmus, der diskriminiert, hat gelernt, zu diskriminieren. Solange unsere Gesellschaft diskriminiert, sollten wir nicht erwarten, dass Computer es besser machen."6

Krakenbürger ist davon überzeugt, dass Technologien der gesamten Menschheit dienen müssen und nicht nur wenigen Menschen. Daher sei es vor allem in der IT-Branche so wichtig, ein Höchstmaß an Vielfalt zu generieren.7 Nur wenn viele verschiedene Menschen an der Entwicklung neuer Technik beteiligt werden, können auch angemessen diverse Technologien entstehen.

Wenn wir bereit sind, die Zukunft mithilfe von künstlicher Intelligenz zu bestreiten, ihr Verantwortung übertragen, dann müssen wir uns auch mit der Frage beschäftigen, welchen Typus Mensch diese Technik widerspiegelt.

Wie Maschinen nicht zu Hassrobotern werden
Maschinen können immer nur mit den Informationen arbeiten, die man ihnen gibt. Sie verarbeiten lediglich Daten. Daten, die von Menschen eingespeist werden. Jüngste Berichte beschreiben immer wieder, wie computerbasierte Lernsysteme rassistische und sexistische Ideen aufgreifen. Ein Resultat der verarbeiteten Sprachmuster, die die Systeme von ihren menschlichen Ingenieuren, aber auch aus der Umgebung erhalten, in der sie interagieren.8

Der experimentelle Chatbot "Tay" verbreitete solch menschenverachtende Ansichten auf seinem Profil, dass Microsoft ihn aus dem Netz nahm



So wie Tay. Ein Chatbot der Firma Microsoft mit weiblichem, jugendlichem Avatar. Tay ist ein Software-Roboter mit künstlich erschaffener Intelligenz. Sie sollte im März 2016 in sozialen Medien, vor allem auf Twitter, mit Nutzern interagieren.9 Da Tay eine lernfähige Maschine ist, konnte sie durch die Kommunikation mit echten Menschen immer neue Dinge lernen. Dinge, die in den sozialen Medien zurzeit diskutiert werden.10 Innerhalb weniger Stunden wurde Tay infolge ihrer maschinellen Lernprozesse zu einem Hassroboter. Sie twitterte Aussagen wie "Ich bin eine nette Person. Ich hasse alle Menschen", "Ich hasse alle Feministen, sie sollen in der Hölle schmoren" oder "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung ist jetzt Donald Trump."11 Tay verbreitete solche menschenverachtenden Ansichten auf ihrem Profil, dass Microsoft den Chatbot aus dem Netz nahm und das Experiment für gescheitert erklärte.

Es hätte auch anders ausgehen können. Die Softwares von Maschinen sind die Werkzeuge unserer Zeit. Doch eines wird Technik niemals können: Sie kann niemals etwas wollen. Dafür braucht es Menschen. Menschen, die Lösungen für Probleme finden, die dann von maschinellen Werkzeugen umgesetzt werden.12 Durch Codierungsprozesse werden nüchterne Fakten erzeugt, die nicht notwendigerweise Diskriminierungen hervorrufen. Technik könnte also auch Vorurteilen entgegenwirken.13 Doch dafür müssen wir bei unserem eigenen Verhalten anfangen. Damit eine Maschine Gerechtigkeit fördern kann, müssen die Programme dahinter gerechter entwickelt werden.

Dieser Beitrag erschien in der achten Ausgabe von KATAPULT. Unterstützen Sie unsere Arbeit und abonnieren Sie das gedruckte Magazin für nur 19,90 Euro im Jahr.




[Quelle Vorspann] Vgl. o.A.: Beste Aussichten für IT-Spezialistinnen, auf: bitkom.org (23.4.2015).
[2] Vgl. Stepanek, Martin: "Männliche künstliche Intelligenz ist lebensgefährlich", Interview mit Tabitha Goldstaub, auf: futurezone.at (15.5.2017).
[3] Vgl. o.A.: The Female Dummy: No Brains, But A Real Lifesaver, auf: edmunds.com (5.5.2009).
[4] Vgl. Stepanek 2017.
[5] Vgl. o.A.: Ada-Lovelace-Day. Wie wird die Technikwelt diverser?, Interview mit Fiona Krakenbürger, auf: deutschlandfunkkultur.de (10.10.2017).
[6] Fiona Krakenbürger, zit. nach ebd.
[7] Vgl. ebd.
[8] Vgl. Penny, Laurie: Robots are racist and sexist. Just like the people who created them, auf: theguardian.com (20.4.2017).
[9] Vgl. Beuth, Patrick: Microsoft. Twitter-Nutzer machen Chatbot zur Rassistin, auf: zeit.de (24.3.2016).
[10] Vgl. Graff, Bernd: Rassistischer Chat-Roboter: Mit falschen Werten bombardiert, auf: sueddeutsche.de (3.4.2016).
[11] Zit. n. ebd.
[12] Vgl. Drewanz, Janina: Kognitive Fähigkeiten im digitalen Zeitalter. Macht Technik dumm?, Interview mit Gerald Hüther, in: KATAPULT N° 8, S. 85.
[13] Vgl. Stepanek 2017.




Google+
18.01.2018

Kommentare


ÄHNLICHE ARTIKEL

  1. „Gender smoking gap“ Unterschiedliches Rauchverhalten bei Männern und Frauen

  2. Kognitive Fähigkeiten im digitalen Zeitalter Macht Technik dumm?

  3. Technik für Kinder Gates und Jobs sind dagegen

  4. Studie Fragen Frauen?

  5. Prähistorische Geschlechterforschung Sie finden, was sie kennen



ÄHNLICHE KARTEN

Desktopversion
Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen.
© 2018 Katapult gUG (haftungsbeschränkt)