danah boyd hat auch am Informatik-Institut der Universität Wien einen Talk gehalten, hier ging es um das Streben nach responsible AI. Der Talk richtete sich (logischerweise?) recht offensichtlich an Leute, die AI entwickeln, und weniger an Leute wie mich, die als STS-ler drüber nachdenken, was Technologien gesellschaftlich bedeuten. Ich fand es dennoch sehr interessant:

Sketchnote zu „In the pursuit of responsible AI“ – danah boyd

Sie beschrieb – basierend auf ihrem Konferenz-Paper „Fairness and abstraction in sociotechnical systems“ von 2019 – acht Fallen, die man für responsible AI vermeiden sollte.

  1. Framing trap: Es ist wichtig, das große Ganze zu betrachten, also nicht nur eine AI-App, sondern auch das Smartphone, die Mobilfunkmasten oder das Stromnetz. Robustheit sollte man ernstnehmen, statt Produkte in ewigen Beta-Versionen zu belassen.
  2. Portability trap: context matters! Das gilt für kulturelle Normen und Logiken und vor allem für Sprache. Einfach alles in amerikanisches Englisch zu übersetzen und dann ggf. wieder zurück in eine andere Sprache greift zu kurz.
  3. Formalism trap: Definitionen von „Fairness“, „Privatsphäre“ oder „Sicherheit“ können sich gewaltig unterscheiden, je nachdem ob sie aus gesetzlicher, alltäglicher oder branchenüblicher Perspektive gefasst werden.
  4. Ripple effect trap: Technologien führen zu „normal accidents“ (Perrow, 1984), seien es der Beinahe-Meltdown von 3-Mile-Island oder der crash des Challenger Space Shuttles. Verhindern kann man so etwas nur, in dem man Resilienz, Redundanz, „Rückengurte“ und Puffer einbaut.
  5. Solutionism trap: Menschen in der IT sind meist besessen von Lösungen. Aber soziale Probleme lassen sich oftmals einfach gar nicht technisch lösen. Besser ist es also von „Interventionen“ zu sprechen, vor allem im gesetzlichen Kontext.
  6. Inevitability trap: Die Ansicht „AI wird kommen, ob wir wollen oder nicht“ vergisst, dass WIR Menschen Einfluss auf die Technologien um uns herum haben. Es gibt viele verschiedene Zukünfte für AI.
  7. Disruption trap: Kapitalistische Faktoren und Netzwerk-Macht (Castells, 2011) nehmen (zu?) viel Einfluss auf die Entwicklung von AI.
  8. Speed trap: schnell handeln, später alles durchdenken ist eine kurzsichtige Strategie, Menschen verkommen so zur „moralischen Knautschzone“ (Elish, 2019) und werden ggf. zu Unrecht für technologisches Versagen verantwortlich gemacht.

Daraus folgt für danah boyd: Responsible AI ist ein Mindset, das red-teaming, testing, maintenance/repair und resilience umfasst.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert