9 Gebru
Text is here
Intro
Unser Lesetext: Wired Artikel “What Really Happened When Google Ousted Timnit Gebru”
Was ist Wired?
- Zeit: “Wundertüte für Wissensjunkies”1
- Wikipedia: ein Magazin, das sich darauf konzentriert, wie neue Technologien Kultur, Wirtschaft und Politik beeinflussen 2
- Wired Website: Artikeln zu den Themen Business, Kultur, Wissenschaft
- Magazin, keine Fachzeitschrift, da keine peer-reviews 3
- Politisches Spektrum: Mitte 3
Um was geht es?
Auszug aus dem Wired Artikel: Es ist die Geschichte einer begabten Ingenieurin, die in die KI-Revolution hineingezogen wurde, bevor sie zu einer ihrer größten Kritikerinnen wurde, einer Geflüchteten, die sich ins Zentrum der Tech-Industrie vorarbeitete und entschlossen war, sie zu reformieren.
Geschichtej
Das Problem Paper
Ein Paper veröffentlicht, das dazu führte, dass sie ihre Position als Co-Leiterin von Googles Ethical AI research team verlor
“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”
- 4 Haupt-Risiken 4
- Umweltlichen und finanziellen Kosten durch das Training von Sprachmodellen
- Forschungsrichtung von AI:
- Fokus auf Illusion von Verständnis
- statt auf echtes Verstehen von Informationen
- → stochastiksche Papagaien
- Misinformation durch einen fehlerhaften oder sogar bewussten Einsatz von AI
- algorithmic bias (größtes Konfliktpotential, stellt dem Artikel nach den Grund für die Entlassung dar)
Algorithmic bias
Was ist der algorithmic bias? - “Algorithmic bias oder “Algorithmische Voreingenommenheit” beschreibt systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, wie z. B. die Bevorzugung einer beliebigen Gruppe von Benutzern gegenüber anderen” 5
Warum ist algorithmic bias so kontrovers?
→ man muss die vorherrschende Meinung bzw. die Struktur der AI-Forschungsgemeinschaft verstehen
AI-Forschungsgemeinschaft
NIPS-Konferenz
- “Neural Information Processing Systems”
- = top Konferenz der weltweiten AI-Community
- Timnit Gebru hat bei ihren Besuchen folgende Beobachtungen gemacht:
- viele weiße Männer
- verstörender: als Selfie-Model für Bilder genötigt
- von über 8500 Teilnehmern waren nur 6 Schwarze dabei
- → Diversität ist ein großes Problem in der AI-Forschungsgemeinschaft
Was wird dagegen gemacht?
FATML
- “Fairness, Accountability and Transparency in Machnine Learning”
- = ein jährlicher akademischer Workshop
- Behandelt die Frage, wie Algorithmen fair und transparent designt werden können
- Veranstalter: u.a. Timnit Gebru
- Sponsoren: Microsoft, Google, später auch andere Techgiganten
Techgiganten
- Microsoft’s Ethik Text “The Future Computed”
- behandelt u.a. Fairness & Inklusivität
- Google Ethical AI Research Team
- Erforschung der ethischen Implikationen von AI und wie man diese vermeiden kann
- Leiterinnen: Timnit Gebru, Margaret Mitchell
Spannungsfeld
Spannungsfeld: AI-Hype VS. Algorithmic bias
- Vorherrschende Idee: Menschen sind voreingenommen, aber Algorithmen sind es nicht
- Problem: Algorithmic bias widerlegt diese These
- Lösung 1: Algorithmic bias eingestehen & bekämpfen → AI-Hype wird gedämpft → schlecht für Tech Giganten
- Lösung 2: Belege für Algorithmic bias unterdrücken → Ethische AI Anstrengungen als “Feigenblatt” → Skandal, siehe Timnit Gebru
Skandal - Unvereinbarkeit von:
- Worte der Techgiganten: Öffentlich für Diversität & AI Ethik einsetzen
- Taten der Techgiganten: Feedback ignorieren & Erkenntnisse unterdrücken
Diskussion
„I’m not worried about machines taking over the world, I’m worried about groupthink, insu- larity, and arrogance in the AI community“. – Dieses Zitat aus dem Text zeigt ein zentrales Problem der Tech-Industrie: Fehlende Diversität, die sich eben auch in der Entwicklung von Algorithmen wiederspiegelt”
- Wer studiert mit Ihnen zusammen Medieninformatik? Männer, Frauen? Privilegierte Gruppen? Also: Wie divers ist denn unser Studiengang? Sehen Sie auch bei unseren Absolvent*innen eine Gefahr für Inseldenken, Gruppendenken und Arroganz?