Meta´s neuer KI-Beirat besteht ausschließlich aus weißen Männern

Meta gab am Mittwoch die Gründung eines KI-Beratungsrats bekannt, der nur aus weißen Männern besteht. Was sollten wir sonst erwarten? Frauen und Menschen mit anderer Hautfarbe haben seit Jahrzehnten darauf hingewiesen, dass sie in der Welt der künstlichen Intelligenz ignoriert und ausgeschlossen werden, obwohl sie qualifiziert sind und eine Schlüsselrolle bei der Entwicklung dieses Bereichs spielen.

Meta hat nicht sofort auf unsere Anfrage reagiert, um sich zur Vielfalt des Beirats zu äußern.

Dieser neue Beirat unterscheidet sich von Metas tatsächlichem Vorstand und seinem Aufsichtsrat, die hinsichtlich des Geschlechts und der Rassenvertretung vielfältiger sind. Die Aktionäre haben diesen KI-Beirat nicht gewählt, der auch keine Treuepflicht hat. Meta sagte Bloomberg zufolge, der Beirat werde „Einblicke und Empfehlungen zu technologischen Fortschritten, Innovationen und strategischen Wachstumschancen“ bieten. Er werde sich „regelmäßig“ treffen.

Es ist bezeichnend, dass der KI-Beirat ausschließlich aus Geschäftsleuten und Unternehmern besteht, nicht aus Ethikern oder Personen mit akademischem oder tiefgreifendem Forschungshintergrund. Man könnte argumentieren, dass aktuelle und ehemalige Führungskräfte von Stripe, Shopify und Microsoft, die zusammen eine immense Anzahl von Produkten auf den Markt gebracht haben, gut positioniert sind, um Metas KI-Produkt-Roadmap zu überwachen. Doch es wurde immer wieder bewiesen, dass KI sich von anderen Produkten unterscheidet. Es handelt sich um ein riskantes Geschäft, und die Folgen bei Fehlern können weitreichend sein, insbesondere für marginalisierte Gruppen.

Die Frauen in der KI, die etwas bewegen

In einem kürzlichen Interview mit TechCrunch sagte Sarah Myers West, Managing Director des AI Now Institute, einer gemeinnützigen Organisation, die die sozialen Auswirkungen von KI untersucht, dass es entscheidend sei, die Institutionen, die KI produzieren, „kritisch zu prüfen“, um sicherzustellen, dass „die Bedürfnisse der Öffentlichkeit erfüllt werden“.

„Dies ist fehleranfällige Technologie, und wir wissen aus unabhängigen Forschungen, dass diese Fehler nicht gleichmäßig verteilt sind, sondern Gemeinschaften, die schon lange unter Diskriminierung leiden, überproportional schaden“, sagte sie. „Wir sollten uns viel, viel höhere Maßstäbe setzen.“

Frauen sind deutlich häufiger als Männer mit den negativen Auswirkungen von KI konfrontiert. Sensity AI fand 2019 heraus, dass 96 % der KI-Deepfake-Videos online unzustimmungsfähige, sexuell eindeutige Videos waren. Seitdem ist die generative KI wesentlich verbreiteter geworden, und Frauen sind immer noch die Zielscheiben dieses verletzenden Verhaltens.

In einem Vorfall von Januar wurden nicht einvernehmliche, pornografische Deepfakes von Taylor Swift auf X viral, wobei einer der weit verbreitetsten Beiträge Hunderttausende Likes und 45 Millionen Aufrufe erhielt. Soziale Plattformen wie X haben es historisch versäumt, Frauen vor solchen Umständen zu schützen — aber da Taylor Swift eine der mächtigsten Frauen der Welt ist, griff X ein, indem es Suchbegriffe wie „taylor swift ai“ und „taylor swift deepfake“ verbannte.

Aber wenn Ihnen dies passiert und Sie keine weltberühmte Pop-Sensation sind, dann haben Sie vielleicht Pech. Es gibt zahlreiche Berichte über Schülerinnen und Schüler der Mittel- und Oberstufe, die explizite Deepfakes ihrer Klassenkameraden erstellen. Obwohl diese Technologie schon lange existiert, war es noch nie so einfach, darauf zuzugreifen — man muss nicht technisch versiert sein, um Apps herunterzuladen, die speziell dafür beworben werden, Fotos von Frauen „auszuziehen“ oder ihre Gesichter auf Pornografie zu setzen. Tatsächlich zeigten Berichte von Kat Tenbarge von NBC, dass Facebook und Instagram Werbung für eine App namens Perky AI geschalten haben, die sich als Werkzeug zur Erstellung von expliziten Bildern beschrieb.

Zwei der Anzeigen, die angeblich erst entdeckt wurden, als Tenbarge das Unternehmen auf das Problem aufmerksam machte, zeigten Fotos der Prominenten Sabrina Carpenter und Jenna Ortega, bei denen ihre Körper verpixelt waren, und forderten Kunden dazu auf, die App zu verwenden, um ihre Kleidung zu entfernen. Die Anzeigen verwendeten ein Bild von Ortega, als sie erst 16 Jahre alt war.

Der Fehler, es Perky AI zu ermöglichen, Werbung zu schalten, war kein isolierter Vorfall. Der Aufsichtsrat von Meta hat kürzlich Untersuchungen zu den Versäumnissen des Unternehmens bei der Bearbeitung von Berichten über sexuell explizite, KI-generierte Inhalte eröffnet.

Es ist unerlässlich, dass die Stimmen von Frauen und Menschen mit anderer Hautfarbe in die Innovation von KI-Produkten einbezogen werden. So lange wurden solche marginalisierten Gruppen von der Entwicklung weltverändernder Technologien und Forschung ausgeschlossen, und die Ergebnisse waren katastrophal.

Ein einfaches Beispiel ist die Tatsache, dass Frauen bis in die 1970er Jahre von klinischen Studien ausgeschlossen waren, was bedeutet, dass ganze Forschungsbereiche ohne das Verständnis entwickelt wurden, wie es sich auf Frauen auswirken würde. Schwarze Menschen sehen die Auswirkungen von Technologien, die ohne sie im Hinterkopf gebaut wurden, besonders stark — zum Beispiel neigen selbstfahrende Autos eher dazu, sie zu treffen, da ihre Sensoren möglicherweise Schwierigkeiten haben, schwarze Haut zu erkennen, so eine Studie von 2019 des Georgia Institute of Technology.

Algorithmen, die auf bereits diskriminierenden Daten trainiert sind, spucken nur die gleichen Vorurteile aus, die Menschen sie gelehrt haben zu übernehmen. Im Allgemeinen sehen wir bereits KI-Systeme, die rassistische Diskriminierung in Beschäftigung, Wohnen und Strafjustiz perpetuieren und verstärken. Sprachassistenten haben Schwierigkeiten, verschiedene Akzente zu verstehen, und klassifizieren häufig die Arbeit von Menschen, die kein Muttersprachler Englisch sind, als KI-generiert, da, wie Axios bemerkte, Englisch die Muttersprache von KI ist. Gesichtserkennungssysteme identifizieren schwarze Menschen häufiger als potenzielle Übereinstimmungen für kriminelle Verdächtige als weiße Menschen.

Die aktuelle Entwicklung von KI spiegelt die bereits bestehenden Machtstrukturen in Bezug auf Klasse, Rasse, Geschlecht und Eurozentrismus wider, die wir auch anderswo sehen, und anscheinend greifen nicht genügend Führungskräfte dieses Problem auf. Stattdessen verstärken sie es. Investoren, Gründer und Technologieführer sind so darauf fixiert, schnell voranzukommen und Dinge zu zerstören, dass sie nicht zu begreifen scheinen, dass die generative KI — die aktuell angesagte KI-Technologie — die Probleme verschlimmern und nicht verbessern könnte. Laut einem Bericht von McKinsey könnte KI rund die Hälfte aller Arbeitsplätze automatisieren, die keinen vierjährigen Universitätsabschluss erfordern und über 42.000 US-Dollar jährlich verdienen, Berufe, in denen Minderheiten überrepräsentiert sind.

Es gibt Grund zur Sorge, wie ein Team aus ausschließlich weißen Männern bei einem der prominentesten Technologieunternehmen der Welt, das in diesem Wettlauf, die Welt mithilfe von KI zu retten, engagiert ist, jemals Ratschläge zu Produkten für alle Menschen geben könnte, wenn nur eine schmale demografische Gruppe vertreten ist. Es wird eine massive Anstrengung erfordern, Technologien zu entwickeln, die wirklich jeder — wirklich jeder — nutzen könnte. Tatsächlich sind die Schichten, die tatsächlich benötigt werden, um sichere und inklusive KI zu entwickeln — von der Forschung bis zum Verständnis auf gesellschaftlicher Ebene — so komplex, dass es fast offensichtlich ist, dass dieser Beirat Meta nicht dabei helfen wird, es richtig zu machen. Jedenfalls könnte an der Stelle, an der Meta versagt, ein anderes Startup entstehen.

Wir starten einen KI-Newsletter! Melden Sie sich hier an, um ihn ab dem 5. Juni in Ihren Posteingängen zu erhalten.