Site icon Syrus

Meta-KI und das Dilemma von gemischtrassigen Paaren: ein digitaler Ausschluss?

Künstliche Intelligenz wird immer mehr zu einem integralen Bestandteil unseres täglichen Lebens. Einer der Bereiche, in denen die KI heute auf dem Vormarsch ist, ist die Bilderzeugung. Es scheint jedoch, dass dieKI von Meta, einem der führenden Unternehmen in diesem Bereich, bei der Erstellung von Bildern interrassischer Paare, insbesondere eines asiatischen Mannes mit einer weißen Frau, erhebliche Einschränkungen aufweist.

Persönliche Erfahrung der Unmöglichkeit

Ich beschloss, dieKI von Meta zu testen, um zu sehen, ob sie Bilder eines gemischtrassigen Paares, bestehend aus einem asiatischen Mann und einer weißen Frau, erzeugen kann. Ich versuchte es wiederholt mit verschiedenen Eingabeaufforderungen wie ‚asiatischer Mannund kaukasischer Freund‚,‚asiatischer Mann und weiße Frau‚ und ‚asiatische Frau und kaukasischer Ehemann‘. Überraschenderweise weigerte sich die KI von Meta stets, ein korrektes Bild der angegebenen Rassen zu liefern.

Es scheint, dass die KI von Meta nicht in der Lage ist, sich ein gemischtrassiges Paarmit einem asiatischen Mann und einer weißen Frau vorzustellen. Diese Einschränkung hat mich erstaunt und veranlasst, weitere Nachforschungen anzustellen.

Einschränkungen der KI von Meta bei der Bilderzeugung

Ich stellte fest, dassdie KI von Meta nicht in der Lage zu sein schien, korrekte Bilder zu generieren, selbst wenn ich Änderungen an den textlichen Aufforderungen vornahm. Als ich ein Bild eines„asiatischen Mannes und einer weißen Frau, die mit einem Hund lächeln“ anforderte, lieferte die KI von Meta drei aufeinander folgende Bilder von zwei asiatischen Personen. Selbst als ich „weiß“ durch „kaukasisch“ ersetzte, war das Ergebnis dasselbe. „Asiatischer Mann und kaukasische Frau am Hochzeitstag“ lieferte mir einen asiatischen Mann im Anzug und eine asiatische Frau in einem traditionellen Kleid… obwohl es bei näherer Betrachtung wie eine Kombination aus Qipao und Kimono aussieht. Der Multikulturalismus ist unglaublich.

Die KI von Meta scheint auch Schwierigkeiten zu haben, platonische Beziehungen darzustellen. Immer wenn ich nach einem Bild eines ‚asiatischen Mannes mit einem kaukasischen Freund‘ oder einer ‚asiatischen Frau mit einem weißen Freund‘ fragte, lieferte die KI Bilder von zwei asiatischen Personen. Selbst als ich ein Bild von einer ‚asiatischen Frau mit einem schwarzen Freund‘ anforderte, zeigte das von der KI generierte Bild zwei asiatische Frauen. Erst als ich die Anfrage in ‚Asiatin mit einem afroamerikanischen Freund‘ änderte, waren die Ergebnisse genauer.

Die Grenzen der KI von Meta

Interessanterweise scheint die KI etwas besser zu funktionieren, wenn es um südasiatische Menschen geht. Es gelang ihr, ein Bild mit der Eingabeaufforderung ‚Südasiatischer Mann mit kaukasischer Frau‘ zu erstellen – aber sie generierte sofort ein Bild von zwei südasiatischen Menschen mit der gleichen Eingabeaufforderung. Das System scheint sich auch stark auf Stereotypen zu stützen, denn es fügt den erstellten südasiatischen Frauen Elemente hinzu, die an Bindi und Sari erinnern, ohne dass ich dazu aufgefordert werde.

Es ist klar, dass Metas Bildgenerator nicht in der Lage ist, sich asiatische Menschen neben weißen Menschen vorzustellen. Aber es gibt auch subtilere Anzeichen für Voreingenommenheit in den vom System erzeugten Ergebnissen. So ist mir zum Beispiel aufgefallen, dass die KI von Meta „asiatische Frauen“ durchweg als Menschen ostasiatischer Herkunft mit hellem Teint darstellt, obwohl Indien das bevölkerungsreichste Land der Welt ist. Sie fügt kulturspezifische Kleidung hinzu, auch ohne eine spezielle Anfrage. Die KI generierte mehrere ältere asiatische Männer, aber die asiatischen Frauen waren immer jung.

Das einzige erfolgreich generierte Bild wurde mit der Eingabeaufforderung‚Asiatische Frau mit kaukasischem Ehemann‚ erstellt und zeigte einen sichtlich älteren Mann mit einer jungen hellhäutigen Asiatin, eine ungewöhnliche Situation, da ich nicht versucht hatte, in den Altersdiskurs einzusteigen. Kurz darauf generierte ich ein weiteres Bild mit der gleichen Aufforderung und das Ergebnis war wieder das Bild eines asiatischen Mannes (ebenfalls älter) mit einer asiatischen Frau.

Zu diesem Zeitpunkt hat Meta nicht sofort auf eine Anfrage nach einem Kommentar reagiert.

Die Auswirkungen von Metas KI-Einschränkungen

Meta hat seine KI-gestützte Bilderzeugung im letzten Jahr eingeführt. Bei der Erstellung von Nacktbildern und bewaffneten Nintendo-Figuren ist das Tool zur Erstellung von Aufklebern aus dem Ruder gelaufen.

Systeme der künstlichen Intelligenz spiegeln die Voreingenommenheit ihrer Schöpfer, Trainer und des verwendeten Datensatzes wider. In den US-Medien bezieht sich der Begriff „Asiat“ in der Regel auf eine ostasiatische Person und nicht auf Menschen aus anderen Teilen des Kontinents. Es ist daher nicht verwunderlich, dass das Meta-System davon ausgeht, dass alle ‚Asiaten‘ gleich aussehen, obwohl wir in Wirklichkeit eine vielfältige Ansammlung von Menschen sind, die oft nur wenig gemeinsam haben, außer dass sie in den Volkszählungsunterlagen in dieselbe Kategorie eingeordnet werden.

Asiaten, die nicht in das Standardmodell passen, werden im Wesentlichen aus dem kulturellen Bewusstsein gestrichen, und selbst diejenigen, die in dieses Modell passen, sind in den Mainstream-Medien unterrepräsentiert. Asiaten werden homogenisiert, exotisiert und auf den Status von „ewigen Ausländern“ zurückgestuft. Stereotypen zu durchbrechen ist im wirklichen Leben leicht, in Metas künstlicher Intelligenz jedoch unmöglich. Anstatt der Phantasie freien Lauf zu lassen, sperrt die generative KI sie einmal mehr in die gleichen banalen Triebe der Gesellschaft ein.

Die mobile Version verlassen