Connect with us

Künstliche Intelligenz

Die ‘Rassische Kategorisierung’-Herausforderung für CLIP-basierte Bildsynthesesysteme

mm

Neue Forschung aus den USA zeigt, dass eines der beliebten Computer-Vision-Modelle hinter der viel gefeierten DALL-E-Serie sowie vielen anderen Bildgenerierungs- und Klassifizierungsmodellen eine nachweisbare Tendenz zur Hypodeszenz – der Rasse-Kategorisierungsregel (auch bekannt als ‘One-Drop’-Regel) – aufweist, die eine Person mit sogar einem kleinen Anteil ‘gemischter’ (d. h. nicht-weißer) genetischer Abstammung vollständig in eine ‘Minderheiten’-Rassenkategorisierung einordnet.

Da die Hypodeszenz einige der hässlichsten Kapitel der Menschheitsgeschichte gekennzeichnet hat, schlagen die Autoren des neuen Papiers vor, dass solche Tendenzen in der Computer-Vision-Forschung und -Implementierung eine größere Aufmerksamkeit verdienen, nicht zuletzt, weil das unterstützende Framework, das fast eine Million Mal im Monat heruntergeladen wird, weiterhin rassistische Vorurteile in nachgelagerten Frameworks verbreiten und verbreiten könnte.

Die in der neuen Arbeit untersuchte Architektur ist Contrastive Language Image Pretraining (CLIP), ein multimodales Machine-Learning-Modell, das semantische Assoziationen durch Training auf Bild-/Bildunterschrift-Paaren aus dem Internet lernt – ein semi-überwachter Ansatz, der die erheblichen Kosten der Kennzeichnung reduziert, aber wahrscheinlich den Vorurteil der Menschen widerspiegelt, die die Bildunterschriften erstellt haben.

Autor über maschinelles Lernen, Domänen-Spezialist in der menschlichen Bildsynthese. Ehemaliger Leiter der Forschungsinhalte bei Metaphysic.ai.