stub Błędy AI i stereotypy kulturowe: skutki, ograniczenia i łagodzenie – Unite.AI
Kontakt z nami

Artificial Intelligence

Błędy AI i stereotypy kulturowe: skutki, ograniczenia i łagodzenie

mm

Opublikowany

 on

Błędy AI i stereotypy kulturowe: skutki, ograniczenia i łagodzenie

W szczególności sztuczna inteligencja (AI). generatywna sztuczna inteligencja, w dalszym ciągu przekracza oczekiwania dzięki swojej zdolności rozumienia i naśladowania ludzkiego poznania i inteligencji. Jednak w wielu przypadkach wyniki lub przewidywania systemów sztucznej inteligencji mogą odzwierciedlać różne rodzaje uprzedzeń związanych ze sztuczną inteligencją, na przykład kulturowe i rasowe.

Buzzfeeda”Barbie Świata” (obecnie usunięty) wyraźnie ukazuje te kulturowe uprzedzenia i nieścisłości. Te „barbie” zostały stworzone przy użyciu W połowie drogi – wiodący generator obrazów AI, aby dowiedzieć się, jak wyglądałaby lalka Barbie w każdej części świata. Porozmawiamy o tym więcej później.

Ale to nie pierwszy raz, kiedy sztuczna inteligencja jest „rasistowska” lub daje niedokładne wyniki. Na przykład w 2022 r. Apple było pozwany w związku z zarzutami, że czujnik natlenienia krwi w Apple Watch był stronniczy w stosunku do osób kolorowych. W innym zgłoszonym przypadku odkryli to użytkownicy Twittera Sztuczna inteligencja automatycznego przycinania obrazów na Twitterze faworyzował twarze białych ludzi nad czarnymi i kobiety nad mężczyznami. Są to wyzwania krytyczne i sprostanie im stanowi duże wyzwanie.

W tym artykule przyjrzymy się, czym jest stronniczość sztucznej inteligencji, jak wpływa ona na nasze społeczeństwo i pokrótce omówimy, w jaki sposób praktycy mogą złagodzić aby stawić czoła wyzwaniom, takim jak stereotypy kulturowe.

Co to jest stronniczość AI?

Stronniczość sztucznej inteligencji ma miejsce, gdy modele sztucznej inteligencji dają dyskryminujące wyniki w stosunku do określonych grup demograficznych. Do systemów sztucznej inteligencji może przedostać się kilka rodzajów uprzedzeń, które mogą dawać nieprawidłowe wyniki. Niektóre z tych uprzedzeń AI to:

  • Stereotypowe nastawienie: Stereotypowe nastawienie odnosi się do zjawiska, w którym wyniki modelu sztucznej inteligencji składają się ze stereotypów lub postrzeganych wyobrażeń na temat określonej grupy demograficznej.
  • Uprzedzenia rasowe: Uprzedzenia rasowe w sztucznej inteligencji mają miejsce, gdy wynik modelu sztucznej inteligencji jest dyskryminujący i niesprawiedliwy wobec jednostki lub grupy ze względu na jej pochodzenie etniczne lub rasę.
  • Uprzedzenia kulturowe: Uprzedzenia kulturowe wchodzą w grę, gdy wyniki modelu sztucznej inteligencji faworyzują jedną kulturę kosztem innej.

Oprócz uprzedzeń na wyniki systemu sztucznej inteligencji mogą również wpływać inne problemy, takie jak:

  • Niedokładności: Niedokładności występują, gdy wyniki wygenerowane przez model sztucznej inteligencji są nieprawidłowe z powodu niespójnych danych szkoleniowych.
  • halucynacje: Halucynacje pojawiają się, gdy modele sztucznej inteligencji dają fikcyjne i fałszywe wyniki, które nie są oparte na faktycznych danych.

Wpływ uprzedzeń AI na społeczeństwo

Wpływ uprzedzeń AI na społeczeństwo może być szkodliwy. Stronnicze systemy sztucznej inteligencji mogą dawać niedokładne wyniki, które wzmacniają uprzedzenia już istniejące w społeczeństwie. Wyniki te mogą zwiększyć dyskryminację i naruszenia praw, wpłynąć na procesy rekrutacyjne i zmniejszyć zaufanie do technologii sztucznej inteligencji.

Ponadto stronnicze wyniki sztucznej inteligencji często prowadzą do niedokładnych przewidywań, które mogą mieć poważne konsekwencje dla niewinnych osób. Na przykład w sierpniu 2020 r. Roberta McDaniela stał się celem przestępstwa ze względu na predykcyjny algorytm policyjny Departamentu Policji w Chicago, który określił go jako „osobę zainteresowaną”.

Podobnie stronnicze systemy sztucznej inteligencji w opiece zdrowotnej mogą mieć poważne skutki dla pacjentów. W 2019 r. nauka odkryłem, że jest to powszechnie stosowane Algorytm medyczny w USA było rasistowskie wobec osób kolorowych, co doprowadziło do tego, że czarnoskórzy pacjenci byli mniej objęci opieką zdrowotną wysokiego ryzyka.

Barbie Świata

W lipcu 2023, Buzzfeed opublikował blog zawierający 194 lalki Barbie wygenerowane przez sztuczną inteligencję z całego świata. Post stał się wirusowy na Twitterze. Chociaż Buzzfeed napisał oświadczenie o zastrzeżeniu, nie powstrzymało to internautów od wytykania nieścisłości rasowych i kulturowych. Na przykład wygenerowany przez sztuczną inteligencję obraz Niemki Barbie miała na sobie mundurek: Nazista SS ogólne

Barbie świata-obraz5

Podobnie wygenerowany przez sztuczną inteligencję obraz Barbie z Sudanu Południowego pokazano z bronią u boku, co odzwierciedla głęboko zakorzenione uprzedzenia w algorytmach sztucznej inteligencji.

Barbie świata-obraz4

Poza tym kilka innych zdjęć pokazywało nieścisłości kulturowe, np. Katarska Barbie ubrana w Ghutra, tradycyjny nakrycie głowy noszone przez arabskich mężczyzn.

Barbie świata-obraz3

Ten post na blogu spotkał się z masową krytyką stereotypów i uprzedzeń kulturowych. The Londyńska Szkoła Interdyscyplinarna (LIS) nazwał to szkoda reprezentacyjna należy to kontrolować poprzez narzucanie norm jakości i ustanawianie organów nadzorujących sztuczną inteligencję.

Ograniczenia modeli AI

AI ma potencjał zrewolucjonizować wiele branż. Jeśli jednak scenariusze takie jak te wymienione powyżej będą się powtarzać, może to prowadzić do spadku ogólnego stosowania sztucznej inteligencji, co spowoduje utratę szans. Takie przypadki zwykle mają miejsce ze względu na istotne ograniczenia systemów AI, takie jak:

  • Brak kreatywności: Ponieważ sztuczna inteligencja może podejmować decyzje wyłącznie na podstawie danych treningowych, brakuje jej kreatywności, aby myśleć nieszablonowo, co utrudnia kreatywne rozwiązywanie problemów.
  • Brak zrozumienia kontekstu: Systemy sztucznej inteligencji mają trudności ze zrozumieniem niuansów kontekstowych lub wyrażeń językowych regionu, co często prowadzi do błędów w wynikach.
  • Błąd treningowy: Sztuczna inteligencja opiera się na danych historycznych, które mogą zawierać wszelkiego rodzaju próbki dyskryminujące. Podczas szkolenia model może łatwo nauczyć się dyskryminacyjnych wzorców, co daje nieuczciwe i stronnicze wyniki.

Jak zmniejszyć błąd w modelach AI

Eksperci oszacowanie że do 2026 r. 90% treści w Internecie będzie można wygenerować syntetycznie. Dlatego istotne jest szybkie minimalizowanie problemów występujących w technologiach generatywnej sztucznej inteligencji.

Aby zmniejszyć stronniczość w modelach sztucznej inteligencji, można wdrożyć kilka kluczowych strategii. Niektóre z nich to:

  • Zapewnij jakość danych: Pozyskiwanie kompletnych, dokładnych i czystych danych do modelu sztucznej inteligencji może pomóc zmniejszyć stronniczość i uzyskać dokładniejsze wyniki.
  • Różnorodne zbiory danych: Wprowadzenie różnorodnych zbiorów danych do systemu sztucznej inteligencji może pomóc złagodzić stronniczość, ponieważ z czasem system sztucznej inteligencji staje się coraz bardziej włączający.
  • Zwiększone przepisy: Globalne regulacje dotyczące sztucznej inteligencji mają kluczowe znaczenie dla utrzymania jakości systemów sztucznej inteligencji ponad granicami. Dlatego organizacje międzynarodowe muszą współpracować, aby zapewnić standaryzację sztucznej inteligencji.
  • Większe wykorzystanie odpowiedzialnej sztucznej inteligencji: Odpowiedzialne strategie sztucznej inteligencji pozytywnie przyczyniają się do łagodzenia uprzedzeń związanych ze sztuczną inteligencją, kultywowania uczciwości i dokładności w systemach sztucznej inteligencji oraz zapewniania, że ​​służą one zróżnicowanej bazie użytkowników, przy jednoczesnym dążeniu do ciągłego doskonalenia.

Uwzględniając różnorodne zbiory danych, odpowiedzialność etyczną i otwarte media komunikacji, możemy zapewnić, że sztuczna inteligencja będzie źródłem pozytywnych zmian na całym świecie.

Jeśli chcesz dowiedzieć się więcej o uprzedzeniach i roli sztucznej inteligencji w naszym społeczeństwie, przeczytaj poniższe blogi.