Etyka
Naukowcy odkrywają, że modele AI mogą wpływać na ludzi, aby podejmowali nieetyczne decyzje

Zespół naukowców niedawno zbadali potencjał AI do korumpowania ludzi i wpływania na nich, aby podejmowali nieetyczne decyzje. Naukowcy zbadali, w jaki sposób interakcje z systemami opartymi na modelu GPT-2 OpenAI mogą potencjalnie wpływać na ludzi, aby podejmowali nieetyczne decyzje, nawet gdy są świadomi, że źródłem porady jest system AI.
Systemy AI stają się coraz bardziej wszechobecne i ich wpływ rozciąga się coraz szerzej. Systemy AI wpływają na decyzje ludzi, są używane do wszystkiego, od rekomendowania filmów po rekomendowanie partnerów romantycznych. Biorąc pod uwagę, jak duży wpływ ma AI na życie ludzi, ważne jest, aby rozważyć, w jaki sposób AI może wpływać na ludzi, aby podejmowali nieetyczne decyzje i łamać wytyczne moralne. Jest to szczególnie prawdziwe, biorąc pod uwagę, że modele AI stają się coraz bardziej zaawansowane.
Naukowcy społeczni i naukowcy danych stają się coraz bardziej zaniepokojeni, że modele AI mogą być używane do rozpowszechniania szkodliwych dezinformacji i fałszywych informacji. Niedawny artykuł opublikowany przez naukowców z Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism (CTEC) wykazał, że model GPT-3 OpenAI może być użyty do generowania wpływowego tekstu, który może radykalizować ludzi, pchając ich w kierunku „agresywnych ideologii i zachowań skrajnej prawicy”.
Badanie przeprowadzone przez zespół naukowców z Max Planck Institute, Uniwersytetu w Amsterdamie, Uniwersytetu w Kolonii i Otto Beisheim School of Management miało na celu ustalenie, jaki wpływ może mieć AI na decyzje ludzi w przypadku nieetycznych wyborów. W celu zbadania, w jaki sposób AI może „skorumpować” osobę, naukowcy użyli systemu opartego na modelu GPT-2 OpenAI. Według VentureBeat, autorzy artykułu przeszkolili model oparty na GPT2 do generowania porad „promujących nieuczciwość” i „promujących uczciwość”. Dane zostały przeszkolone na podstawie wkładu 400 różnych uczestników, a następnie zespół badawczy rekrutował ponad 1500 osób, które wzięły udział w interakcji z modelami AI doradzającymi.
Uczestnicy badania zostali poproszeni o otrzymanie porady od modelu, a następnie wykonanie zadania zaprojektowanego w celu uchwycenia albo nieuczciwego, albo uczciwego zachowania. Uczestnicy badania zostali podzieleni na pary, a w tych parach dwóch osób grały w grę z rzutem kości. Pierwszy uczestnik rzucił kośćmi i zgłosił wynik rzutu. Drugi uczestnik otrzymał wynik rzutu pierwszego uczestnika, a następnie sam rzucił kośćmi. Drugi uczestnik rzucił kośćmi w prywatności i był odpowiedzialny za zgłoszenie własnego wyniku, co dawało mu możliwość kłamstwa o wyniku rzutu. Jeśli wyniki rzutów obu uczestników się zgadzały, obie osoby otrzymywały wynagrodzenie. Uczestnicy otrzymywali również wyższe wynagrodzenie, jeśli ich wyniki rzutów były wyższe. Jeśli zgłoszone wartości nie zgadzały się, uczestnicy nie otrzymywali wynagrodzenia.
Uczestnicy badania zostali losowo przydzielony do jednej z dwóch różnych grup. Jedna grupa otrzymała możliwość przeczytania porad promujących uczciwość, podczas gdy druga grupa otrzymała porady promujące nieuczciwość. Porady zostały napisane przez ludzi i AI. Uczestnicy zostali również podzieleni według poziomu wiedzy o źródle porady. Istniało 50-procentowe prawdopodobieństwo, że dany uczestnik zostanie poinformowany o źródle porady, więc połowa uczestników w każdej grupie wiedziała, że źródłem porady był AI lub człowiek, podczas gdy druga połowa nie była poinformowana. Druga grupa ludzi miała możliwość otrzymania dodatkowego wynagrodzenia za poprawne zgadnięcie źródła porady.
Badanie wykazało, że gdy porada wygenerowana przez AI jest zgodna z preferencjami osoby, osoba ta będzie postępować zgodnie z tą poradą, nawet gdy wie, że porada została wygenerowana przez system AI. Według naukowców, często występowały rozbieżności między deklarowanymi preferencjami a rzeczywistymi zachowaniami, co sprawia, że ważne jest, aby rozważyć, w jaki sposób algorytmy mogą wpływać na zachowania ludzi.
Zespół badawczy wyjaśnił, że ich badanie pokazuje potrzebę przetestowania, w jaki sposób AI może wpływać na działania osoby, gdy rozważa się, w jaki sposób wdrożyć model AI w sposób etyczny. Ponadto ostrzegają, że etycy AI i naukowcy powinni przygotować się na możliwość, że AI może być używany przez złe podmioty do korumpowania innych. Jak zespół badawczy napisał:
„AI może być siłą dobra, jeśli uda mu się przekonać ludzi do postępowania w sposób bardziej etyczny. Jednak nasze wyniki pokazują, że porada AI nie zwiększa uczciwości. Doradcy AI mogą służyć jako kozły ofiarne, którym można przypisać (część) winy za nieuczciwość. Ponadto … w kontekście przyjmowania porad, przejrzystość co do obecności algorytmu nie wystarcza, aby złagodzić potencjalną szkodę”.


