Kontakt z nami

Liderzy myśli

Czy ryzyko związane ze sztuczną inteligencją jest warte nagrody?

mm

Opublikowany

 on

Kiedy zastanawiam się nad fikcyjnymi treściami, z którymi się zetknąłem, dotyczącymi sztucznej inteligencji, oceniam, że są one w ponad 90% dystopijne. Jak na ironię, ponieważ duże modele językowe są przeszkoleni w zakresie treści z Internetu, są uprzedzeń nie tylko wobec problematycznych aspektów społeczeństwa, ale nawet samych siebie. Koncepcja nienawidzącej siebie sztucznej inteligencji jest zabawna i przywodzi na myśl Marvina Przewodnik Autostopowicza do Galaktyki. Jest to jednak jedna z wielu rzeczywistości, które musimy wziąć pod uwagę, ponieważ sztuczna inteligencja jest zintegrowana ze społeczeństwem.

W swojej książce, Życie 3.0: Bycie człowiekiem w epoce sztucznej inteligencji, profesor MIT Max Tegmark wyjaśnia swój punkt widzenia na to, jak zapewnić sztuczną inteligencję korzystną dla społeczeństwa. Pisze: „Jeśli uczenie maszynowe może pomóc w ujawnieniu związków między genami, chorobami i reakcjami na leczenie, może zrewolucjonizować medycynę spersonalizowaną, sprawić, że zwierzęta hodowlane będą zdrowsze i umożliwią zwiększenie odporności upraw. Co więcej, roboty mogą stać się chirurgami dokładniejszymi i bardziej niezawodnymi niż ludzie, nawet bez zastosowania zaawansowanej sztucznej inteligencji”.

Nie ma wątpliwości, że sztuczna inteligencja będzie miała wpływ na jednostki, społeczeństwo i systemy globalne, jednak wpływ ten wiąże się z niepewnością. Sztucznej inteligencji zostaną powierzone delikatne prace, takie jak diagnostyka opieki zdrowotnej, autonomiczna jazda i podejmowanie decyzji finansowych. Podejmując ryzyko zaufania, przewidujemy zwroty w postaci automatyzacji, zwiększonej produktywności, szybszego przepływu pracy i interfejsów użytkownika, których dziś nawet nie jesteśmy w stanie przewidzieć.

Jeden z przykładów można zobaczyć w niedawno opublikowanym artykule Instytutu Thomson Reuters Raport Generacyjna AI w usługach profesjonalnych 2024, na podstawie globalnej ankiety przeprowadzonej wśród 1,128 respondentów, uznano, że znają technologię generatywnej sztucznej inteligencji. Badanie pokazuje, że powszechnym tematem jest ostrożny optymizm, jeśli chodzi o wdrażanie generatywnej sztucznej inteligencji w środowisku zawodowym – w rzeczywistości 41% stwierdziło, że jest podekscytowanych, ponieważ oczekują zwiększonej wydajności i produktywności.

Świadczy to o dużym zapotrzebowaniu na automatyzację, która może zapewnić profesjonalistom nową wydajność, co stanowi korzyść, którą oni wspierają.

Żadne miejsce pracy ani branża nie chce pozostać w tyle, więc dopóki to wyścigu w kierunku wykorzystania sztucznej inteligencji w biznesie kontynuuje nabrać rozpędumożna się spodziewać, że pracownicy i specjaliści będą w dalszym ciągu mieli kontakt z nowymi technologiami na różne sposoby, aby wzmocnić swoją przyszłość zawodową.

Z drugiej strony jesteśmy też świadomi potencjalnego ryzyka, jakie podejmujemy powierzając AI. Tegmark również to napisał Życie 3.0„Innymi słowy, prawdziwym ryzykiem związanym z AGI (sztuczną inteligencją ogólną) nie jest złośliwość, ale kompetencje. Superinteligentna sztuczna inteligencja będzie niezwykle dobra w osiąganiu swoich celów, a jeśli te cele nie będą zgodne z naszymi, będziemy mieli kłopoty”.

Jak każda nowa technologia, sztuczna inteligencja oferuje nowy sposób działania, a zmiana często stanowi wyzwanie, gdy nie wiadomo, jakiego wyniku się spodziewać. Część tego ryzyka jest mocno udramatyzowana w fikcji, zwykle przedstawiającej sztuczną inteligencję jako mizantropijną – w Dolinie Krzemowej czasami można usłyszeć żartobliwe odniesienia do „Skynetu” z "Terminator" franczyzy filmowej w swobodnej rozmowie na temat obaw związanych ze sztuczną inteligencją. Jednak rzeczywistość dotycząca potencjalnego ryzyka związanego ze sztuczną inteligencją jest znacznie mniej ekscytująca niż ta, którą przedstawia Hollywood początkowa wydajność sztucznej inteligencji może być po prostu niedokładna i wadliwa. W końcu sztuczna inteligencja to oprogramowanie i ma te same pułapki, co tradycyjne oprogramowanie.

Jako badacz nieustannie spotykam się z taką koniecznością złagodzić stronniczość w algorytmach AI, czy to poprzez staranną selekcję danych, przejrzystość algorytmów, czy solidne protokoły testowe. Fakt, że jako ludzie jesteśmy niezwykle świadomi zagrożeń związanych ze sztuczną inteligencją (o czym świadczą tworzone przez nas treści), pociesza mnie, że dużą wagę przywiązuje się do etycznej i odpowiedzialnej sztucznej inteligencji. Uwaga ta skierowana jest do wszelkiego rodzaju interesariuszy: użytkownicy, decydenci i przedsiębiorstwa coraz bardziej domagają się przejrzystości i odpowiedzialności od systemów sztucznej inteligencji.

Powszechnie uważa się, że technologia w sektorze prywatnym rozwija się szybko, a rząd powoli. Rzeczywistością jest również to, że gdy stanie się to możliwe, kapitalizm doprowadzi do wyparcia przez sztuczną inteligencję milionów pracowników, zmuszając ich do uczenia się nowych umiejętności, aby utrzymać się na rynku pracy.

Według raportu badawczego McKinsey Global Institute z 2023 r. dotyczącego: Generatywna sztuczna inteligencja i przyszłość pracy w Ameryce„Do 2030 r. czynności, które pochłaniają do 30 procent godzin obecnie przepracowanych w amerykańskiej gospodarce, mogą zostać zautomatyzowane, a trend ten przyspieszy generatywna sztuczna inteligencja. Widzimy jednak, że generatywna sztuczna inteligencja usprawnia sposób pracy specjalistów z zakresu STEM, kreatywnych, biznesowych i prawnych, zamiast całkowicie eliminować znaczną liczbę stanowisk pracy. Największe skutki automatyzacji prawdopodobnie dotkną inne kategorie zawodów. Zatrudnienie w dziale wsparcia biurowego, obsługi klienta i gastronomii może w dalszym ciągu spadać”.

Trudno mi sobie wyobrazić świat, w którym rząd nie odgrywałby roli w pomaganiu pracownikom, którzy zostaną wysiedleni. Dlatego ważne jest, aby sektor publiczny już teraz zaczął przygotowywać rozwiązania. Przykłady rozwiązań obejmują podnoszenie kwalifikacji pracowników z grup ryzyka i zapewnianie powszechnego dochodu podstawowego. Mam również nadzieję, że sektor prywatny odegra tu rolę, tworząc nowe miejsca pracy, których być może nie jesteśmy dziś w stanie przewidzieć.

Uniwersalny dochód podstawowy zawsze był dla mnie ekscytującą koncepcją i przywodzi na myśl sformułowanie „nie żyj, aby pracować, pracuj, aby żyć”. Wiele osób pracuje, aby żyć. Nazwij mnie Polyannish, ale jeśli tę pracę da się zautomatyzować, uważam, że to coś więcej niż tylko mrzonka, że ​​ludzkość może wejść w erę, w której praca jest opcjonalna. Jest to dziś dla nas koncepcja całkowicie obca, ale to nie znaczy, że jest niemożliwa. W rzeczywistości nie powinniśmy oczekiwać niczego nadzwyczajnego od technologii tak niezwykłej jak sztuczna inteligencja.

Sarah Nagy, była badaczka zajmujących się kwantyfikacją i danymi, założyła startup zajmujący się automatyzacją analityki, Szukaj AI, we wrześniu 2021 r. Sarah ostatnio kierowała zespołem ds. danych konsumenckich w Ashler Capital w Citadel, a przed Citadel kierowała działem kwantowym w dwóch start-upach, które z powodzeniem zakończyły działalność, oraz opracowała strategie handlu algorytmicznego w ITG. Sarah posiada tytuł magistra finansów uzyskany w Princeton oraz podwójny tytuł licencjata z astrofizyki i ekonomii biznesu na Uniwersytecie Kalifornijskim w Los Angeles.