Connect with us

Czy ryzyko związane z AI jest warte nagrody?

Liderzy opinii

Czy ryzyko związane z AI jest warte nagrody?

mm

Kiedy zastanawiam się nad fikcyjnymi treściami, które spotkałem, dotyczącymi AI, szacuję, że ponad 90% z nich to treści dystopijne. Ironicznie, ponieważ duże modele językowe są szkolone na treściach z internetu, nie tylko są one nastawione na problematyczne aspekty społeczeństwa, ale także same siebie. Pojęcie AI, które nienawidzi samego siebie, jest zabawne i przypomina mi Marvina z Przewodnika po galaktyce dla podróżników. Jednak jest to jedna z wielu rzeczywistości, które musimy brać pod uwagę, gdy AI jest integrowane z społeczeństwem.

W swojej książce Życie 3.0: Być człowiekiem w erze AI profesor MIT Max Tegmark wyjaśnia swoje spojrzenie na to, jak utrzymać AI korzystne dla społeczeństwa. Pisze: “Jeśli uczenie maszynowe może pomóc ujawnić relacje między genami, chorobami i odpowiedziami na leczenie, może rewolucjonizować medycynę personalizowaną, sprawić, że zwierzęta gospodarskie będą zdrowsze i umożliwić uprawę bardziej odpornych plonów. Ponadto roboty mają potencjał, aby stać się bardziej dokładnymi i niezawodnymi chirurgami niż ludzie, nawet bez użycia zaawansowanego AI”.

Nie ma wątpliwości, że AI wpłynie na jednostki, społeczeństwo i globalne systemy, ale istnieje niepewność związana z tym wpływem. AI będzie powierzane delikatne prace, takie jak diagnoza medyczna, jazda autonomiczna i podejmowanie decyzji finansowych. Przyjmując ryzyko zaufania, oczekujemy zwrotu w postaci automatyzacji, poprawy produktywności, szybszych przepływów pracy i interfejsów użytkownika, których nie możemy nawet przewidzieć dzisiaj.

Jednym z przykładów może być to, co można zobaczyć w niedawno opublikowanym raporcie 2024 Generative AI in Professional Services Instytutu Thomson Reuters, opartym na globalnej ankiecie 1 128 respondentów, którzy zostali zakwalifikowani jako osoby znające technologię Generative AI. Badanie pokazuje powszechny temat ostrożnego optymizmu, jeśli chodzi o przyjmowanie Generative AI w profesjonalnych środowiskach – w rzeczywistości 41% powiedziało, że są podekscytowani, ponieważ oczekują zwiększonej wydajności i produktywności.

To pokazuje zdrowy popyt na automatyzację, która może tworzyć nowe wydajności dla profesjonalistów, korzyść, którą są skłonni wprowadzić.

Żadne miejsce pracy ani branża nie chce zostać pozostawiona w tyle, więc tak długo, jak ten wyścig w celu wykorzystania AI w biznesie nadal zyskuje na impet, można oczekiwać, że pracownicy i profesjonaliści będą nadal narażeni na te nowe technologie w różnych sposób, aby wzmocnić swoją przyszłość pracy.

Z drugiej strony, jesteśmy również bardzo świadomi potencjalnego ryzyka, które podejmujemy, powierzając AI. Tegmark również napisał to w Życiu 3.0, ” Innymi słowy, prawdziwe ryzyko związane z AGI (sztuczną inteligencją ogólną) nie jest złośliwością, ale kompetencją. Superinteligentny AI będzie niezwykle dobry w osiąganiu swoich celów, a jeśli te cele nie są zgodne z naszymi, mamy problem”.

Podobnie jak w przypadku każdej nowej technologii, AI przedstawia nowy sposób robienia rzeczy, a zmiana jest często wyzwaniem, gdy nie wiemy, jaki jest oczekiwany wynik. Część tego ryzyka jest bardzo dramatyzowana w fikcji, często przedstawiającej AI jako misantropijne – w Dolinie Krzemowej, czasami słyszy się żartobliwe odniesienia do “Skynet” z Terminatora w nieformalnej rozmowie dotyczącej obaw o AI. Jednak rzeczywistość dotycząca potencjalnego ryzyka AI jest znacznie mniej ekscytująca niż to, co przedstawia Hollywood, a mianowicie początkowa wydajność AI może po prostu być niedokładna i błędna. Przecież AI jest oprogramowaniem i dzieli te same pułapki, co tradycyjne oprogramowanie.

Jako badacz, jestem stale konfrontowany z potrzebą zniwelowania uprzedzeń w algorytmach AI, czy to przez staranną kurację danych, przejrzystość algorytmiczną, czy solidne protokoły testowe. Fakt, że my jako ludzie jesteśmy bardzo świadomi niebezpieczeństw AI (jak wynika z treści, które tworzymy) daje mi pocieszenie, że znaczna uwaga jest poświęcana etycznemu i odpowiedzialnemu AI. Ta uwaga pochodzi od wszystkich rodzajów interesariuszy: użytkowników, decydentów i firm, które coraz częściej wymagają przejrzystości i odpowiedzialności od systemów AI.

Powszechnie przyjmuje się, że technologia w sektorze prywatnym rozwija się szybko, a rząd porusza się powoli. Jest także rzeczywistością, że gdy tylko stanie się to możliwe, kapitalizm spowoduje, że AI zastąpi miliony pracowników, zmuszając ich do nauki nowych umiejętności, aby pozostać w siłach roboczych.

Według raportu badawczego z 2023 roku McKinsey Global Institute dotyczącego Generative AI i przyszłości pracy w Ameryce, “Do 2030 roku działania, które stanowią do 30 procent godzin obecnie pracowanych w całej gospodarce amerykańskiej, mogą być zautomatyzowane – trend przyspieszony przez generatywny AI. Jednak widzimy, że generatywny AI ulepsza sposób, w jaki pracują profesjonaliści STEM, twórcy, biznes i prawnicy, zamiast eliminować znaczną liczbę miejsc pracy. Największy wpływ automatyzacji najprawdopodobniej dotknie inne kategorie pracy. Zatrudnienie w biurach, obsłudze klienta i usługach gastronomicznych może nadal spadać”.

Trudno mi wyobrazić sobie świat, w którym rząd nie odgrywa roli w pomocy tym pracownikom, którzy zostaną zastąpieni. Dlatego ważne jest, aby sektor publiczny zaczął przygotowywać rozwiązania już teraz. Przykładami rozwiązań są doskonalenie umiejętności pracowników zagrożonych i zapewnienie powszechnego dochodu podstawowego. Jestem również pełen nadziei, że sektor prywatny odegra rolę w tym procesie, tworząc nowe miejsca pracy, których nie możemy jeszcze przewidzieć.

Powszechny dochód podstawowy zawsze był dla mnie ekscytującym pojęciem i przypomina mi frazę “nie żyj, aby pracować, pracuj, aby żyć”. Wiele osób pracuje, aby żyć. Nazywajcie mnie naiwnym, ale jeśli ta praca jest zautomatyzowana, uważam, że to nie jest mrzonka, że ludzkość mogłaby wejść w erę, w której praca jest opcjonalna. To jest całkowicie obcy nam concept dzisiaj, ale to nie oznacza, że jest to niemożliwe. W rzeczywistości powinniśmy oczekiwać czegoś nadzwyczajnego od technologii tak nadzwyczajnej jak AI.

Były kwant i naukowiec danych, Sarah Nagy założyła startup do automatyzacji analityki, Seek AI, we wrześniu 2021. Sarah ostatnio kierowała zespołem danych konsumenckich w Ashler Capital należącym do Citadel, a przed Citadel kierowała zespołami kwantowymi w dwóch startupach, które zakończyły działalność z sukcesem, oraz rozwijała strategie handlu algorytmicznego w ITG. Sarah posiada tytuł magistra finansów na Princeton oraz podwójne tytuły licencjata z astrofizyki i ekonomii biznesu na UCLA.