Kontakt z nami

W ramach przygotowań branż do przyspieszonego wdrożenia sztucznej inteligencji, nowy nacisk na etykę i odpowiedzialność

Liderzy myśli

W ramach przygotowań branż do przyspieszonego wdrożenia sztucznej inteligencji, nowy nacisk na etykę i odpowiedzialność

mm

By: Pandurang Kamat, dyrektor ds. technologii Trwałe systemy

U jej podstaw leży sztuczna inteligencja (AI). uczenie maszynowe (ML): proces, dzięki któremu maszyny uczą się, jak poprawiać wydajność w oparciu o wprowadzone dane. Sama ilość istniejących obecnie danych oznacza, że ​​sztuczna inteligencja znalazła podatny grunt do rozkwitu, w ciągu ostatnich kilku lat przyspiesza w zawrotnym tempie. Obietnice sztucznej inteligencji skłoniły technologów i kadrę kierowniczą w dalekosiężnych branżach do kreatywnego myślenia o jej różnych zastosowaniach.

Począwszy od rewolucji przemysłowej, każdy okres szybkiego postępu technologicznego charakteryzuje się w równym stopniu entuzjazmem, co niepokojem. The World Wide Web Consortium (W3C), grupa tworząca standardy branżowe dla twórców stron internetowych, wskazuje, że „rośnie świadomość, że zastosowanie uczenia maszynowego stwarza ryzyko i może prowadzić do szkód” – w tym w obszarach takich jak: stronniczość, prywatność, bezpieczeństwo, zrównoważony rozwój i ogólna odpowiedzialność.

„Istnieje wyraźne zapotrzebowanie na etyczne podejście do uczenia się, czego dowodem jest aktywizm społeczeństwa obywatelskiego, pojawienie się około 100 zestawów zasad etycznych dotyczących sztucznej inteligencji na całym świecie oraz podejmowanie przez rządy na całym świecie działań w celu uregulowania sztucznej inteligencji” grupa napisała. „Jeśli technologie nie są zgodne z wartościami społeczeństw, w których działają, istnieje ryzyko ich podważenia”.

Wybierz mądrze

Na pozór trudno argumentować, że zwiększona prędkość i wydajność są niekorzystne dla biznesu. Jednak w przypadku niektórych branż proces decyzyjny jest tak ważny, że według niektórych nie należy go pozostawiać algorytmowi. Patrząc na kilka największych branż, widzimy, jak jesteśmy podatni na błędy maszyn i dlaczego odpowiedzialna sztuczna inteligencja jest tak najważniejsza.

Bankowość, usługi finansowe i ubezpieczenia (BFSI)

Światowe Forum Ekonomiczne (WEF) i Deloitte zbadały proces wdrażania sztucznej inteligencji w firmach BFSI i stwierdziły, że „chociaż sztuczna inteligencja może pomóc w tworzeniu przydatnych wniosków biznesowych na podstawie przytłaczającej ilości informacji”, „obcość sztucznej inteligencji” będzie źródłem utrzymujące się poważne ryzyko.

„Sztuczna inteligencja rozumuje w nieludzki sposób” – czytamy w raporcie. „Systemy sztucznej inteligencji nie kierują się ludzkimi konstrukcjami logicznymi i zachowują się zupełnie inaczej niż ludzie, którym powierzono to samo zadanie. Co więcej, samouczący się charakter systemów sztucznej inteligencji pozwala im ewoluować bez udziału człowieka, co może prowadzić do nieoczekiwanych wyników w oparciu o nieznane zmienne”.

Zwolennicy odpowiedzialnej sztucznej inteligencji twierdzą, że uczenie maszynowe stwarza poważne problemy w takich kwestiach, jak automatyczna punktacja ryzyka, decyzje kredytowe i pożyczkowe, z których wszystkie w przeszłości miały niekorzystny wpływ na określone grupy demograficzne. Niedawne badania wykazały, że pożyczkodawcy korzystający z silników decyzyjnych opartych na sztucznej inteligencji częściej odmawiali kredytów mieszkaniowych osobom kolorowym – w niektórych przypadkach Prawdopodobieństwo odrzucenia jest większe w przypadku 80% kandydatów rasy czarnej.

Zdrowie

Kilka lat temu Journal of American Medical Association (JAMA) przyjrzała się przyjęciu sztucznej inteligencji w opiece zdrowotnej i stwierdziła, że ​​istnieje wiele wyzwań, w tym „nierealistyczne oczekiwania, stronnicze i niereprezentatywne dane, nieodpowiednie ustalenie priorytetów w zakresie równości i włączenia społecznego, ryzyko pogłębienia się dysproporcji w zakresie opieki zdrowotnej, niski poziom zaufania i niepewność środowiska regulacyjne.”

Nie jest to zbyt imponujące poparcie, ale w przypadku odpowiedzialnej sztucznej inteligencji w opiece zdrowotnej poprzeczka stoi wyżej, zwłaszcza biorąc pod uwagę jej dosłowny potencjał decydujący o życiu lub śmierci. Ogólnie rzecz biorąc, pracownicy służby zdrowia są optymistami, ale zachowują ostrożność, jeśli chodzi o przyszłość sztucznej inteligencji, decydując się skoncentrować swoje wysiłki na edukowaniu innych lekarzy na temat jej stosowania w warunkach klinicznych i tworzeniu wytycznych dotyczących odpowiedzialnego dalszego rozwoju w sposób korzystny dla wszystkich pacjentów.

Media

PwC szacuje, że sztuczna inteligencja zapewni światowy wzrost gospodarczy o wartości 15.7 biliona dolarów do 2030 roku, ale według Salesforce'a mniej niż połowa (48%) klientów ufa firmom, że korzystają ze sztucznej inteligencji w sposób etyczny, a 65% wyraża obawy dotyczące nieetycznego wykorzystania sztucznej inteligencji. Na styku zysków i zaufania znajdują się firmy medialne – pierwsi użytkownicy o ogromnym zasięgu i wpływie. Istnieją również obawy związane z faktem, że sztuczna inteligencja nie jest aplikacją, którą można „ustawić i zapomnieć”, co oznacza, że ​​w przypadku firm medialnych ich odpowiedzialność nie polega tylko na tworzeniu treści, ale także na jej ciągłym monitorowaniu po wdrożeniu.

W jaki sposób reklamy są wyświetlane i personalizowane? W jaki sposób treść dociera do konkretnego odbiorcy i jaki jest jej przekaz? Kto uczy AI „jak” się uczyć? Jak dotrzeć do konkretnych konsumentów, jednocześnie szanując prywatność? To tylko niektóre z pytań dręczących firmy medialne, które starają się pogodzić etykę ze zdobywaniem przewagi konkurencyjnej.

Odpowiedź na odpowiedzialność

Postęp w rozwoju odpowiedzialnej sztucznej inteligencji jest widoczny każdego dnia – prawodawcy tworzą regulacje, konsumenci domagają się większej przejrzystości, a wiele firm utworzyło specjalne działy, których zadaniem jest dbanie o odpowiednie wykorzystanie sztucznej inteligencji. Firmy potrzebują dobrze zdefiniowane ramy odpowiedzialnej sztucznej inteligencji który obejmuje etykę, przejrzystość, odpowiedzialność, uczciwość, prywatność i bezpieczeństwo. W miarę kontynuacji debat i reform, a niedawne wspólne badanie przeprowadzone przez MIT Sloan Management Review i Boston Consulting Group podaje kilka prostych ogólnych wskazówek – napisali: „Jeśli chcesz być odpowiedzialnym liderem AI, skup się na byciu odpowiedzialną firmą”.

Dr Pandurang Kamat jest dyrektorem ds. technologii w firmie Trwałe systemyodpowiada za badania nad zaawansowanymi technologiami, których celem jest odblokowanie wartości biznesowej poprzez innowacje na dużą skalę. Jest doświadczonym liderem technologii, który pomaga klientom poprawiać doświadczenia użytkowników, optymalizować procesy biznesowe i tworzyć nowe produkty cyfrowe. Jego wizją firmy Persistent jest bycie potęgą innowacji, która zakotwiczy globalny i zróżnicowany ekosystem innowacji, obejmujący środowiska akademickie i start-upy.