Connect with us

Liderzy opinii

Jak Operacjonalizować Etykę Sztucznej Inteligencji?

mm

Sztuczna inteligencja dotyczy optymalizacji procesów, a nie eliminowania ludzi z nich. Odpowiedzialność pozostaje kluczowa w ogólnym pomysłem, że sztuczna inteligencja może zastąpić ludzi. Podczas gdy technologia i systemy zautomatyzowane pomogły nam osiągnąć lepsze wyniki ekonomiczne w minionym wieku, czy mogą one naprawdę zastąpić usługi, kreatywność i głęboką wiedzę? Nadal wierzę, że nie, ale mogą one zoptymalizować czas spędzony na rozwijaniu tych obszarów.

Odpowiedzialność w dużej mierze opiera się na prawach własności intelektualnej, przewidywaniu wpływu technologii na prawa zbiorowe i indywidualne, oraz zapewnieniu bezpieczeństwa i ochrony danych wykorzystywanych w szkoleniu i udostępnianiu podczas tworzenia nowych modeli. W miarę postępu technologicznego, temat etyki sztucznej inteligencji stał się coraz bardziej istotny. To podnosi ważne pytania dotyczące tego, jak regulujemy i integrujemy sztuczną inteligencję w społeczeństwie, minimalizując potencjalne ryzyka.

Pracuję ściśle z jednym aspektem sztucznej inteligencji – klonowaniem głosu. Głos jest ważną częścią podobieństwa jednostki i danych biometrycznych wykorzystywanych do szkolenia modeli głosowych. Ochrona podobieństwa (pytania prawne i polityczne), zabezpieczenie danych głosowych (polityki prywatności i cyberbezpieczeństwa), oraz ustalenie granic zastosowań klonowania głosu (pytania etyczne dotyczące pomiaru wpływu) są niezbędne do rozważenia podczas budowy produktu.

Musimy ocenić, jak sztuczna inteligencja wpisuje się w normy i wartości społeczeństwa. Sztuczna inteligencja musi być dostosowana do istniejącego ramy etycznego społeczeństwa, zapewniając, że nie nakłada dodatkowych ryzyk ani nie zagraża ustanowionym normom społecznym. Wpływ technologii obejmuje obszary, w których sztuczna inteligencja upoważnia jedną grupę ludzi, podczas gdy eliminuje innych. Ten dylemat egzystencjalny pojawia się na każdym etapie naszego rozwoju i wzrostu lub spadku społecznego. Czy sztuczna inteligencja może wprowadzić więcej dezinformacji do ekosystemów informacyjnych? Tak. Jak zarządzamy tym ryzykiem na poziomie produktu, i jak edukujemy użytkowników i decydentów o tym? Odpowiedzi leżą nie w samych niebezpieczeństwach technologii, ale w tym, jak ją pakujemy w produkty i usługi. Jeśli nie mamy wystarczającej liczby pracowników w zespołach produkcyjnych, aby patrzeć poza i oceniać wpływ technologii, będziemy uwięzieni w cyklu naprawiania bałaganu.

Integracja sztucznej inteligencji do produktów podnosi pytania dotyczące bezpieczeństwa produktu i zapobiegania szkodom związanym z sztuczną inteligencją. Rozwój i wdrożenie sztucznej inteligencji powinno priorytetem bezpieczeństwa i rozważań etycznych, co wymaga alokacji zasobów do odpowiednich zespołów.

Aby ułatwić wschodzącą dyskusję na temat operacjonalizacji etyki sztucznej inteligencji, sugeruję ten podstawowy cykl, aby uczynić sztuczną inteligencję etyczną na poziomie produktu:

1. Zbadaj prawne aspekty sztucznej inteligencji i jak ją regulujemy, jeśli istnieją przepisy. Obejmuje to Akt o sztucznej inteligencji UE, Akt o usługach cyfrowych, brytyjski projekt ustawy o bezpieczeństwie online i RODO dotyczące prywatności danych. Ramy te są dziełem w toku i wymagają wkładu od pionierów branży (wschodzącej technologii) i liderów. Zobacz punkt (4), który uzupełnia proponowany cykl.

2. Rozważ, jak adaptujemy produkty oparte na sztucznej inteligencji do norm społeczeństwa, nie nakładając większych ryzyk. Czy wpływa to na bezpieczeństwo informacji lub sektor pracy, czy narusza prawa autorskie i prawa własności intelektualnej? Utwórz macierz opartą na kryzysowych scenariuszach. Czerpię to z mojego międzynarodowego doświadczenia w dziedzinie bezpieczeństwa.

3. Określ, jak zintegrować powyższe elementy z produktami opartymi na sztucznej inteligencji. W miarę jak sztuczna inteligencja staje się bardziej zaawansowana, musimy zapewnić, że jest zgodna z wartościami i normami społeczeństwa. Musimy być proaktywni w rozwiązywaniu kwestii etycznych i integrowaniu ich w rozwój i wdrożenie sztucznej inteligencji. Jeśli produkty oparte na sztucznej inteligencji, takie jak generatywna sztuczna inteligencja, zagrażają rozpowszechnieniu więcej dezinformacji, musimy wprowadzić funkcje łagodzące, moderację, ograniczyć dostęp do podstawowej technologii i komunikować się z użytkownikami. Jest to niezwykle ważne, aby mieć zespoły ds. etyki sztucznej inteligencji i bezpieczeństwa w produktach opartych na sztucznej inteligencji, co wymaga zasobów i wizji firmy.

Rozważ, jak możemy przyczynić się do kształtowania ram prawnych. Dobre praktyki i ramy polityczne nie są pustymi słowami; są one praktycznymi narzędziami, które pomagają nowej technologii funkcjonować jako narzędzia wspomagające, a nie zagrażające. Zbieranie decydentów, badaczy, dużych firm technologicznych i wschodzących firm technologicznych w jednym pomieszczeniu jest niezbędne do balansowania interesów społecznych i biznesowych związanych z sztuczną inteligencją. Ramy prawne muszą dostosować się do wschodzącej technologii sztucznej inteligencji, zapewniając, że chronią one jednostki i społeczeństwo, a jednocześnie umożliwiają innowacje i postęp.
4. Pomyśl, jak możemy przyczynić się do ram prawnych i kształtować je. Dobre praktyki i ramy polityczne nie są pustymi słowami, ale raczej praktycznymi narzędziami, które pomagają nowej technologii funkcjonować jako narzędzia wspomagające, a nie zagrażające. Zbieranie decydentów, badaczy, dużych firm technologicznych i wschodzących firm technologicznych w jednym pomieszczeniu jest niezbędne do balansowania interesów społecznych i biznesowych związanych z sztuczną inteligencją. Ramy prawne muszą dostosować się do wschodzącej technologii sztucznej inteligencji. Musimy zapewnić, że te ramy chronią jednostki i społeczeństwo, a jednocześnie umożliwiają innowacje i postęp.

Podsumowanie

To jest naprawdę podstawowy krąg integracji technologii opartych na sztucznej inteligencji do naszych społeczeństw. W miarę jak nadal mamy do czynienia z złożonościami etyki sztucznej inteligencji, jest niezwykle ważne, aby pozostać zaangażowanym w poszukiwanie rozwiązań, które priorytetem są bezpieczeństwo, etyka i dobrobyt społeczny. I te słowa nie są puste, ale są wynikiem ciężkiej pracy, aby każdego dnia układać wszystkie elementy.

Te słowa opierają się na moim własnym doświadczeniu i wnioskach.

Anna jest Dyrektorem ds. Etyki i Partnerstw w Respeecher, nagrodzonej Emmy technologii klonowania głosu z siedzibą na Ukrainie. Anna jest byłą doradcą politycznym w Reface, aplikacji medialnej zasilanej przez sztuczną inteligencję oraz współzałożycielem technologicznym narzędzia do zwalczania dezinformacji Cappture, dofinansowanego przez program przyspieszania startupów Startup Wise Guys. Anna ma 11-letnie doświadczenie w dziedzinie polityki bezpieczeństwa i obrony, technologii oraz budowania odporności. Była również starszym współpracownikiem naukowym w Międzynarodowym Centrum Obrony i Bezpieczeństwa w Tallinie oraz w Instytucie Studiów nad Bezpieczeństwem w Pradze. Doradzała również dużym ukraińskim firmom w zakresie budowania odporności w ramach Zespołu do walki z wojną hybrydową w Szkole Ekonomicznej w Kijowie.