Connect with us

Z postępami sztucznej inteligencji generatywnej, czas na zajęcie się odpowiedzialną sztuczną inteligencją jest teraz

Liderzy opinii

Z postępami sztucznej inteligencji generatywnej, czas na zajęcie się odpowiedzialną sztuczną inteligencją jest teraz

mm

W 2022 roku firmy miały średnio 3,8 modeli AI w produkcji. Dziś siedem na dziesięć firm eksperymentuje z generatywną sztuczną inteligencją, co oznacza, że liczba modeli AI w produkcji wzrośnie gwałtownie w nadchodzących latach. W związku z tym dyskusje branżowe na temat odpowiedzialnej sztucznej inteligencji zyskały na pilności.

Dobrą wiadomością jest to, że więcej niż połowa organizacji już promuje etykę AI. Niemniej jednak, tylko około 20% wdrożyło kompleksowe programy z ramami, zarządzaniem i zabezpieczeniami w celu nadzorowania rozwoju modeli AI i proaktywnego identyfikowania oraz łagodzenia ryzyka. Biorąc pod uwagę szybki rozwój sztucznej inteligencji, liderzy powinni teraz przystąpić do wdrożenia ram i dojrzałych procesów. Regulacje na całym świecie są już wprowadzane, a co druga organizacja doświadczyła już awarii odpowiedzialnej sztucznej inteligencji.

Wyzwania wdrożenia odpowiedzialnej sztucznej inteligencji

Odpowiedzialna sztuczna inteligencja obejmuje do 20 różnych funkcji biznesowych, zwiększając złożoność procesów i podejmowania decyzji. Zespoły odpowiedzialnej sztucznej inteligencji muszą współpracować z kluczowymi stakeholderami, w tym z kierownictwem; właścicielami biznesu; zespołami danych, AI i IT; oraz partnerami w celu:

  • Budowy rozwiązań AI, które są uczciwe i wolne od uprzedzeń: Zespoły i partnerzy mogą wykorzystywać różne techniki, takie jak analiza danych eksploracyjnych, w celu identyfikacji i łagodzenia potencjalnych uprzedzeń przed opracowaniem rozwiązań — w ten sposób modele są budowane z myślą o uczciwości od samego początku. Zespoły i partnerzy mogą również przeglądać dane wykorzystywane w przetwarzaniu, projekcie algorytmu i przetwarzaniu pośrednim, aby upewnić się, że są one reprezentatywne i zrównoważone. Ponadto mogą wykorzystywać techniki uczciwości grupowej i indywidualnej, aby upewnić się, że algorytmy traktują różne grupy i osoby uczciwie. I podejścia uczciwości kontrfaktualnej modelują wyniki, gdy pewne czynniki są zmienione, co pomaga identyfikować i rozwiązywać uprzedzenia.
  • Promowanie przejrzystości i wyjaśnialności AI: Przejrzystość AI oznacza, że łatwo zrozumieć, jak modele AI działają i podejmują decyzje. Wyjaśnialność oznacza, że te decyzje mogą być łatwo przekazywane innym w sposób nietechniczny. Używanie wspólnej terminologii, prowadzenie regularnych dyskusji ze stakeholderami oraz tworzenie kultury świadomości AI i ciągłego uczenia się może pomóc w osiągnięciu tych celów.
  • Zapewnienie prywatności i bezpieczeństwa danych: Modele AI wykorzystują ogromne ilości danych. Firmy wykorzystują dane pierwszej i trzeciej strony do karmienia modeli. Wykorzystują również techniki uczenia się z zachowaniem prywatności, takie jak tworzenie syntetycznych danych w celu pokonania problemów z rzadkością. Liderzy i zespoły będą chcieli przeglądać i rozwijać zabezpieczenia prywatności i bezpieczeństwa danych, aby upewnić się, że poufne i wrażliwe dane są nadal chronione, gdy są wykorzystywane w nowych sposób. Na przykład, syntetyczne dane powinny naśladować kluczowe cechy klientów, ale nie powinny być możliwe do śledzenia do poszczególnych osób.
  • Wdrożenie zarządzania: Zarządzanie będzie się różnić w zależności od dojrzałości korporacyjnej AI. Niemniej jednak, firmy powinny ustalić zasady i politykę AI od samego początku. W miarę wzrostu wykorzystania modeli AI mogą powołać oficerów AI; wdrożyć ramy; utworzyć mechanizmy odpowiedzialności i raportowania; oraz rozwijać pętle informacji zwrotnej i programy ciągłego doskonalenia.

Krytyczne czynniki odpowiedzialnego programu AI

Co różni firmy, które są liderami w odpowiedzialnej sztucznej inteligencji od innych? One:

  • Tworzą wizję i cele dla AI: Liderzy komunikują swoją wizję i cele dla AI oraz to, jak sztuczna inteligencja korzysta firmie, klientom i społeczeństwu.
  • Ustalenie oczekiwań: Starsi liderzy ustalają odpowiednie oczekiwania ze swoimi zespołami, aby budować odpowiedzialne rozwiązania AI od podstaw, zamiast próbować dostosowywać rozwiązania po ich ukończeniu.
  • Wdrożenie ram i procesów: Partnerzy dostarczają ramy odpowiedzialnej sztucznej inteligencji z przejrzystymi procesami i zabezpieczeniami. Na przykład, kontrole prywatności danych, uczciwości i uprzedzeń powinny być wbudowane w początkową przygotowanie danych, rozwój modelu i ciągłe monitorowanie.
  • Dostęp do umiejętności branżowych, przemysłowych i AI: Zespoły chcą przyspieszyć innowacje rozwiązań AI, aby zwiększyć konkurencyjność biznesu. Mogą zwrócić się do partnerów o odpowiednie umiejętności branżowe i przemysłowe, takie jak ustalanie strategii danych i AI oraz wykonanie, połączone z analityką klienta, technologią marketingu, łańcuchem dostaw i innymi możliwościami. Partnerzy mogą również dostarczyć pełny zakres umiejętności AI, w tym inżynierię, rozwój, operacje i możliwości inżynierii platformy, wykorzystując ramy i procesy odpowiedzialnej sztucznej inteligencji do projektowania, rozwoju, operacjonalizacji i wytwarzania rozwiązań.
  • Dostęp do przyspieszaczy: Partnerzy oferują dostęp do ekosystemu AI, który redukuje czas rozwoju odpowiedzialnych tradycyjnych i generatywnych projektów pilotażowych o nawet 50%. Przedsiębiorstwa zyskują rozwiązania pionowe, które zwiększają ich konkurencyjność na rynku.
  • Upewnienie się, że zespoły przyjmują i są odpowiedzialne: Zespoły przedsiębiorstw i partnerów są szkolone na temat nowych polityk i procesów. Ponadto, przedsiębiorstwa audytują zespoły w celu zapewnienia zgodności z kluczowymi politykami.
  • Używanie odpowiednich metryk do ilościowego wyniku: Liderzy i zespoły używają benchmarków i innych metryk, aby pokazać, jak odpowiedzialna sztuczna inteligencja przynosi wartość biznesową, aby utrzymać wysoki poziom zaangażowania stakeholderów.
  • Monitorowanie systemów AI: Partnerzy dostarczają usługi monitorowania modeli, rozwiązując problemy proaktywnie i zapewniając, że dostarczają zaufane wyniki.

Planuj odpowiedzialną sztuczną inteligencję już teraz

Jeśli Twoja firma przyspiesza innowacje sztucznej inteligencji, prawdopodobnie potrzebujesz programu odpowiedzialnej sztucznej inteligencji. Przystąp proaktywnie, aby zmniejszyć ryzyko, dojrzałość programów i procesów oraz zademonstrować odpowiedzialność wobec stakeholderów.

Partner może dostarczyć niezbędne umiejętności, ramy, narzędzia i partnerstwa, aby odblokować wartość biznesową z odpowiedzialną sztuczną inteligencją. Wdrożone modele, które są uczciwe i wolne od uprzedzeń, egzekwują kontrolę i zwiększają zgodność z wymogami firmy, przygotowując się jednocześnie do nadchodzących regulacji.

Dr. Ravindra Patil jest Starszym Dyrektorem ds. Nauki o Danych w Tredence, kierując zespołem z 15-letnim doświadczeniem przemysłowym w dziedzinie danych i sztucznej inteligencji. Jego specjalność leży w skutecznym przywództwie zespołu i tworzeniu skutecznych rozwiązań z zakresu danych i sztucznej inteligencji. Ravindra rozpoczął swoją karierę w firmie Siemens, później wnosił znaczący wkład w Philips Research i jego grupy biznesowe. Przed dołączeniem do Tredence, kierował zespołem ds. danych i sztucznej inteligencji dla clusteru Personal Health o wartości 4 miliardów dolarów Philips.

W trakcie swojej kariery Ravindra stworzył wiele algorytmów sztucznej inteligencji, platform danych i ułatwił ich integrację z różnymi sektorami biznesu. Posiada tytuł licencjata inżynierii, magistra rozpoznawania wzorców na IIT Madras w Indiach oraz doktorat z zakresu uczenia maszynowego na Uniwersytecie w Maastricht w Holandii. Z ponad 30 wnioskami patentowymi, licznymi opublikowanymi pracami badawczymi oraz uznanym jednym z 100 najlepszych liderów sztucznej inteligencji w Indiach przez magazyn AIM, jego osiągnięcia są godne uwagi.