Connect with us

Jak zdobyć zaufanie do sztucznej inteligencji w różnym wieku

Liderzy opinii

Jak zdobyć zaufanie do sztucznej inteligencji w różnym wieku

mm

W ubezpieczeniach automatyzacja oparta na sztucznej inteligencji już teraz przynosi mierne korzyści biznesowe, transformując kluczowe procesy i obiecując szybszą, bardziej wydajną obsługę.

Jednak podnosi również pytania o sprawiedliwość i odpowiedzialność.

Ponieważ ta potężna technologia wkracza w coraz więcej punktów kontaktowych z ubezpieczeniami, zaufanie staje się coraz cenniejszą walutą – szczególnie w różnych grupach wiekowych. Młodsi użytkownicy oczekują, że sztuczna inteligencja będzie napędzać większość interakcji. Starsi użytkownicy są nieufni wobec niej. Wyzwaniem jest zatem projektowanie doświadczeń z sztuczną inteligencją, które spełniają potrzeby i oczekiwania klientów o różnych preferencjach demograficznych.

Aby to osiągnąć, ubezpieczyciele (lub firmy ubezpieczeniowe) wykorzystujące sztuczną inteligencję muszą wyjść poza jej techniczne możliwości i dążyć do priorytetowego traktowania przejrzystości, stopniowego wdrażania i współpracy człowiek-sztuczna inteligencja. Dla branży ubezpieczeniowej, gdzie decyzje często są podejmowane w czułych momentach życia ludzi i mają na nich bezpośredni, dalekosiężny wpływ, budowanie zaufania w podejmowanych decyzjach sztucznej inteligencji nie jest tylko opcją: stanie się DNA ubezpieczeń na długo w przyszłości.

Oczekiwania wobec sztucznej inteligencji: podział pokoleniowy

Pokolenia cyfrowo-narodowe, takie jak Millenialsi i Gen Z, są już bardzo przyzwyczajone do doświadczeń z sztuczną inteligencją w bankowości, handlu detalicznym i mediach. Nie jest zaskakujące, że młodsi użytkownicy są bardziej skłonni czuć się bardziej komfortowo z aplikacjami i usługami sztucznej inteligencji, gdy te narzędzia przenikają do innych sektorów.

Na przykład ubezpieczyciele często wykorzystują sztuczną inteligencję do obsługi chatbotów lub wirtualnych asystentów w celu zapewnienia porównań ofert lub rekomendacji polityki w ciągu kilku sekund. Młodsi użytkownicy, którzy już priorytetowo traktują szybkość i personalizację, nie zwrócą nawet uwagi, nawet jeśli nie w pełni rozumieją mechanizmów w grze.

Pokolenia X i Baby Boomers z drugiej strony są ogólnie znacznie bardziej nieufne wobec tych botów sztucznej inteligencji, szczególnie gdy chodzi o decyzje dotyczące pieniędzy lub inwestycji. Starsze pokolenie ceni wyjaśnialność i pewność, preferując modele hybrydowe, w których realne osoby pozostają dostępne jako punkty kontaktowe – aby przeprowadzić ich przez decyzje dotyczące ubezpieczenia lub wyjaśnić, dlaczego roszczenie zostało zatwierdzone lub odrzucone – nawet jeśli ludzie nie wykonują wszystkich operacji.

Ważne jest, aby pamiętać, że komfort z sztuczną inteligencją różni się nie tylko w zależności od wieku, ale także od postrzeganych staków. Gdy decyzje są wysokiego ryzyka lub nagrody – jak w przypadku straty finansowej lub ubezpieczenia – zaufanie do ukrytej logiki sztucznej inteligencji maleje.

Przejrzystość: podstawa zaufania

80% projektów sztucznej inteligencji kończy się niepowodzeniem z powodu „braku zaufania” ze strony użytkowników. Ta liczba wzrasta w branży takiej jak ubezpieczenia, gdzie zaufanie i pewność okazały się kluczowymi elementami w większości transakcji.

Aby zbudować zaufanie, firmy muszą proaktywnie wyjaśniać, jak działa sztuczna inteligencja i jakie dane wykorzystuje. Weźmy CapitalOne jako przykład. Otwarcie publikują informacje o tym, jak wykorzystują sztuczną inteligencję i maszynowe uczenie – jak pobudzają modele, jakie dane szkoleniowe wykorzystuje ich sztuczna inteligencja i więcej – do wykrywania oszustw, oceny ryzyka kredytowego i personalizacji doświadczeń klientów, oraz udostępniają standardy zarządzania sztuczną inteligencją swoim klientom.

Wysiłki w kierunku przejrzystości pomagają użytkownikom czuć się kontrolowani i spokojni, nawet gdy nie ma w pętli człowieka. Aby przyczynić się do zamknięcia luki zaufania, szczególnie dla starszych klientów, ubezpieczyciele powinni rozważyć zapewnienie „dlaczego podjęliśmy tę decyzję” wyskakujących okienek, jasnych stron o wyborze polityki danych i łatwego dostępu do procesów odwoławczych w całej cyfrowej podróży klienta.

Przykłady niskiego ryzyka

Najbardziej udane strategie sztucznej inteligencji wprowadzają użytkowników w wartość sztucznej inteligencji w kontekstach niskiego ryzyka przed skalowaniem do decyzji o wysokim wpływie.

W kontekście ubezpieczeń mogłoby to oznaczać wykorzystanie sztucznej inteligencji do pomocy nowym posiadaczom polityki tylko w podstawowych zapytaniach o ubezpieczenie lub pomocy agentom w tworzeniu rutynowych e-maili do klientów – oba to przypadki niskiego ryzyka, które pozwalają pracownikom i klientom na budowanie zaufania do sztucznej inteligencji bez obawy o negatywne konsekwencje. Przykłady zastosowania sztucznej inteligencji przez firmę PayPal zawsze zaczynają się od funkcji, które zwiększają bezpieczeństwo bez dotykania pieniędzy bezpośrednio, takich jak wykorzystanie sztucznej inteligencji do wykrywania podejrzanych prób logowania lub rekomendowania aktualizacji hasła.

Te mniejsze interakcje pomagają nowym użytkownikom, szczególnie tym z starszych pokoleń, przyzwyczaić się do sztucznej inteligencji, jednocześnie wzmacniając tożsamość marki jako przedsiębiorstwa przyszłościowych technologii dla młodszych użytkowników. Z czasem te strategie budowania komfortu pozwolą firmom na rozszerzenie sztucznej inteligencji na procesy robocze o wyższym ryzyku, takie jak kredyty, roszczenia lub pożyczki.

Ludzki dotyk wciąż ma znaczenie

Sztuczna inteligencja udowodniła, że może zwiększyć produktywność ludzi, ale pozwalając jej na całkowite przejęcie jest pewne, że podważy zaufanie. Szczególnie w ubezpieczeniach lub usługach finansowych, ludzka empatia, osąd i zrozumienie kontekstu są nadal niezastąpione.

Rozważmy Morgan Stanley’s niedawno wprowadzony pilot sztucznej inteligencji dla doradców finansowych. System pomaga im analizować portfele klientów szybciej, ale doradcy są w pełni odpowiedzialni za relację z klientem. Dla starszych użytkowników wiedza, że zaangażowany jest człowiek, często zapewnia pewność, podczas gdy młodsi klienci mogą postrzegać to jako sygnał wiarygodności i odpowiedzialności w przypadkach, w których sztuczna inteligencja osiąga granice.

Badanie BCG globalnego zaufania do sztucznej inteligencji wykazało, że we wszystkich grupach wiekowych, konsumenci preferują model „ludzkiej kontroli”, w którym sztuczna inteligencja składa sugestie, ale ostateczne decyzje spoczywają na człowieku. Nawet gdy sztuczna inteligencja się poprawia, zwycięskim rozwiązaniem będzie model hybrydowy – gdzie sztuczna inteligencja odpowiada za szybkość i skalę, a ludzie za nuans i zaufanie.

Zaufaj procesowi

Następna faza adopcji sztucznej inteligencji w ubezpieczeniach będzie kształtowana tak samo przez zaufanie do tej technologii, jak i przez jej możliwości.

Jednak to zaufanie nie przyjdzie z dnia na dzień.

Firmy, które odniosą sukces, będą tymi, które mogą stworzyć doświadczenia z sztuczną inteligencją, które są szybkie i wyjaśnialne, zautomatyzowane i personalne, budując mosty między grupami demograficznymi poprzez przejrzystość, empatię i przemyślane projekty. Ponieważ w świecie, w którym sztuczna inteligencja podejmuje coraz więcej decyzji, zaufanie jest najważniejszym produktem, jaki możesz dostarczyć.

Calvin Zhai prowadzi komunikację rynkową i strategię dla rozwiązań Sapiens Life and Annuities w Ameryce Północnej, dostosowując potrzeby przewoźników do ewoluujących dynamik rynkowych. Przynosi on głęboką wiedzę w zakresie rozwoju produktów, pozycjonowania strategicznego i innowacji, ukształtowaną przez doświadczenie w startupach i globalnych przedsiębiorstwach. W szczególności, w swojej poprzedniej roli w Manulife, skupił się na tworzeniu produktów ubezpieczeniowych i prowadzeniu inicjatyw transformacji cyfrowej, które poprawiły zaangażowanie klientów i efektywność operacyjną.