Liderzy myśli
Trzy sposoby na zbudowanie „infrastruktury emocjonalnej” w produktach GenAI i zyskanie zaufania konsumentów

Podczas niedawnej rozmowy z potencjalnym inwestorem zapytano mnie, czy wiem, jaki jest najskuteczniejszy sekret skalowania. Dla mnie to było oczywiste – to emocje. Inwestor jednak prychnął. Podobnie jak wielu w świecie technologii, uważał, że logika jest skalowalna, ale emocje nie.
Choć kłóciliśmy się przez chwilę, nie zmieniłem jego zdania (ani nie zdobyłem jego inwestycji). Ale spędziłem ponad dekadę pracując w marketingu sportowym – nigdy mnie nie przekonasz, że to logika wypełnia stadiony histerycznymi fanami. To wszystko emocje.
Podczas gdy niektórzy mogą twierdzić, że porównywanie technologii do sportu jest jak porównywanie jabłek do pomarańczy, powiedziałbym, że technologia mogłaby wyciągnąć wnioski z branży sportowej. Ponieważ jeśli chodzi o tak wiele produktów technologicznych, nie branie pod uwagę ludzkich emocji działa przeciwko nam. Ta krótkowzroczna perspektywa doprowadziła do najgorszych aspektów mediów społecznościowych w przeszłości i obecnie napędza najwięcej szkodliwe nagłówki odnośnie dzisiejszej generatywnej sztucznej inteligencji.
Jeśli przedsiębiorcy technologiczni chcą zdobyć zaufanie konsumentów do obietnicy i potencjału AI, musimy projektować produkty zbudowane z tego, co lubię nazywać „infrastrukturą emocjonalną”. Oto jak to zrobić.
Używaj pamięci do wsparcia, a nie eksploatacji
Rozległe funkcje obiecane przez agentów AI staną się możliwe dzięki ulepszonym możliwościom pamięci – ale wiąże się to również z koniecznością przechowywania większej ilości danych osobowych, a niestety dane użytkowników były historycznie w dużej mierze wykorzystywane do prób manipulowania użytkownikami, aby wydawać pieniądze.
Natomiast tworzenie sztucznej inteligencji z infrastrukturą emocjonalną pozwoliłoby wykorzystać pamięć danych użytkownika do uzupełniania luk w wiedzy, których braku użytkownik może nie być świadomy.
Na przykład, jeśli użytkownik zapyta agenta AI, które lokalne plaże są przyjazne psom, większość agentów w obecnej formie wyświetli listę plaż i być może zapyta, czy użytkownik byłby zainteresowany listą pobliskich restauracji przyjaznych zwierzętom.
Jednak agent zaprojektowany z infrastrukturą emocjonalną zawiera dodatkową warstwę inteligencji emocjonalnej. W tym przypadku pamiętałby, że szczepienie psa miało miejsce poprzedniego dnia i powiadomiłby użytkownika, że zbyt wczesne zabranie psa do wody może doprowadzić do infekcji, wyczerpania lub nieoczekiwanych skutków ubocznych.
W ten sposób agenci AI zachowywaliby się bardziej jak zaufani konsultanci, którzy są skłonni stawiać opór, gdy samo wykonywanie poleceń może prowadzić do mniej niż optymalnych wyników. Takie działanie jest również bardziej prawdopodobne, że zbuduje większe zaufanie użytkowników, co spowoduje zwiększone wykorzystanie.
Buduj przychody poprzez zaufanie, a nie targetowanie
Wcześni użytkownicy genAI mają już od lat bezpłatny dostęp do największych graczy na rynku. Może to skusić założycieli startupów B2C AI do myślenia, że jedyną drogą do rentowności jest darmowy produkt, który zarabia na sprzedaży danych zewnętrznym dostawcom lub za pośrednictwem sprzedaży reklam.
Jednak domyślne przejście na ten model biznesowy może zagrozić i tak już kruchemu zaufaniu konsumentów, jeśli użytkownicy nie będą traktowani z dużo większym szacunkiem, troską i odpowiedzialnością. Weźmy najnowszą historię aplikacji Meta AI, w której użytkownicy wydawali się nieumyślnie zamieszczanie bardzo osobistych zapytań do kanału publicznego.
Nie wszystkie produkty mają elementy społecznościowe, ale ten przykład ilustruje poziom szczegółów osobistych, którymi użytkownicy są skłonni dzielić się z agentami AI. Biorąc pod uwagę badania pokazują że chatboty są w stanie lepiej przekonać ludzkich odpowiedników, gdy są wyposażone w dane osobowe, reklama na tych platformach może być prowadzona w sposób etycznie wątpliwy – na przykład w przypadku kont Meta obsługujących reklamy produktów kosmetycznych po tym, jak nastolatkowie usunęli selfie.
Zamiast tego infrastruktura emocjonalna byłaby zoptymalizowana pod kątem opieki nad kliknięciami. Nie musi to również odbywać się kosztem przychodów.
Sztuczna inteligencja może sprawić, że te doświadczenia będą jeszcze skuteczniejsze, tylko wyświetlanie reklam, które rzeczywiście odpowiadają na rzeczywiste potrzeby użytkowników: płaszcz przeciwdeszczowy, gdy zbliża się zła pogoda, ubezpieczenie dla zwierząt domowych w ramach budżetu dla nowego kociaka, suplementy witaminy C przy najwcześniejszych objawach przeziębienia.
Ale prawdziwa troska nie polega tylko na dokładnym ukierunkowaniu – podobnie jak w przykładzie z plażą powyżej, prawdziwa troska wypełnia luki, których użytkownicy nie zdają sobie sprawy, że brakuje. Na przykład, tracker zdrowia zwierząt może ostrzec użytkownika, że jego konkretna rasa jest podatna na niedobory witaminy B12 i w związku z tym polecić markę karmy, która lepiej spełni potrzeby jego psa. Odkrywanie tego typu pomijanych szczegółów to obszar, w którym sztuczna inteligencja może naprawdę zabłysnąć i przynieść prawdziwą wartość użytkownikom końcowym.
O nas połowa globalnych konsumentów są skłonni udostępniać dane osobowe, jeśli oznacza to lepsze doświadczenia użytkowników, ale liczba ta spadła do zaledwie 15% na rynku amerykańskim. Przedsiębiorcy AI mają realną szansę, aby zmienić to postrzeganie poprzez emocjonalnie inteligentny projekt.
Zaprojektuj emocjonalne bariery ochronne, które stawiają ludzi na pierwszym miejscu
Najważniejszym aspektem infrastruktury emocjonalnej jest budowanie barier ochronnych, które chronią najlepsze interesy użytkowników. Obejmuje to ostrożny wybór rodzaju treści, które mogą być generowane przez AI, jasne etykietowanie materiałów generowanych przez AI i projektowanie jasnych interwencji, gdy użytkownicy zapuszczają się na terytorium emocjonalnie ryzykowne.
Na przykład podczas tworzenia aplikacji do opieki nad zwierzętami mój zespół i ja postanowiliśmy, że nie zwróć się do AI w przypadku treści związanych ze zdrowiem lub odżywianiem. Ryzyko halucynacji lub dezinformacji było zbyt duże, więc podjęliśmy decyzję o zapłaceniu profesjonalnemu weterynarzowi za napisanie i opracowanie tych artykułów. Oczywiście, był to droższy wybór, ale gdy w grę wchodzą dosłowne życia, jest to godna inwestycja.
Nie tylko dodaje wiarygodności naszemu produktowi, ale także zapewnia bezpieczeństwo naszym użytkownikom i ich zwierzętom. To również to, czego chcą konsumenci – 79% zgadzam się że firmy powinny ujawniać wykorzystanie sztucznej inteligencji.
Wreszcie, w najlepszym interesie firm AI leży projektowanie ich produktów w taki sposób, aby jasno komunikowały swoje ograniczenia i wskazywały użytkownikom interwencje ludzkie, gdy jest to właściwe. Już wcześniej pojawiały się historie o emocjonalnie wrażliwych użytkownikach, którzy zwracali się ku samookaleczeniu lub samobójstwu z powodu braku odpowiednich zabezpieczeń w chatbotach, i zrozumiałe jest, że doprowadziło do pozwów sądowych.
Chociaż wierzę, że przyszłość AI w naszym życiu jest świetlana, musimy być szczerzy co do tego, gdzie obecnie leżą jej słabości i nie pozwolić, aby presja szybkości i konkurencji wzięła górę nad bezpieczeństwem. Jeśli to zrobimy, stracimy zaufanie konsumentów, którym rzekomo chcemy służyć. Ignorowanie tej odpowiedzialności szkodzi całemu ekosystemowi.