Connect with us

Nie chodzi o to, co AI może zrobić dla nas, ale o to, co my możemy zrobić dla AI

Liderzy opinii

Nie chodzi o to, co AI może zrobić dla nas, ale o to, co my możemy zrobić dla AI

mm

Większość ludzi postrzega sztuczną inteligencję (AI) przez pryzmat jednego kierunku. Ta technologia istnieje tylko po to, by służyć ludziom i osiągać nowe poziomy wydajności, dokładności i produktywności. Ale co, jeśli mamy do czynienia tylko z połową równania? I co, jeśli, robiąc to, zwiększamy tylko wady tej technologii?

AI jest jeszcze w powijakach i nadal stoi przed znaczącymi ograniczeniami w zakresie rozumowania, jakości danych i zrozumienia pojęć takich jak zaufanie, wartość i zachęty. Przełom między bieżącymi możliwościami a prawdziwą „inteligencją” jest znaczący. Dobra wiadomość? Możemy to zmienić, stając się aktywnymi współpracownikami, a nie biernymi konsumentami AI.

Ludzie posiadają klucz do ewolucji inteligentnej, dostarczając lepsze ramy rozumowania, wysokiej jakości dane i pomosty lukę zaufania. W efekcie, człowiek i maszyna mogą pracować ręka w rękę, aby osiągnąć wspólne korzyści – lepsza współpraca generuje lepsze dane i lepsze wyniki.

Zastanówmy się, jak mógłby wyglądać bardziej symbiotyczny związek i jak, jako partnerzy, możemy współpracować w sposób, który przynosi korzyści obu stronom równania AI.

Wymagany związek między człowiekiem a maszyną

AI jest bez wątpienia świetna w analizowaniu ogromnych zbiorów danych i automatyzowaniu złożonych zadań. Jednak ta technologia pozostaje podstawowo ograniczona w myśleniu jak my. Po pierwsze, te modele i platformy mają trudności z rozumowaniem poza danymi szkoleniowymi. Rozpoznawanie wzorców i predykcja statystyczna nie stanowią problemu, ale kontekstowe osądy i ramy logiczne, które uważamy za oczywiste, są trudniejsze do odtworzenia. Ta luka w rozumowaniu oznacza, że AI często zawodzi, gdy stoi wobec nuansowych sytuacji lub etycznego osądu.

Po drugie, istnieje „śmieci w, śmieci wy” jakość danych. Bieżące modele są szkolone na ogromnych zbiorach informacji z i bez zgody. Nieweryfikowane lub tendencyjne informacje są wykorzystywane niezależnie od właściwego przypisania lub autoryzacji, w wyniku czego powstaje nieweryfikowana lub tendencyjna AI. „Dieta danych” modeli jest więc wątpliwa co najmniej i chaotyczna w najgorszym przypadku. Można to porównać do wpływu odżywiania. Jeśli ludzie jedzą tylko fast food, są leniwi i ospali. Jeśli agenci spożywają tylko materiały chronione prawem autorskim i wtórne, ich wyniki są podobnie ograniczone, a dane wyjściowe są niedokładne, niewiarygodne i ogólne, a nie szczegółowe. To jest jeszcze daleko od autonomii i proaktywnej decyzji, obiecanej w nadchodzącej fali agentów.

Krytycznie, AI jest nadal ślepa na to, z kim i czym wchodzi w interakcję. Nie może odróżnić użytkowników zgodnych i niezgodnych, ma trudności z weryfikacją relacji i nie rozumie pojęć takich jak zaufanie, wymiana wartości i zachęty stakeholderów – podstawowych elementów, które rządzą interakcjami ludzkimi.

Problemy AI z rozwiązaniami ludzkimi

Musimy myśleć o platformach AI, narzędziach i agentach mniej jak sługi i bardziej jak asystenci, którym możemy pomóc w szkoleniu. Po pierwsze, spójrzmy na rozumowanie. Możemy wprowadzić nowe ramy logiczne, wytyczne etyczne i myślenie strategiczne, których systemy AI nie mogą rozwinąć same. Przez przemyślane prowokowanie i staranne nadzorowanie, możemy uzupełnić statystyczne siły AI mądrością ludzką – ucząc je rozpoznawać wzorce i rozumieć konteksty, które sprawiają, że te wzorce są znaczące.

Podobnie, zamiast pozwolić AI na szkolenie na dowolnych informacjach, które mogą być pobrane z Internetu, ludzie mogą opracować wyższej jakości zbiory danych, które są weryfikowane, różnorodne i etycznie pozyskane.

Oznacza to rozwijanie lepszych systemów przypisania, w których twórcy treści są rozpoznawani i wynagradzani za swoje wkłady w szkolenie.

Powstające ramy umożliwiają to. Poprzez zjednoczenie tożsamości online pod jednym banerem i decyzję, czy i co są skłonni udostępnić, użytkownicy mogą wyposażyć modele w informacje zero-party, które szanują prywatność, zgodę i regulacje. Lepsze jeszcze, śledząc te informacje na blockchainie, użytkownicy i twórcy modeli mogą zobaczyć, skąd pochodzą informacje, i odpowiednio wynagrodzić twórców za dostarczanie tego „nowego oleju”. To jest sposób, w jaki uznajemy użytkowników za ich dane i włączamy ich do rewolucji informacyjnej.

Wreszcie, mostowanie luki zaufania oznacza wyposażenie modeli w ludzkie wartości i postawy. Oznacza to projektowanie mechanizmów, które rozpoznają stakeholderów, weryfikują relacje i różnicują między użytkownikami zgodnymi i niezgodnymi. W efekcie, pomagamy AI zrozumieć swój kontekst operacyjny – kto korzysta z jego działań, co przyczynia się do jego rozwoju i jak wartość przepływa przez systemy, w których uczestniczy.

Na przykład, agenci wspierani przez infrastrukturę blockchain są dość dobrzy w tym. Mogą rozpoznać i priorytetowo traktować użytkowników z udowodnionym zaangażowaniem w ekosystemie poprzez reputację, wpływ społeczny lub posiadanie tokenów. Pozwala to AI na wyrównanie zachęt, dając większy ciężar stakeholderom z udziałem w grze, tworząc systemy zarządzania, w których zweryfikowani zwolennicy uczestniczą w podejmowaniu decyzji na podstawie ich poziomu zaangażowania. W efekcie, AI głębiej rozumie swój ekosystem i może podejmować decyzje poinformowane przez prawdziwe relacje stakeholderów.

Nie trać z oczu ludzkiego elementu w AI

Powiedziano już wiele o wzroście tej technologii i o tym, jak zagraża przejęciu kontroli nad branżami i likwidacji miejsc pracy. Jednak wbudowanie zabezpieczeń może zapewnić, że AI uzupełnia raczej niż zastępuje doświadczenie ludzkie. Na przykład, najbardziej udane wdrożenia AI nie zastępują ludzi, ale rozszerzają to, co możemy osiągnąć razem. Kiedy AI zajmuje się rutynową analizą, a ludzie zapewniają kreatywny kierunek i nadzór etyczny, obie strony przyczyniają się do swoich unikalnych sił.

Kiedy wszystko jest wykonane prawidłowo, AI obiecuje poprawić jakość i wydajność licznych procesów ludzkich. Ale kiedy wszystko jest wykonane źle, jest ograniczona przez wątpliwe źródła danych i naśladuje raczej inteligencję niż ją wykazuje. To od nas, ludzkiej strony równania, zależy, czy te modele są mądrzejsze i czy nasze wartości, osądy i etyka pozostają w ich sercu.

Zaufanie jest niezbędne, aby ta technologia stała się mainstreamowa. Kiedy użytkownicy mogą zweryfikować, dokąd ich dane trafiają, zobaczyć, jak są wykorzystywane, i uczestniczyć w tworzeniu wartości, stają się chętnymi partnerami, a nie niechętnymi podmiotami. Podobnie, kiedy systemy AI mogą wykorzystywać zgodnych stakeholderów i transparentne potoki danych, stają się bardziej godne zaufania. W efekcie, są bardziej prawdopodobne, aby uzyskać dostęp do naszych najważniejszych prywatnych i zawodowych przestrzeni, tworząc błędne koło lepszego dostępu do danych i poprawy wyników.

Zatem, wkraczając w następną fazę AI, skupmy się na łączeniu człowieka i maszyny za pomocą weryfikowalnych relacji, źródeł danych i precyzyjnych systemów. Powinniśmy zapytać, nie co AI może zrobić dla nas, ale co my możemy zrobić dla AI.

Yukai Tu jest Dyrektorem ds. Technologii w CARV. Yukai jest ekspertem w dziedzinie poufnego przetwarzania i blockchain oraz posiada tytuł magistra nauk komputerowych na UCLA. W CARV, Yukai pomaga budować CARV SVM Chain oraz ramę D.A.T.A. CARV, infrastrukturę agencji, która rozszerza możliwości SVM na Ethereum i zapewnia agentom AI wysokiej jakości dane łańcuchowe i pozałańcuchowe. Pracował również jako inżynier oprogramowania w Google i Coinbase, współtworzył Cosmos SDK oraz pełnił funkcję lidera inżynierii blockchain w LINO.