Connect with us

Sztuczna inteligencja i łuk zaufania

Liderzy opinii

Sztuczna inteligencja i łuk zaufania

mm

Na początku zeszłego roku, kiedy nasz zespół robił przewidywania dotyczące tego, co nas czeka, większość była zgodna, że oprawy zostaną zdjęte z sztucznej inteligencji (AI). Wreszcie zobaczymy, co potrafi zrobić, i miejmy nadzieję, zyskamy klarowność co do jej wpływu na biznes i społeczeństwo oraz jak postępować. Nie była to nowa przewidywania, ale jej rdzeń był dokładny, chociaż nadal mamy do czynienia z konsekwencjami AI i jak (lub czy) powinna być w jakiś sposób kontrolowana.

Mieliśmy w końcu zobaczyć, jak Apple, Microsoft i Google wbudowują AI do urządzeń i przynoszą jej moc szerszej i większej publiczności. Następnie jeden czatbot w narzędziu wyszukiwania zasilanym przez AI zagroził użytkownikom i twierdził, że szpieguje pracowników, podczas gdy inny sugerował użycie kleju Elmer’s w pizzy domowej, aby ser nie ślizgał się. Nadal jednak przypadki użycia AI w biznesie rosły dramatycznie, a także rosło rynku. Według danych z Crunchbase, prawie trzecia wszystkich globalnych funduszy venture w zeszłym roku poszła do firm związanych z AI.

Ale nawet gdy OpenAI dostarczyło naprawdę godne uwagi ulepszone rozumowanie, słynny badacz AI, Yoshua Bengio, nakłaniał do przyjęcia środków bezpieczeństwa dla „modeli frontier” z potencjałem spowodowania katastrofalnej szkody. I chociaż technologia otrzymała dwie Nagrody Nobla za zastosowania w nauce, jeden z laureatów wyraził obawy o posiadaniu systemów „bardziej inteligentnych niż my, które ostatecznie przejmują kontrolę”.

W tak szybko rozwijającym się obszarze trudno jest nawet ekspertom technologicznym nadążyć, nie mówiąc już o tych w głównym nurcie.

I te potknięcia AI – i obawy dotyczące prywatności i niekontrolowanego użycia – tylko zwiększyły publiczną nieufność.

Proszę, zaufaj mi

Znajdujemy się w połowie łuku zaufania, który wymaga poszerzania publicznej akceptacji AI, jednocześnie zapewniając, że społeczności biznesu i technologiczne działają odpowiedzialnie. Pierwsza część to miejsce, w którym gra jest rozgrywana teraz, na poziomie korporacyjnym, zyskując na sile z każdym bezpiecznym i solidnym wdrożeniem. Budujemy na naszych punktach dowodowych, które ostatecznie doprowadzą do zwiększonego zaufania publicznego. Druga część jest jednak znacznie trudniejsza.

Kto definiuje i egzekwuje odpowiedzialne użycie AI? Czy przemysł może stworzyć wytyczne, gdy to oni potrzebują regulacji? Jeśli technolodzy mają trudności z followowaniem AI, czy decydenci będą poinformowani, i czy utrzymają swoje polityczne cele poza dyskusją? I kiedy AI miliarder nagle chce porozmawiać o kontroli, czy miał olśnienie, czy po prostu próbuje zahamować, aby nadążyć?

„Proszę, zaufaj mi” nie wystarczy w przypadku AI, niezależnie od tego, kim jesteś.

Zaufaj, ale zweryfikuj

Ludzie patrzą na generatywną AI, taką jak ChatGPT, i zastanawiają się, czy będzie to ich następny Google? Dobrze, najwyższy wynik wyszukiwania Google jest teraz tworzony przez jego model AI, Gemini. Problem polega na tym, że nie można polegać na nim w biznesie na dużą skalę, gdy prosta pytanie, takie jak „Czy surowe mięso jest bezpieczne do spożycia?” zwraca odpowiedź „Tak, mrożone”. Musisz sprawdzić dane.

Łuk zaufania publicznego będzie odbijał to, co zrobił z konwencjonalnym wyszukiwaniem, zyskując zaufanie z czasem i dzięki dowodom niezawodności. Ironicznie, w naszym poszukiwaniu uproszczenia i poprawy wyszukiwania, zrobiliśmy krok wstecz. Teraz, po otrzymaniu tej odpowiedzi AI na górze, musisz przewinąć długą listę linków sponsorowanych, kliknąć na następne pięć i nadal kwalifikować informacje.

To jest dużo pracy, gdy szukasz szybkiej odpowiedzi – i nie możesz mieć całej firmy robiącej to samo. Jednak wzbogacając te dane, które masz od tysiącleci ze swoimi własnymi biletami usługowymi, przynosisz prawdziwą wiedzę o Twoim środowisku. Algorytmicznie możesz następnie skonfigurować halucynacje w dół, ale nadal pozostaje to „zaufaj, ale zweryfikuj” sytuacja.

Trzymaj politykę z dala

Gdy chodzi o regulację AI, niektórzy twierdzą, że koń już uciekł z stajni i prawdopodobnie nie zostanie złapany. Na przykład, brakuje naprawdę skutecznych narzędzi do sprawdzania, czy uczeń napisał pracę, czy użył GenAI. Technologia jest po prostu zbyt daleko zaawansowana.

Regulowanie tego byłoby bardzo skomplikowane, a być może będziemy się poruszać po cienkim lodzie. Wiemy, że firmy technologiczne są dziesiątki lat przed proponowanymi zewnętrznymi regulatorami. Ale jesteśmy dobrzy w wykuwaniu ścieżki, a nie w byciu powstrzymywanymi. Jednak na końcu dnia może to spaść na innowatorów, aby spróbować zastosować rządzenie. Kto inny mógłby to zrobić – odpowiedzialnie?

Istnieją politycy, którzy bardzo chcieliby to zrobić. Ryzyko, poza brakiem zrozumienia, polega na tym, że mogą mieć osobistą i polityczną agendę do realizacji. Ich focus, potencjalnie, byłby mniej ukierunkowany na rozwój AI, a bardziej na robienie tego, co jest w ich najlepszym politycznym interesie. Mogliby pracować na tych publicznych lękach, używając ciężkiej ręki, aby zahamować postęp.

Ustawa CHIPS i Science była dobrym przykładem zdrowej rządowej akcji, produkującej dramatyczny 15-krotny wzrost budowy obiektów produkcyjnych dla komputerów i urządzeń elektronicznych. Ale to było możliwe dzięki bipartynacji – coraz częściej relikt przeszłej ery.

Czy jesteśmy godni?

Dużo pieniędzy płynie do AI, a w ciągu najbliższych dwóch dekad wiele zostanie zarobione przez firmy technologiczne. Ile, jak szybko i jak bezpiecznie pozostaje do zobaczenia. W dowolnym dniu głęboka fałszywka mogłaby być rozpowszechniona, pokazująca kogoś w światłach jugglingującego jajka zagrożonego ptaka. Publiczność zareagowałaby z przerażeniem, a nawet gdyby to zostało ujawnione jako AI wygenerowane, to jajko nie wraca do skorupy – szkoda jest już zrobiona.

Potrzebujemy takich rzeczy, aby były regulowane przez poinformowanych technologów. Jaka forma to przyjmie – rada, organ standaryzacji, międzynarodowa ramy – pozostaje do zobaczenia. Co jest znane, to AI jest na łuku zaufania, a jako branża, musimy udowodnić, że jesteśmy godni zaufania.

Eduardo Mota jest starszym architektem danych chmury i specjalistą AI/ML w DoiT. Uznanym architektem chmury i specjalistą ML, posiada tytuł licencjata administracji biznesu oraz wiele powiązanych certyfikatów, co świadczy o jego nieustannym dążeniu do zdobywania wiedzy. Podróż Eduardo obejmuje kluczowe role w DoiT i AWS, gdzie jego ekspertyza w dziedzinie architektury chmury AWS i GCP oraz strategii optymalizacji znacząco wpłynęła na efektywność operacyjną i oszczędności kosztów dla wielu organizacji.