Sztuczna inteligencja
AutoGen: Napędzanie następnej generacji aplikacji dużych modeli językowych

Duże modele językowe (LLM) są obecnie jednym z najczęściej dyskutowanych tematów w głównym nurcie sztucznej inteligencji. Deweloperzy na całym świecie badają potencjalne zastosowania LLM. Są to algorytmy sztucznej inteligencji, które wykorzystują techniki głębokiego uczenia się i ogromne ilości danych szkoleniowych, aby zrozumieć, podsumować, przewidzieć i wygenerować szeroki zakres treści, w tym tekst, dźwięk, obrazy, filmy i wiele więcej.
Duże modele językowe są skomplikowanymi algorytmami sztucznej inteligencji. Rozwój takiego modelu jest wyczerpującym zadaniem, a konstruowanie aplikacji, która wykorzystuje możliwości LLM, jest równie wyzwaniem. Wymaga to znacznej wiedzy, wysiłku i zasobów, aby zaprojektować, wdrożyć i ostatecznie zoptymalizować przepływ pracy, który może wykorzystać pełny potencjał dużego modelu językowego, aby osiągnąć najlepsze wyniki. Biorąc pod uwagę ogromny czas i zasoby wymagane do ustanowienia przepływów pracy dla aplikacji, które wykorzystują moc LLM, automatyzacja tych procesów ma ogromną wartość. Jest to szczególnie prawdziwe, ponieważ przepływy pracy mają być jeszcze bardziej złożone w najbliższej przyszłości, a deweloperzy tworzą coraz bardziej zaawansowane aplikacje oparte na LLM. Ponadto, przestrzeń projektowa niezbędna dla tych przepływów pracy jest zarówno skomplikowana, jak i rozległa, co dodatkowo zwiększa wyzwania związane z tworzeniem optymalnego, solidnego przepływu pracy, który spełnia oczekiwania dotyczące wydajności.
AutoGen to framework opracowany przez zespół Microsoftu, który ma na celu uprościć orchestrację i optymalizację przepływów pracy LLM, wprowadzając automatyzację do potoku przepływu pracy. Framework AutoGen oferuje konwersacyjne i dostosowywalne agenty, które wykorzystują moc zaawansowanych LLM, takich jak GPT-3 i GPT-4, i jednocześnie rozwiązują ich bieżące ograniczenia, integrując LLM z narzędziami i wprowadzając dane wejściowe ludzi, używając automatycznych rozmów do inicjowania konwersacji między wieloma agentami.
Podczas korzystania z frameworka AutoGen, wystarczą dwa kroki podczas tworzenia złożonego systemu konwersacji wieloagentowej.
Krok 1: Zdefiniuj zestaw agentów, każdy z własnymi rolami i możliwościami.
Krok 2: Zdefiniuj zachowanie interakcji między agentami, tj. agent powinien wiedzieć, co odpowiedzieć, gdy otrzyma wiadomość od innego agenta.
Oba powyższe kroki są modułowe i intuicyjne, co sprawia, że agenci są komponowalni i wielokrotnie używalni. Poniższy rysunek ilustruje przykładowy przepływ pracy, który rozwiązuje problem odpowiedzi na pytania oparte na kodzie w optymalizacji łańcucha dostaw. Jak widać, pisarz najpierw pisze kod i interpretację, Safeguard zapewnia prywatność i bezpieczeństwo kodu, a kod jest następnie wykonywany przez Commander po otrzymaniu wymaganej akceptacji. Jeśli system napotka jakikolwiek problem podczas wykonywania, proces jest powtarzany, aż do całkowitego rozwiązania. Wdrożenie poniższego frameworka skutkuje zmniejszeniem ilości interakcji ręcznych od 3 do 10 razy przy wdrożeniu w aplikacjach takich jak optymalizacja łańcucha dostaw. Ponadto, użycie AutoGen również zmniejsza ilość wysiłku programistycznego o cztery razy.

… (reszta treści)
