stub Auto-GPT i GPT-Engineer: szczegółowy przewodnik po współczesnych wiodących agentach AI - Unite.AI
Kontakt z nami

Artificial Intelligence

Auto-GPT i GPT-Engineer: szczegółowy przewodnik po współczesnych wiodących agentach AI

mm

Opublikowany

 on

Porównując ChatGPT z autonomicznymi agentami AI, takimi jak Auto-GPT i GPT-Engineer, pojawia się znacząca różnica w procesie decyzyjnym. Chociaż ChatGPT wymaga aktywnego zaangażowania człowieka w celu prowadzenia rozmowy i zapewniania wskazówek w oparciu o podpowiedzi użytkownika, proces planowania zależy głównie od interwencji człowieka.

generatywna sztuczna inteligencja modele takie jak transformatory to najnowocześniejsza technologia podstawowa napędzająca tych autonomicznych agentów AI. Transformatory te są szkolone na dużych zbiorach danych, co pozwala im symulować złożone możliwości rozumowania i podejmowania decyzji.

Korzenie agentów autonomicznych typu open source: Auto-GPT i GPT-Engineer

Wiele z tych autonomicznych agentów AI wywodzi się z inicjatyw open source prowadzonych przez innowacyjne osoby przekształcające konwencjonalne przepływy pracy. Zamiast tylko oferować sugestie, agenci tacy jak Auto-GPT mogą samodzielnie wykonywać zadania, od zakupów online po tworzenie podstawowych aplikacji. Interpreter kodu OpenAI ma na celu aktualizację ChatGPT od zwykłego sugerowania pomysłów po aktywne rozwiązywanie problemów za pomocą tych pomysłów.

Zarówno Auto-GPT, jak i GPT-Engineer są wyposażone w moc GPT 3.5 i GPT-4. Wychwytuje logikę kodu, łączy wiele plików i przyspiesza proces programowania.

Sedno funkcjonalności Auto-GPT leży w agentach AI. Agenci ci są zaprogramowani do wykonywania określonych zadań, od przyziemnych, takich jak planowanie, po bardziej złożone zadania wymagające strategicznego podejmowania decyzji. Jednak ci agenci AI działają w granicach wyznaczonych przez użytkowników. Kontrolując swój dostęp za pośrednictwem interfejsów API, użytkownicy mogą określić głębokość i zakres działań, które może wykonać sztuczna inteligencja.

Na przykład, jeśli ma za zadanie stworzyć aplikację internetową do czatowania zintegrowaną z ChatGPT, Auto-GPT samodzielnie dzieli cel na wykonalne kroki, takie jak utworzenie frontonu HTML lub skryptowanie backendu w Pythonie. Chociaż aplikacja samodzielnie generuje te podpowiedzi, użytkownicy mogą je nadal monitorować i modyfikować. Jak pokazał twórca AutoGPT @SigGravitas, potrafi zbudować i wykonać program testowy oparty na Pythonie.

Chociaż poniższy diagram opisuje bardziej ogólną architekturę autonomicznego agenta AI, oferuje cenny wgląd w procesy za kulisami.

Architektura agenta AI, taka jak Autogpt, inżynier GPT

Architektura autonomicznego agenta AI

Proces inicjowany jest poprzez weryfikację klucza API OpenAI i inicjalizację różnych parametrów, w tym pamięci krótkotrwałej i zawartości bazy danych. Po przesłaniu kluczowych danych do agenta model wchodzi w interakcję z GPT3.5/GPT4 w celu uzyskania odpowiedzi. Odpowiedź ta jest następnie przekształcana w format JSON, który Agent interpretuje w celu wykonania różnych funkcji, takich jak przeprowadzanie wyszukiwań online, odczytywanie lub zapisywanie plików, a nawet uruchamianie kodu. Auto-GPT wykorzystuje wstępnie wytrenowany model do przechowywania tych odpowiedzi w bazie danych, a przyszłe interakcje korzystają z tych przechowywanych informacji w celach informacyjnych. Pętla trwa do momentu uznania zadania za zakończone.

Przewodnik konfiguracji programów Auto-GPT i GPT-Engineer

Skonfigurowanie najnowocześniejszych narzędzi, takich jak GPT-Engineer i Auto-GPT, może usprawnić proces programowania. Poniżej znajduje się uporządkowany przewodnik, który pomoże Ci zainstalować i skonfigurować oba narzędzia.

Automatyczne GPT

Konfiguracja Auto-GPT może wydawać się skomplikowana, ale po wykonaniu odpowiednich kroków staje się prosta. Ten przewodnik opisuje procedurę konfiguracji Auto-GPT i oferuje wgląd w jej różnorodne scenariusze.

1. Wymagania wstępne:

  1. Środowisko Pythona: Upewnij się, że masz zainstalowany język Python 3.8 lub nowszy. Możesz uzyskać Pythona z jego oficjalna strona internetowa.
  2. Jeśli planujesz klonować repozytoria, zainstaluj git.
  3. Klucz API OpenAI: Do interakcji z OpenAI niezbędny jest klucz API. Zdobądź klucz od swojego Konto Open AI
Otwórz klucz API AI

Otwórz generowanie klucza API AI

Opcje zaplecza pamięci: Zaplecze pamięci służy jako mechanizm przechowywania dla AutoGPT w celu uzyskania dostępu do danych niezbędnych do jego operacji. AutoGPT wykorzystuje zarówno możliwości przechowywania krótko-, jak i długoterminowego. szyszka, Milvus, Redisi inne to niektóre dostępne opcje.

2. Konfigurowanie obszaru roboczego:

  1. Utwórz środowisko wirtualne: python3 -m venv myenv
  2. Aktywuj środowisko:
    1. MacOS lub Linux: source myenv/bin/activate

3. Instalacja:

  1. Sklonuj repozytorium Auto-GPT (upewnij się, że masz zainstalowany Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Aby mieć pewność, że pracujesz z wersją 0.2.2 Auto-GPT, będziesz chciał checkout do tej konkretnej wersji: git checkout stable-0.2.2
  3. Przejdź do pobranego repozytorium: cd Auto-GPT
  4. Zainstaluj wymagane zależności: pip install -r requirements.txt

4. Konfiguracja:

  1. Lokalizować .env.template głównie /Auto-GPT informator. Zduplikuj i zmień nazwę na .env
  2. Otwarte .env i ustaw swój klucz API OpenAI obok OPENAI_API_KEY=
  3. Podobnie, aby użyć Pinecone lub innych modułów pamięci, zaktualizuj plik .env plik z kluczem API Pinecone i regionem.

5. Instrukcje wiersza poleceń:

Auto-GPT oferuje bogaty zestaw argumentów wiersza poleceń umożliwiających dostosowanie jego zachowania:

  • Zastosowanie ogólne:
    • Wyświetl pomoc: python -m autogpt --help
    • Dostosuj ustawienia AI: python -m autogpt --ai-settings <filename>
    • Określ zaplecze pamięci: python -m autogpt --use-memory <memory-backend>
Interfejs wiersza polecenia AutoGPT

AutoGPT w CLI

6. Uruchamianie Auto-GPT:

Po zakończeniu konfiguracji zainicjuj Auto-GPT, używając:

  • Linux lub Mac: ./run.sh start
  • Windows: .\run.bat

Integracja z Dockerem (zalecane podejście do konfiguracji)

Dla tych, którzy chcą konteneryzować Auto-GPT, Docker zapewnia usprawnione podejście. Należy jednak pamiętać, że początkowa konfiguracja Dockera może być nieco skomplikowana. Odnosić się do Przewodnik instalacji Dockera o pomoc.

Wykonaj poniższe kroki, aby zmodyfikować klucz API OpenAI. Upewnij się, że Docker działa w tle. Teraz przejdź do głównego katalogu AutoGPT i wykonaj poniższe kroki na swoim terminalu

  • Zbuduj obraz Dockera: docker build -t autogpt .
  • Teraz uruchom: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Z docker-compose:

  • Biegać: docker-compose run --build --rm auto-gpt
  • W celu dodatkowego dostosowania można zintegrować dodatkowe argumenty. Na przykład, aby uruchomić zarówno z –gpt3only, jak i –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Biorąc pod uwagę dużą autonomię, jaką posiada Auto-GPT w generowaniu treści z dużych zbiorów danych, istnieje potencjalne ryzyko niezamierzonego uzyskania dostępu do złośliwych źródeł internetowych.

Aby ograniczyć ryzyko, obsługuj Auto-GPT w wirtualnym kontenerze, takim jak Docker. Dzięki temu wszelkie potencjalnie szkodliwe treści pozostaną zamknięte w przestrzeni wirtualnej, a Twoje zewnętrzne pliki i system pozostaną nienaruszone. Alternatywnie, Windows Sandbox jest opcją, chociaż resetuje się po każdej sesji, nie zachowując swojego stanu.

Ze względów bezpieczeństwa zawsze uruchamiaj Auto-GPT w środowisku wirtualnym, upewniając się, że Twój system pozostaje odizolowany od nieoczekiwanych wyników.

Biorąc to wszystko pod uwagę, nadal istnieje ryzyko, że nie będziesz w stanie uzyskać pożądanych rezultatów. Zgłoszono użytkowników Auto-GPT powtarzające się problemy podczas próby zapisu do pliku, często napotykając nieudane próby z powodu problematycznych nazw plików. Oto jeden z takich błędów: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Różne rozwiązania tego problemu zostały omówione na powiązanych tematach Wątek GitHub na przykład.

Inżynier GPT

Proces pracy inżyniera GPT:

  1. Szybka definicja: Stwórz szczegółowy opis swojego projektu, używając języka naturalnego.
  2. Generowanie kodu: Na podstawie Twojej podpowiedzi GPT-Engineer zabiera się do pracy, tworząc fragmenty kodu, funkcje, a nawet kompletne aplikacje.
  3. Udoskonalenie i optymalizacja: Po generacji zawsze jest miejsce na ulepszenia. Programiści mogą modyfikować wygenerowany kod tak, aby spełniał określone wymagania, zapewniając najwyższą jakość.

Proces konfiguracji GPT-Engineer został skondensowany w łatwym do zrozumienia przewodniku. Oto podział krok po kroku:

1. Przygotowanie środowiska: Zanim zagłębisz się w temat, upewnij się, że masz gotowy katalog projektu. Otwórz terminal i uruchom poniższe polecenie

  • Utwórz nowy katalog o nazwie „strona internetowa”: mkdir website
  • Przejdź do katalogu: cd website

2. Sklonuj repozytorium:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Nawiguj i instaluj zależności: Po sklonowaniu przejdź do katalogu cd gpt-engineer i zainstaluj wszystkie niezbędne zależności make install

4. Aktywuj środowisko wirtualne: W zależności od systemu operacyjnego aktywuj utworzone środowisko wirtualne.

  • W razie zamówieenia projektu macOS / Linux: source venv/bin/activate
  • W razie zamówieenia projektu Windows, jest nieco inaczej ze względu na konfigurację klucza API: set OPENAI_API_KEY=[your api key]

5. Konfiguracja – Konfiguracja klucza API: Aby współdziałać z OpenAI, będziesz potrzebować klucza API. Jeżeli jeszcze go nie posiadasz zarejestruj się na platformie OpenAI, a następnie:

  • W razie zamówieenia projektu macOS / Linux: export OPENAI_API_KEY=[your api key]
  • W razie zamówieenia projektu Windows (jak wcześniej wspomniano): set OPENAI_API_KEY=[your api key]

6. Inicjalizacja projektu i generowanie kodu: Magia GPT-Engineera zaczyna się od main_prompt plik znaleziony w projects teczka.

  • Jeśli chcesz rozpocząć nowy projekt: cp -r projects/example/ projects/website

W tym miejscu zastąp „stronę internetową” wybraną nazwą projektu.

  • Edytuj main_prompt plik za pomocą wybranego edytora tekstu, zapisując wymagania projektu.

  • Gdy będziesz zadowolony z szybkiego uruchomienia: gpt-engineer projects/website

Wygenerowany kod będzie znajdować się w pliku workspace katalog w folderze projektu.

7. Post-generacja: Chociaż GPT-Engineer jest potężny, nie zawsze może być doskonały. Sprawdź wygenerowany kod, w razie potrzeby wprowadź ręczne zmiany i upewnij się, że wszystko działa płynnie.

Przykładowy bieg

zapyta:

„Chcę opracować podstawową aplikację Streamlit w języku Python, która wizualizuje dane użytkownika za pomocą interaktywnych wykresów. Aplikacja powinna umożliwiać użytkownikom przesłanie pliku CSV, wybór typu wykresu (np. słupkowy, kołowy, liniowy) i dynamiczną wizualizację danych. Może używać bibliotek takich jak Pandas do manipulacji danymi i Plotly do wizualizacji.
Konfigurowanie i uruchamianie Engineering-GPT

Konfigurowanie i uruchamianie GPT-Engineer

Podobnie jak Auto-GPT, GPT-Engineer może czasami napotkać błędy nawet po pełnej konfiguracji. Jednak przy trzeciej próbie udało mi się uzyskać dostęp do następującej, usprawnionej strony internetowej. Upewnij się, że sprawdziłeś wszelkie błędy u urzędnika Strona problemów repozytorium GPT-Engineer.

Aplikacja Streamlit wygenerowana przy użyciu Engineering-GPT

Aplikacja Streamlit wygenerowana przy użyciu GPT-Engineer

Aktualne wąskie gardła agentów AI

Koszty operacyjne

Pojedyncze zadanie wykonywane przez Auto-GPT może obejmować wiele kroków. Co ważne, każdy z tych kroków może być rozliczane indywidualnie, zwiększając koszty. Auto-GPT może zostać uwięziony w powtarzalnych pętlach i nie zapewnić obiecanych wyników. Takie zdarzenia podważają jego niezawodność i podważają inwestycję.

Wyobraź sobie, że chcesz napisać krótki esej za pomocą Auto-GPT. Idealna długość eseju to 8 tys. tokenów, ale podczas procesu tworzenia model przechodzi przez wiele etapów pośrednich, aby sfinalizować treść. Jeśli używasz GPT-4 z długością kontekstu 8k, wówczas za dane wejściowe zostanie naliczona opłata $0.03. A jeśli chodzi o wynik, koszt byłby taki $0.06. Załóżmy teraz, że model wpada w nieprzewidzianą pętlę, wielokrotnie powtarzając pewne części. Proces nie tylko staje się dłuższy, ale każde powtórzenie zwiększa koszty.

Aby się przed tym zabezpieczyć:

Ustaw limity użytkowania at Rozliczenia i limity OpenAI:

  • Twardy limit: Ogranicza użycie powyżej ustawionego progu.
  • Miękki limit: Wysyła powiadomienie e-mailem po osiągnięciu progu.

Ograniczenia funkcjonalności

Możliwości Auto-GPT, przedstawione w kodzie źródłowym, mają pewne granice. Jego strategie rozwiązywania problemów są regulowane przez jego wewnętrzne funkcje i dostępność zapewnianą przez API GPT-4. Aby uzyskać szczegółowe dyskusje i możliwe obejścia, odwiedź stronę: Dyskusja na temat automatycznego GPT.

Wpływ AI na rynek pracy

Dynamika między sztuczną inteligencją a rynkami pracy stale się zmienia, co zostało w tym dokumencie obszernie udokumentowane Referat naukowy. Najważniejszy wniosek jest taki, że chociaż postęp technologiczny często przynosi korzyści wykwalifikowanym pracownikom, stwarza ryzyko dla osób wykonujących rutynowe zadania. W rzeczywistości postęp technologiczny może wyprzeć niektóre zadania, ale jednocześnie utorować drogę różnorodnym, pracochłonnym zadaniom.

AI Agenci autonomiczni rynku pracy wyprzedzają

Szacuje się, że 80% amerykańskich pracowników może stwierdzić, że LLM (modele uczenia się języka) wpływają na około 10% ich codziennych zadań. Statystyka ta podkreśla połączenie sztucznej inteligencji i ról ludzkich.

Dwuaspektowa rola sztucznej inteligencji na rynku pracy:

  • Pozytywne aspekty: Sztuczna inteligencja może zautomatyzować wiele zadań, od obsługi klienta po doradztwo finansowe, dając wytchnienie małym przedsiębiorstwom, którym brakuje środków na dedykowane zespoły.
  • Obawy: dobrodziejstwo automatyzacji budzi zdziwienie w związku z potencjalną utratą miejsc pracy, szczególnie w sektorach, w których najważniejsze jest zaangażowanie człowieka, takich jak obsługa klienta. Do tego dochodzi labirynt etyczny związany z dostępem sztucznej inteligencji do poufnych danych. Wymaga to silnej infrastruktury zapewniającej przejrzystość, rozliczalność i etyczne wykorzystanie sztucznej inteligencji.

Wnioski

Bez wątpienia narzędzia takie jak ChatGPT, Auto-GPT i GPT-Engineer przodują w przekształcaniu interakcji pomiędzy technologią a jej użytkownikami. Mając swoje korzenie w rozwiązaniach typu open source, ci agenci sztucznej inteligencji manifestują możliwości autonomii maszyn, usprawniając zadania od planowania po tworzenie oprogramowania.

W miarę jak wkraczamy w przyszłość, w której sztuczna inteligencja będzie głębiej integrować się z naszą codzienną rutyną, kluczowa staje się równowaga między wykorzystaniem możliwości sztucznej inteligencji a ochroną ludzkich ról. W szerszym spektrum dynamika rynku pracy opartego na sztucznej inteligencji rysuje podwójny obraz możliwości i wyzwań związanych z rozwojem, wymagającym świadomej integracji etyki technologicznej i przejrzystości.

Ostatnie pięć lat spędziłem zanurzając się w fascynującym świecie uczenia maszynowego i głębokiego uczenia się. Moja pasja i wiedza sprawiły, że uczestniczyłem w ponad 50 różnorodnych projektach z zakresu inżynierii oprogramowania, ze szczególnym uwzględnieniem AI/ML. Moja ciągła ciekawość przyciągnęła mnie również w stronę przetwarzania języka naturalnego – dziedziny, którą chcę dalej zgłębiać.