부본 자동 GPT 및 GPT 엔지니어: 오늘날의 주요 AI 에이전트에 대한 심층 가이드 - Unite.AI
Rescale 미팅 예약

인공 지능

자동 GPT 및 GPT 엔지니어: 오늘날의 주요 AI 에이전트에 대한 심층 가이드

mm

게재

 on

ChatGPT를 Auto-GPT, GPT-Engineer 등 자율 AI 에이전트와 비교해 보면 의사 결정 과정에서 상당한 차이가 나타납니다. ChatGPT에서는 대화를 주도하고 사용자 프롬프트에 따라 지침을 제공하기 위해 적극적인 사람의 참여가 필요하지만 계획 프로세스는 주로 사람의 개입에 의존합니다.

제너레이티브 AI 트랜스포머와 같은 모델은 이러한 자율 AI 에이전트를 구동하는 최첨단 핵심 기술입니다. 이러한 변환기는 대규모 데이터 세트에 대해 훈련되어 복잡한 추론 및 의사 결정 기능을 시뮬레이션할 수 있습니다.

자율 에이전트의 오픈 소스 루트: 자동 GPT 및 GPT 엔지니어

이러한 자율 AI 에이전트 중 상당수는 기존 워크플로를 변화시키는 혁신적인 개인이 주도하는 오픈 소스 이니셔티브에서 비롯됩니다. Auto-GPT와 같은 에이전트는 단순히 제안만 제공하는 것이 아니라 온라인 쇼핑부터 기본 앱 구축까지 작업을 독립적으로 처리할 수 있습니다. OpenAI의 코드 해석기 업그레이드하는 것을 목표로 하고 있습니다 ChatGPT 단순히 아이디어를 제안하는 것에서 그 아이디어를 가지고 적극적으로 문제를 해결하는 것까지.

Auto-GPT와 GPT-Engineer는 모두 GPT 3.5 및 GPT-4의 성능을 갖추고 있습니다. 코드 로직을 파악하고 여러 파일을 결합하며 개발 프로세스를 가속화합니다.

Auto-GPT 기능의 핵심은 AI 에이전트에 있습니다. 이러한 에이전트는 일정 관리와 같은 일상적인 작업부터 전략적 의사 결정이 필요한 보다 복잡한 작업에 이르기까지 특정 작업을 실행하도록 프로그래밍되어 있습니다. 그러나 이러한 AI 에이전트는 사용자가 설정한 경계 내에서 작동합니다. API를 통해 액세스를 제어함으로써 사용자는 AI가 수행할 수 있는 작업의 깊이와 범위를 결정할 수 있습니다.

예를 들어 ChatGPT와 통합된 채팅 웹 앱을 만드는 작업을 맡은 경우 Auto-GPT는 목표를 HTML 프런트 엔드 생성 또는 Python 백엔드 스크립팅과 같은 실행 가능한 단계로 자율적으로 세분화합니다. 애플리케이션이 이러한 프롬프트를 자동으로 생성하는 동안 사용자는 계속해서 이를 모니터링하고 수정할 수 있습니다. AutoGPT 제작자가 보여준 것처럼 @SigGravitas, Python 기반으로 테스트 프로그램을 구축하고 실행할 수 있습니다.

아래 다이어그램은 Autonomous AI 에이전트의 보다 일반적인 아키텍처를 설명하지만, 이면의 프로세스에 대한 귀중한 통찰력을 제공합니다.

Autogpt, GPT 엔지니어와 같은 AI 에이전트 아키텍처

자율 AI 에이전트 아키텍처

이 프로세스는 OpenAI API 키를 확인하고 단기 메모리 및 데이터베이스 콘텐츠를 포함한 다양한 매개변수를 초기화하여 시작됩니다. 주요 데이터가 에이전트에 전달되면 모델은 GPT3.5/GPT4와 상호 작용하여 응답을 검색합니다. 그런 다음 이 응답은 JSON 형식으로 변환되며 에이전트는 이를 해석하여 온라인 검색 수행, 파일 읽기 또는 쓰기, 코드 실행과 같은 다양한 기능을 실행합니다. Auto-GPT는 사전 학습된 모델을 사용하여 이러한 응답을 데이터베이스에 저장하고 향후 상호 작용은 저장된 이 정보를 참조용으로 사용합니다. 작업이 완료된 것으로 간주될 때까지 루프가 계속됩니다.

Auto-GPT 및 GPT 엔지니어를 위한 설정 가이드

GPT-Engineer 및 Auto-GPT와 같은 최첨단 도구를 설정하면 개발 프로세스를 간소화할 수 있습니다. 다음은 두 도구를 모두 설치하고 구성하는 데 도움이 되는 체계적인 가이드입니다.

자동 GPT

Auto-GPT 설정은 복잡해 보일 수 있지만 올바른 단계를 따르면 간단해집니다. 이 가이드에서는 Auto-GPT를 설정하는 절차를 다루고 다양한 시나리오에 대한 통찰력을 제공합니다.

1. 전제 조건:

  1. 파이썬 환경: Python 3.8 이상이 설치되어 있는지 확인하세요. Python은 다음에서 얻을 수 있습니다. 공식 웹 사이트.
  2. 리포지토리를 복제하려면 다음을 설치하세요. 힘내.
  3. OpenAI API 키: OpenAI와 상호작용하기 위해서는 API Key가 필요합니다. 당신에게서 열쇠를 얻으세요 OpenAI 계정
개방형 AI API 키

개방형 AI API 키 생성

메모리 백엔드 옵션: 메모리 백엔드는 AutoGPT가 작업에 필요한 필수 데이터에 액세스하기 위한 저장 메커니즘 역할을 합니다. AutoGPT는 단기 및 장기 저장 기능을 모두 사용합니다. 솔방울, 밀버스, Redis, 기타 사용 가능한 옵션이 있습니다.

2. 작업 공간 설정:

  1. 가상 환경 생성: python3 -m venv myenv
  2. 환경을 활성화합니다:
    1. 맥OS 또는 리눅스: source myenv/bin/activate

3. 설치:

  1. Auto-GPT 저장소를 복제합니다(Git가 설치되어 있는지 확인). git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. 버전으로 작업하고 있는지 확인하려면 자동 GPT 0.2.2, 당신은 원할 것입니다 점검 특정 버전으로: git checkout stable-0.2.2
  3. 다운로드한 저장소로 이동합니다. cd Auto-GPT
  4. 필요한 종속성을 설치합니다. pip install -r requirements.txt

4. 구성 :

  1. 찾기 .env.template 메인에 /Auto-GPT 예배 규칙서. 복제하고 이름을 다음으로 바꿉니다. .env
  2. 엽니다 .env OpenAI API 키를 옆에 설정하세요. OPENAI_API_KEY=
  3. 마찬가지로 Pinecone 또는 기타 메모리 백엔드를 사용하려면 .env Pinecone API 키와 지역을 사용하여 파일을 작성하세요.

5. 명령줄 지침:

Auto-GPT는 동작을 맞춤설정하기 위한 다양한 명령줄 인수 세트를 제공합니다.

  • 일반 사용:
    • 도움말 표시: python -m autogpt --help
    • AI 설정 조정: python -m autogpt --ai-settings <filename>
    • 메모리 백엔드 지정: python -m autogpt --use-memory <memory-backend>
자동GPT CLI

CLI의 AutoGPT

6. 자동 GPT 실행:

구성이 완료되면 다음을 사용하여 Auto-GPT를 시작합니다.

  • 리눅스 또는 맥: ./run.sh start
  • Windows: .\run.bat

Docker 통합(권장되는 설정 접근 방식)

Auto-GPT를 컨테이너화하려는 사람들을 위해 Docker는 간소화된 접근 방식을 제공합니다. 그러나 Docker의 초기 설정은 약간 복잡할 수 있다는 점에 유의하세요. 인용하다 Docker 설치 가이드 지원.

OpenAI API 키를 수정하려면 아래 단계를 따르세요. Docker가 백그라운드에서 실행 중인지 확인하세요. 이제 AutoGPT의 기본 디렉터리로 이동하여 터미널에서 아래 단계를 따르세요.

  • Docker 이미지를 빌드합니다. docker build -t autogpt .
  • 이제 실행하세요: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

docker-compose를 사용하면 다음과 같습니다.

  • 운영: docker-compose run --build --rm auto-gpt
  • 보완적인 사용자 정의를 위해 추가 인수를 통합할 수 있습니다. 예를 들어 –gpt3only 및 –continuous를 모두 사용하여 실행하려면 다음을 수행합니다. docker-compose run --rm auto-gpt --gpt3only--continuous
  • Auto-GPT가 대규모 데이터 세트에서 콘텐츠를 생성하는 데 있어 광범위한 자율성을 고려하면 의도하지 않게 악성 웹 소스에 액세스할 위험이 있습니다.

위험을 완화하려면 Docker와 같은 가상 컨테이너 내에서 Auto-GPT를 운영하세요. 이렇게 하면 잠재적으로 유해한 콘텐츠가 가상 공간 내에 갇혀 외부 파일과 시스템이 손상되지 않은 상태로 유지됩니다. 또는 Windows Sandbox는 옵션이지만 각 세션 후에 재설정되어 상태를 유지하지 못합니다.

보안을 위해 항상 가상 환경에서 Auto-GPT를 실행하여 시스템이 예상치 못한 출력으로부터 보호되도록 하세요.

이 모든 것을 감안할 때 원하는 결과를 얻지 못할 가능성이 여전히 있습니다. 신고된 자동 GPT 사용자 반복되는 문제 파일에 쓰려고 할 때 문제가 있는 파일 이름으로 인해 시도가 실패하는 경우가 많습니다. 다음은 그러한 오류 중 하나입니다. Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

이를 해결하기 위한 다양한 솔루션이 관련 문서에서 논의되었습니다. GitHub 스레드 참조.

GPT-엔지니어

GPT-엔지니어 워크플로:

  1. 프롬프트 정의: 자연어를 사용하여 프로젝트에 대한 자세한 설명을 작성합니다.
  2. 코드 생성: 귀하의 메시지에 따라 GPT-Engineer는 작업에 착수하여 코드 조각, 기능 또는 전체 애플리케이션을 대량 생산합니다.
  3. 개선 및 최적화: 세대 이후에는 항상 개선의 여지가 있습니다. 개발자는 특정 요구 사항을 충족하도록 생성된 코드를 수정하여 최고의 품질을 보장할 수 있습니다.

GPT-Engineer 설정 과정을 따라하기 쉬운 가이드로 압축했습니다. 단계별 분석은 다음과 같습니다.

1. 환경 준비: 시작하기 전에 프로젝트 디렉터리가 준비되어 있는지 확인하세요. 터미널을 열고 아래 명령을 실행하십시오.

  • 'website'라는 새 디렉터리를 만듭니다. mkdir website
  • 디렉토리로 이동: cd website

2. 리포지토리를 복제합니다.  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. 종속성 탐색 및 설치: 복제되면 디렉터리로 전환합니다. cd gpt-engineer 필요한 모든 종속성을 설치합니다. make install

4. 가상 환경 활성화: 운영 체제에 따라 생성된 가상 환경을 활성화합니다.

  • 럭셔리 macOS / Linux: source venv/bin/activate
  • 럭셔리 Windows, API 키 설정으로 인해 약간 다릅니다. set OPENAI_API_KEY=[your api key]

5. 구성 – API 키 설정: OpenAI와 상호작용하려면 API 키가 필요합니다. 아직 OpenAI 플랫폼이 없다면 OpenAI 플랫폼에 등록한 후 다음을 수행하세요.

  • 럭셔리 macOS / Linux: export OPENAI_API_KEY=[your api key]
  • 럭셔리 Windows (앞서 언급 한 바와 같이): set OPENAI_API_KEY=[your api key]

6. 프로젝트 초기화 및 코드 생성: GPT-Engineer의 마법은 main_prompt 에서 찾은 파일 projects 폴더에 있습니다.

  • 새로운 프로젝트를 시작하고 싶다면: cp -r projects/example/ projects/website

여기에서 'website'를 선택한 프로젝트 이름으로 바꾸세요.

  • 편집 main_prompt 선택한 텍스트 편집기를 사용하여 파일을 작성하고 프로젝트 요구 사항을 기록합니다.

  • 프롬프트가 만족스러우면 다음을 실행하세요. gpt-engineer projects/website

생성된 코드는 다음 위치에 있습니다. workspace 프로젝트 폴더 내의 디렉터리입니다.

7. 후세대: GPT-Engineer는 강력하지만 항상 완벽하지는 않습니다. 생성된 코드를 검사하고 필요한 경우 수동으로 변경한 후 모든 것이 원활하게 실행되는지 확인하세요.

예제 실행

프롬프트 :

“저는 대화형 차트를 통해 사용자 데이터를 시각화하는 Python의 기본 Streamlit 앱을 개발하고 싶습니다. 앱에서는 사용자가 CSV 파일을 업로드하고 차트 유형(예: 막대, 원형, 선)을 선택하고 데이터를 동적으로 시각화할 수 있어야 합니다. 데이터 조작에는 Pandas, 시각화에는 Plotly와 같은 라이브러리를 사용할 수 있습니다.”
Engineering-GPT 설정 및 실행

GPT-Engineer 설정 및 실행

Auto-GPT와 마찬가지로 GPT-Engineer는 설정이 완료된 후에도 오류가 발생할 수 있습니다. 그러나 세 번째 시도에서 다음과 같은 스트림라이트 웹페이지에 성공적으로 액세스했습니다. 공식 홈페이지에서 오류가 있는지 확인하세요. GPT-Engineer 저장소의 문제 페이지.

Engineering-GPT를 사용하여 생성된 Streamlit 앱

GPT-Engineer를 사용하여 생성된 Streamlit 앱

AI 에이전트의 현재 병목 현상

운영 경비

Auto-GPT에서 실행되는 단일 작업에는 여러 단계가 포함될 수 있습니다. 중요한 것은 이러한 각 단계가 개별적으로 청구됨, 비용이 증가합니다. Auto-GPT는 반복적인 루프에 갇혀 약속된 결과를 제공하지 못할 수 있습니다. 이러한 일이 발생하면 신뢰성이 손상되고 투자가 훼손됩니다.

Auto-GPT를 사용하여 짧은 에세이를 만들고 싶다고 상상해 보세요. 에세이의 이상적인 길이는 8K 토큰이지만 작성 과정에서 모델은 콘텐츠를 마무리하기 위해 여러 중간 단계를 조사합니다. 4k 컨텍스트 길이의 GPT-8를 사용하고 입력에 대해 요금이 청구됩니다. $0.03. 그리고 출력의 경우 비용은 다음과 같습니다. $0.06. 이제 모델이 예상치 못한 루프에 빠져 특정 부분을 여러 번 다시 실행한다고 가정해 보겠습니다. 프로세스가 길어질 뿐만 아니라 반복할 때마다 비용도 추가됩니다.

이를 방지하려면 다음을 수행하십시오.

사용 제한 설정 at OpenAI 청구 및 한도:

  • 하드 한도: 설정된 임계값 이상으로 사용량을 제한합니다.
  • 소프트 한도: 임계값이 충족되면 이메일 알림을 보냅니다.

기능 제한

소스 코드에 설명된 대로 Auto-GPT의 기능에는 특정 경계가 있습니다. 문제 해결 전략은 GPT-4 API가 제공하는 고유 기능과 접근성에 따라 결정됩니다. 심층적인 토론과 가능한 해결 방법을 알아보려면 다음 사이트를 방문해 보세요. 자동 GPT 토론.

AI가 노동 시장에 미치는 영향

AI와 노동 시장 사이의 역학은 끊임없이 진화하고 있으며 이 문서에 광범위하게 기록되어 있습니다. 연구 논문. 중요한 점은 기술 발전이 숙련된 근로자에게 도움이 되는 경우가 많지만 일상적인 작업에 종사하는 근로자에게는 위험을 초래한다는 것입니다. 사실, 기술 발전은 특정 작업을 대체할 수 있지만 동시에 다양하고 노동 집약적인 작업의 길을 열어줄 수 있습니다.

AI 노동시장 자율 에이전트 추월

미국 근로자의 약 80%는 LLM(언어 학습 모델)이 일상 업무의 약 10%에 영향을 미친다는 것을 알게 될 것입니다. 이 통계는 AI와 인간 역할의 통합을 강조합니다.

인력에서 AI의 이중적인 역할:

  • 긍정적 인 측면: AI는 고객 서비스부터 재무 조언까지 다양한 작업을 자동화하여 전담 팀을 위한 자금이 부족한 중소기업에 구제 수단을 제공할 수 있습니다.
  • 우려 사항: 자동화의 이점은 특히 고객 지원과 같이 인간의 개입이 가장 중요한 분야에서 잠재적인 일자리 손실에 대해 눈살을 찌푸리게 합니다. 이와 함께 기밀 데이터에 접근하는 AI와 관련된 윤리적 미로가 있습니다. 이를 위해서는 AI의 투명성, 책임성, 윤리적 사용을 보장하는 강력한 인프라가 필요합니다.

결론

분명히 ChatGPT, Auto-GPT, GPT-Engineer와 같은 도구는 기술과 사용자 간의 상호 작용을 재편하는 선두에 서 있습니다. 오픈 소스 운동에 뿌리를 두고 있는 이러한 AI 에이전트는 기계 자율성의 가능성을 나타내어 일정 관리부터 소프트웨어 개발까지 작업을 간소화합니다.

AI가 일상 생활에 더 깊이 통합되는 미래를 향해 나아가면서 AI의 기능을 수용하는 것과 인간 역할을 보호하는 것 사이의 균형이 중요해졌습니다. 더 넓은 범위에서 AI-노동 시장의 역동성은 기술 윤리와 투명성의 의식적인 통합을 요구하면서 성장 기회와 과제에 대한 이중 이미지를 그립니다.

저는 지난 50년 동안 기계 학습과 딥 러닝의 매혹적인 세계에 몰두했습니다. 저의 열정과 전문 ​​지식은 특히 AI/ML에 중점을 둔 XNUMX개 이상의 다양한 소프트웨어 엔지니어링 프로젝트에 기여하도록 이끌었습니다. 나의 계속되는 호기심은 또한 내가 더 탐구하고 싶은 분야인 자연어 처리로 나를 이끌었습니다.