存根 Auto-GPT 和 GPT-Engineer:当今领先 AI 代理的深入指南 - Unite.AI
关注我们.

人工智能

Auto-GPT 和 GPT-Engineer:当今领先 AI 代理的深入指南

mm

发布时间

 on

将 ChatGPT 与 Auto-GPT 和 GPT-Engineer 等自主 AI 代理进行比较时,决策过程中出现了显着差异。 虽然 ChatGPT 需要人类积极参与来推动对话,根据用户提示提供指导,但规划过程主要依赖于人类干预。

生成式人工智能 像 Transformer 这样的模型是最先进的核心技术,驱动这些自主人工智能代理。 这些变压器经过大型数据集的训练,使它们能够模拟复杂的推理和决策能力。

自治代理的开源根源:Auto-GPT 和 GPT-Engineer

许多自主人工智能代理都源于由创新人士领导的开源计划,这些计划改变了传统的工作流程。 Auto-GPT 等代理不仅可以提供建议,还可以独立处理从在线购物到构建基本应用程序的任务。 OpenAI 的代码解释器 旨在升级 ChatGPT 从仅仅提出想法到积极利用这些想法解决问题。

Auto-GPT和GPT-Engineer都配备了GPT 3.5和GPT-4的强大功能。 它掌握代码逻辑,组合多个文件,并加速开发过程。

Auto-GPT 功能的关键在于其人工智能代理。 这些代理被编程来执行特定的任务,从调度等普通任务到需要战略决策的更复杂的任务。 然而,这些人工智能代理在用户设定的边界内运行。 通过 API 控制访问,用户可以确定人工智能可以执行的操作的深度和范围。

例如,如果负责创建与 ChatGPT 集成的聊天 Web 应用程序,Auto-GPT 会自动将目标分解为可操作的步骤,例如创建 HTML 前端或编写 Python 后端脚本。 当应用程序自动生成这些提示时,用户仍然可以监视和修改它们。 正如 AutoGPT 的创建者所示 @SigGravitas,它能够构建并执行基于Python的测试程序。

虽然下图描述了自主人工智能代理的更通用的架构,但它提供了对幕后流程的宝贵见解。

AI Agent 架构如 Autogpt,GPT 工程师

自主人工智能代理架构

该过程是通过验证 OpenAI API 密钥并初始化各种参数(包括短期内存和数据库内容)来启动的。 一旦关键数据传递给代理,模型就会与 GPT3.5/GPT4 交互以检索响应。 然后,该响应被转换为 JSON 格式,代理解释该格式以执行各种功能,例如进行在线搜索、读取或写入文件,甚至运行代码。 Auto-GPT 采用预先训练的模型将这些响应存储在数据库中,未来的交互将使用这些存储的信息作为参考。 循环继续,直到任务被认为完成。

Auto-GPT 和 GPT-Engineer 设置指南

设置 GPT-Engineer 和 Auto-GPT 等尖端工具可以简化您的开发流程。 以下是帮助您安装和配置这两个工具的结构化指南。

自动GPT

设置 Auto-GPT 可能看起来很复杂,但通过正确的步骤,它会变得简单。 本指南介绍了设置 Auto-GPT 的过程,并提供了对其不同场景的见解。

1. 先决条件:

  1. Python 环境:确保安装了Python 3.8或更高版本。 您可以从其获取Python 官方网站.
  2. 如果您打算克隆存储库,请安装 混帐.
  3. OpenAI API 密钥:要与 OpenAI 交互,需要 API 密钥。 从您那里获取钥匙 OpenAI账户
开放AI API密钥

开放 AI API 密钥生成

内存后端选项:内存后端充当 AutoGPT 的存储机制,用于访问其操作的基本数据。 AutoGPT 采用短期和长期存储功能。 松球, 米尔武斯, Redis的,以及其他一些可用的选项。

2. 设置您的工作区:

  1. 创建虚拟环境: python3 -m venv myenv
  2. 激活环境:
    1. MacOS 或 Linux: source myenv/bin/activate

3。 安装:

  1. 克隆 Auto-GPT 存储库(确保已安装 Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. 确保您正在使用版本 自动 GPT 0.2.2, 你会想要 结帐 到该特定版本: git checkout stable-0.2.2
  3. 导航到下载的存储库: cd Auto-GPT
  4. 安装所需的依赖项: pip install -r requirements.txt

4.配置:

  1. 定位 .env.template 在主要 /Auto-GPT 目录。 复制并重命名为 .env
  2. 可选 .env 并在旁边设置您的 OpenAI API 密钥 OPENAI_API_KEY=
  3. 类似地,要使用 Pinecone 或其他内存后端更新 .env 包含您的 Pinecone API 密钥和区域的文件。

5. 命令行说明:

Auto-GPT 提供了一组丰富的命令行参数来自定义其行为:

  • 一般用法:
    • 显示帮助: python -m autogpt --help
    • 调整人工智能设置: python -m autogpt --ai-settings <filename>
    • 指定内存后端: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

CLI 中的 AutoGPT

6.启动自动GPT:

配置完成后,使用以下命令启动 Auto-GPT:

  • Linux 或 Mac: ./run.sh start
  • Windows: .\run.bat

Docker 集成(推荐设置方法)

对于那些希望将 Auto-GPT 容器化的人来说,Docker 提供了一种简化的方法。 但是,请注意 Docker 的初始设置可能有点复杂。 参考 Docker的安装指南 寻求帮助。

请按照以下步骤修改 OpenAI API 密钥。 确保 Docker 在后台运行。 现在转到 AutoGPT 的主目录并在终端上执行以下步骤

  • 构建 Docker 镜像: docker build -t autogpt .
  • 现在运行: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

使用 docker-compose:

  • 跑: docker-compose run --build --rm auto-gpt
  • 对于补充自定义,您可以集成其他参数。 例如,要同时使用 –gpt3only 和 –continuous 运行: docker-compose run --rm auto-gpt --gpt3only--continuous
  • 鉴于 Auto-GPT 在从大型数据集生成内容方面拥有广泛的自主权,因此存在无意访问恶意网络源的潜在风险。

为了降低风险,请在虚拟容器(例如 Docker)中运行 Auto-GPT。 这可确保任何潜在有害内容都限制在虚拟空间内,从而使您的外部文件和系统不受影响。 或者,Windows Sandbox 是一个选项,但它会在每次会话后重置,无法保留其状态。

为了安全起见,请始终在虚拟环境中执行 Auto-GPT,以确保您的系统免受意外输出的影响。

鉴于这一切,您仍然有可能无法获得您想要的结果。 报告的自动 GPT 用户 反复出现的问题 当尝试写入文件时,经常会遇到由于文件名有问题而导致尝试失败的情况。 这是一个这样的错误: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

相关的相关讨论了解决此问题的各种解决方案 GitHub线程 以供参考。

GPT-工程师

GPT-工程师工作流程:

  1. 提示定义:使用自然语言详细描述您的项目。
  2. 代码生成:根据您的提示,GPT-Engineer 开始工作,生成代码片段、函数,甚至完整的应用程序。
  3. 细化和优化: 一代之后,总是有改进的空间。 开发人员可以修改生成的代码以满足特定要求,确保一流的质量。

设置 GPT-Engineer 的过程已被浓缩为易于遵循的指南。 以下是逐步细分:

1. 准备环境: 在开始之前,请确保您已准备好项目目录。 打开终端并运行以下命令

  • 创建一个名为“网站”的新目录: mkdir website
  • 移动到目录: cd website

2. 克隆存储库:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. 导航并安装依赖项: 克隆后,切换到目录 cd gpt-engineer 并安装所有必要的依赖项 make install

4.激活虚拟环境: 根据您的操作系统,激活创建的虚拟环境。

  • 针对 macOS / Linux: source venv/bin/activate
  • 针对 Windows,由于 API 密钥设置而略有不同: set OPENAI_API_KEY=[your api key]

5. 配置 – API 密钥设置: 要与 OpenAI 交互,您需要 API 密钥。 如果您还没有,请在 OpenAI 平台上注册,然后:

  • 针对 macOS / Linux: export OPENAI_API_KEY=[your api key]
  • 针对 Windows (如前面提到的): set OPENAI_API_KEY=[your api key]

6. 项目初始化和代码生成: GPT-Engineer 的魔力始于 main_prompt 文件中找到 projects 文件夹中。

  • 如果您想开始一个新项目: cp -r projects/example/ projects/website

在这里,将“网站”替换为您选择的项目名称。

  • 编辑 main_prompt 使用您选择的文本编辑器创建文件,记下项目的要求。

  • 一旦您对提示符感到满意,请运行: gpt-engineer projects/website

您生成的代码将驻留在 workspace 项目文件夹中的目录。

7. 后一代: 虽然 GPT-Engineer 功能强大,但它可能并不总是完美的。 检查生成的代码,根据需要进行任何手动更改,并确保一切顺利运行。

示例运行

提示:

“我想用 Python 开发一个基本的 Streamlit 应用程序,通过交互式图表可视化用户数据。 该应用程序应允许用户上传 CSV 文件、选择图表类型(例如条形图、饼图、折线图)并动态可视化数据。 它可以使用 Pandas 等库进行数据操作,使用 Plotly 等库进行可视化。”
设置和运行工程-GPT

设置并运行 GPT-Engineer

与 Auto-GPT 非常相似,GPT-Engineer 即使在完成设置后有时也会遇到错误。 然而,在第三次尝试时,我成功访问了以下精简版网页。 确保您检查官方的任何错误 GPT-Engineer 存储库的问题页面.

使用 Engineering-GPT 生成的 Streamlit 应用程序

使用 GPT-Engineer 生成的 Streamlit 应用程序

当前人工智能代理的瓶颈

经营费用

Auto-GPT 执行的单个任务可能涉及多个步骤。 重要的是,每个步骤都可以 单独计费,增加成本。 自动 GPT 可能会陷入重复循环,无法提供承诺的结果。 此类事件会损害其可靠性并损害投资。

想象一下想要使用 Auto-GPT 创建一篇短文。 论文的理想长度是 8K 令牌,但在创建过程中,模型会深入研究多个中间步骤来最终确定内容。 如果您使用上下文长度为 4k 的 GPT-8,则对于输入,您将需要付费 $0.03。 对于输出,成本为 $0.06。 现在,假设模型遇到了不可预见的循环,多次重做某些部分。 不仅流程变得更长,而且每次重复也会增加成本。

为了防止这种情况:

设置使用限制 at OpenAI 计费和限制:

  • 硬限制:限制使用超出您设定的阈值。
  • 软极限:一旦达到阈值,就会向您发送电子邮件警报。

功能限制

正如其源代码中所述,Auto-GPT 的功能有一定的界限。 其解决问题的策略由其内在功能和 GPT-4 API 提供的可访问性决定。 如需深入讨论和可能的解决方法,请考虑访问: 自动 GPT 讨论.

人工智能对劳动力市场的影响

人工智能和劳动力市场之间的动态不断变化,并在本报告中得到了广泛记录 研究报告。 一个关键的结论是,虽然技术进步通常有利于熟练工人,但它给从事日常任务的人带来了风险。 事实上,技术进步可能会取代某些任务,但同时为多样化的劳动密集型任务铺平了道路。

人工智能劳动力市场自主代理超越

据估计,80% 的美国工人可能会发现 LLM(语言学习模型)影响他们大约 10% 的日常任务。 这一统计数据强调了人工智能和人类角色的融合。

人工智能在劳动力中的双重作用:

  • 积极的方面:人工智能可以自动执行大量任务,从客户服务到财务建议,为缺乏专业团队资金的小型企业提供了喘息的机会。
  • 关注:自动化的好处引起了人们对潜在失业的担忧,特别是在人类参与至关重要的领域,例如客户支持。 除此之外,还有与人工智能访问机密数据相关的道德迷宫。 这就需要强大的基础设施来确保人工智能的透明度、问责制和道德使用。

结论

显然,ChatGPT、Auto-GPT 和 GPT-Engineer 等工具处于重塑技术与其用户之间交互的最前沿。 这些人工智能代理植根于开源运动,体现了机器自治的可能性,简化了从调度到软件开发的任务。

随着我们进入人工智能更深入地融入我们日常生活的未来,拥抱人工智能的能力和保护人类角色之间的平衡变得至关重要。 从更广泛的角度来看,人工智能劳动力市场的动态描绘了增长机遇和挑战的双重形象,要求有意识地整合技术道德和透明度。

在过去的五年里,我一直沉浸在机器学习和深度学习的迷人世界中。 我的热情和专业知识使我为 50 多个不同的软件工程项目做出了贡献,特别关注人工智能/机器学习。 我持续的好奇心也吸引了我对自然语言处理的兴趣,这是我渴望进一步探索的领域。