时隔一年,再次讨论下AutoGPT-安装篇

AutoGPT是23年3月份推出的,距今已经1年多的时间了。刚推出时,我们还只能通过命令行使用AutoGPT的能力,但现在,我们不仅可以基于AutoGPT创建自己的Agent,我们还可以通过Web页面与我们创建的Agent进行聊天。这次的AutoGPT讨论可以分为两篇,第一篇,也就是现在这篇,主要是介绍Web版AutoGPT的安装教程(官方教程写的不太详细);第二篇,会介绍一下当前AutoGPT的技术架构,以及部分代码解读。

官方教程

官方给出了两种安装方式,第一种是基于源码进行安装,这种方式需要安装多个依赖,稍微复杂些;第二种是基于docker安装,不需要配置额外的依赖,使用起来简单一些,但是只能通过终端命令行的方式进行访问,无法使用Web页面🤔️。
官方教程详见:https://docs.agpt.co/autogpt/setup/

详细安装教程(以macOS系统为例)

前置依赖安装

AutoGPT项目由于支持执行Python代码,处于安全考虑,这个系统为每个Agent都创建了一个独立的虚拟环境,这套虚拟环境的管理就是通过Poetry实现的,关于Poetry的详细介绍,可见https://python-poetry.org/。
如果我们参考AutoGPT官方的安装文档,要安装Poetry,我们需要先安装brew(环境问题,官官方镜像经常链接不稳定)、pipx,然后再通过pipx安装poetry,流程较为复杂,且容易失败。其实,我们可以直接通过如下命令直接安装
这种方式更加简单易行。
如果这种方式安装不成功,或者还是想通过pipx安装,那可参考https://mirrors.tuna.tsinghua.edu.cn/help/homebrew/,这个是清华镜像站给出的Homebrew安装教程,稳定可行(Home-brew官方教程很容易因网络原因导致安装失败)。然后再参考pipx安装教程安装pipx,最后再安装poetry。

项目依赖安装

首先,我们需要把autoGPT这个项目的源代码下载到本地,在这个阶段,官方文档里一直推荐我们先fork这个项目,然后再把fork后的项目克隆到本地。其实,如果我们只是想运行这个项目的话,不需要fork,直接克隆官方项目就可以,可以使用命令行的方式,如
也可以使用Pycharm的get from vcs克隆,其原理都是一样的。
将项目下载到本地后,需要进入到当前工程的目录下运行下面的命令安装相关依赖。
注意!!!!!,如果本地是使用conda管理的环境,在运行下面命令时,不要在自己已使用的环境中启动,该命令会删除当前python环境🥲。幸好当时我是新创建的环境。

工程配置&&启动

在启动Agent之前,我们还需要配置下相关文件,主要是openAI的key。如果是autogpt自己提供的Agent,则需要修改下autogpts/autogpt/.env.template这个文件,首先把文件重命名为.env,然后配置下key的值就可以了。如果使用的非官方API,而是第三方中转的,那除了配置key,还需要配置下API地址。具体示例如下:主要配置下OPENAI_API_KEY(中转key)和OPENAI_API_BASE_URL(中转地址)就可以,其他的按需配置即可。

################################################################################
### AutoGPT - GENERAL SETTINGS
################################################################################## OPENAI_API_KEY - OpenAI API Key (Example: my-openai-api-key)
OPENAI_API_KEY=sk-m91Ug6HhWgQhk9w4573212345678990## TELEMETRY_OPT_IN - Share telemetry on errors and other issues with the AutoGPT team, e.g. through Sentry.
##   This helps us to spot and solve problems earlier & faster. (Default: DISABLED)
# TELEMETRY_OPT_IN=true## EXECUTE_LOCAL_COMMANDS - Allow local command execution (Default: False)
EXECUTE_LOCAL_COMMANDS=True### Workspace ##### RESTRICT_TO_WORKSPACE - Restrict file operations to workspace ./data/agents/<agent_id>/workspace (Default: True)
# RESTRICT_TO_WORKSPACE=True## DISABLED_COMMAND_CATEGORIES - The list of categories of commands that are disabled (Default: None)
# DISABLED_COMMAND_CATEGORIES=## FILE_STORAGE_BACKEND - Choose a storage backend for contents
## Options: local, gcs, s3
FILE_STORAGE_BACKEND=local## STORAGE_BUCKET - GCS/S3 Bucket to store contents in
# STORAGE_BUCKET=autogpt## GCS Credentials
# see https://cloud.google.com/storage/docs/authentication#libauth## AWS/S3 Credentials
# see https://boto3.amazonaws.com/v1/documentation/api/latest/guide/configuration.html## S3_ENDPOINT_URL - If you're using non-AWS S3, set your endpoint here.
# S3_ENDPOINT_URL=### Miscellaneous ##### USER_AGENT - Define the user-agent used by the requests library to browse website (string)
USER_AGENT="Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36"## AI_SETTINGS_FILE - Specifies which AI Settings file to use, relative to the AutoGPT root directory. (defaults to ai_settings.yaml)
# AI_SETTINGS_FILE=ai_settings.yaml## PLUGINS_CONFIG_FILE - The path to the plugins_config.yaml file, relative to the AutoGPT root directory. (Default plugins_config.yaml)
# PLUGINS_CONFIG_FILE=plugins_config.yaml## PROMPT_SETTINGS_FILE - Specifies which Prompt Settings file to use, relative to the AutoGPT root directory. (defaults to prompt_settings.yaml)
# PROMPT_SETTINGS_FILE=prompt_settings.yaml## AUTHORISE COMMAND KEY - Key to authorise commands
# AUTHORISE_COMMAND_KEY=y## EXIT_KEY - Key to exit AutoGPT
# EXIT_KEY=n################################################################################
### LLM PROVIDER
################################################################################## TEMPERATURE - Sets temperature in OpenAI (Default: 0)
# TEMPERATURE=0## OPENAI_API_BASE_URL - Custom url for the OpenAI API, useful for connecting to custom backends. No effect if USE_AZURE is true, leave blank to keep the default url
# the following is an example:
OPENAI_API_BASE_URL=https://example.com/v1# OPENAI_API_TYPE=
# OPENAI_API_VERSION=## OPENAI_FUNCTIONS - Enables OpenAI functions: https://platform.openai.com/docs/guides/gpt/function-calling
## Note: this feature is only supported by OpenAI's newer models.
# OPENAI_FUNCTIONS=False## OPENAI_ORGANIZATION - Your OpenAI Organization key (Default: None)
# OPENAI_ORGANIZATION=## USE_AZURE - Use Azure OpenAI or not (Default: False)
# USE_AZURE=False## AZURE_CONFIG_FILE - The path to the azure.yaml file, relative to the folder containing this file. (Default: azure.yaml)
# AZURE_CONFIG_FILE=azure.yaml# AZURE_OPENAI_AD_TOKEN=
# AZURE_OPENAI_ENDPOINT=################################################################################
### LLM MODELS
################################################################################## SMART_LLM - Smart language model (Default: gpt-4-turbo-preview)
SMART_LLM=gpt-3.5-turbo-0125## FAST_LLM - Fast language model (Default: gpt-3.5-turbo-0125)
FAST_LLM=gpt-3.5-turbo-0125## EMBEDDING_MODEL - Model to use for creating embeddings
EMBEDDING_MODEL=text-embedding-3-small################################################################################
### SHELL EXECUTION
################################################################################## SHELL_COMMAND_CONTROL - Whether to use "allowlist" or "denylist" to determine what shell commands can be executed (Default: denylist)
# SHELL_COMMAND_CONTROL=denylist## ONLY if SHELL_COMMAND_CONTROL is set to denylist:
## SHELL_DENYLIST - List of shell commands that ARE NOT allowed to be executed by AutoGPT (Default: sudo,su)
# SHELL_DENYLIST=sudo,su## ONLY if SHELL_COMMAND_CONTROL is set to allowlist:
## SHELL_ALLOWLIST - List of shell commands that ARE allowed to be executed by AutoGPT (Default: None)
# SHELL_ALLOWLIST=################################################################################
### IMAGE GENERATION PROVIDER
################################################################################### Common## IMAGE_PROVIDER - Image provider (Default: dalle)
# IMAGE_PROVIDER=dalle## IMAGE_SIZE - Image size (Default: 256)
# IMAGE_SIZE=256### Huggingface (IMAGE_PROVIDER=huggingface)## HUGGINGFACE_IMAGE_MODEL - Text-to-image model from Huggingface (Default: CompVis/stable-diffusion-v1-4)
# HUGGINGFACE_IMAGE_MODEL=CompVis/stable-diffusion-v1-4## HUGGINGFACE_API_TOKEN - HuggingFace API token (Default: None)
# HUGGINGFACE_API_TOKEN=### Stable Diffusion (IMAGE_PROVIDER=sdwebui)## SD_WEBUI_AUTH - Stable Diffusion Web UI username:password pair (Default: None)
# SD_WEBUI_AUTH=## SD_WEBUI_URL - Stable Diffusion Web UI API URL (Default: http://localhost:7860)
# SD_WEBUI_URL=http://localhost:7860################################################################################
### AUDIO TO TEXT PROVIDER
################################################################################## AUDIO_TO_TEXT_PROVIDER - Audio-to-text provider (Default: huggingface)
# AUDIO_TO_TEXT_PROVIDER=huggingface## HUGGINGFACE_AUDIO_TO_TEXT_MODEL - The model for HuggingFace to use (Default: CompVis/stable-diffusion-v1-4)
# HUGGINGFACE_AUDIO_TO_TEXT_MODEL=CompVis/stable-diffusion-v1-4################################################################################
### GITHUB
################################################################################## GITHUB_API_KEY - Github API key / PAT (Default: None)
# GITHUB_API_KEY=## GITHUB_USERNAME - Github username (Default: None)
# GITHUB_USERNAME=################################################################################
### WEB BROWSING
################################################################################## HEADLESS_BROWSER - Whether to run the browser in headless mode (default: True)
# HEADLESS_BROWSER=True## USE_WEB_BROWSER - Sets the web-browser driver to use with selenium (default: chrome)
# USE_WEB_BROWSER=chrome## BROWSE_CHUNK_MAX_LENGTH - When browsing website, define the length of chunks to summarize (Default: 3000)
# BROWSE_CHUNK_MAX_LENGTH=3000## BROWSE_SPACY_LANGUAGE_MODEL - spaCy language model](https://spacy.io/usage/models) to use when creating chunks. (Default: en_core_web_sm)
# BROWSE_SPACY_LANGUAGE_MODEL=en_core_web_sm## GOOGLE_API_KEY - Google API key (Default: None)
# GOOGLE_API_KEY=## GOOGLE_CUSTOM_SEARCH_ENGINE_ID - Google custom search engine ID (Default: None)
# GOOGLE_CUSTOM_SEARCH_ENGINE_ID=################################################################################
### TEXT TO SPEECH PROVIDER
################################################################################## TEXT_TO_SPEECH_PROVIDER - Which Text to Speech provider to use (Default: gtts)
## Options: gtts, streamelements, elevenlabs, macos
# TEXT_TO_SPEECH_PROVIDER=gtts## STREAMELEMENTS_VOICE - Voice to use for StreamElements (Default: Brian)
# STREAMELEMENTS_VOICE=Brian## ELEVENLABS_API_KEY - Eleven Labs API key (Default: None)
# ELEVENLABS_API_KEY=## ELEVENLABS_VOICE_ID - Eleven Labs voice ID (Example: None)
# ELEVENLABS_VOICE_ID=################################################################################
### CHAT MESSAGES
################################################################################## CHAT_MESSAGES_ENABLED - Enable chat messages (Default: False)
# CHAT_MESSAGES_ENABLED=False################################################################################
### LOGGING
################################################################################## LOG_LEVEL - Set the minimum level to filter log output by. Setting this to DEBUG implies LOG_FORMAT=debug, unless LOG_FORMAT is set explicitly.
## Options: DEBUG, INFO, WARNING, ERROR, CRITICAL
# LOG_LEVEL=INFO## LOG_FORMAT - The format in which to log messages to the console (and log files).
## Options: simple, debug, structured_google_cloud
# LOG_FORMAT=simple## LOG_FILE_FORMAT - Normally follows the LOG_FORMAT setting, but can be set separately.
## Note: Log file output is disabled if LOG_FORMAT=structured_google_cloud.
# LOG_FILE_FORMAT=simple## PLAIN_OUTPUT - Disables animated typing and the spinner in the console output. (Default: False)
# PLAIN_OUTPUT=False################################################################################
### Agent Protocol Server Settings
################################################################################
## AP_SERVER_PORT - Specifies what port the agent protocol server will listen on. (Default: 8000)
## AP_SERVER_DB_URL - Specifies what connection url the agent protocol database will connect to (Default: Internal SQLite)
## AP_SERVER_CORS_ALLOWED_ORIGINS - Comma separated list of allowed origins for CORS. (Default: http://localhost:{AP_SERVER_PORT})
# AP_SERVER_PORT=8000
# AP_SERVER_DB_URL=sqlite:///data/ap_server.db
# AP_SERVER_CORS_ALLOWED_ORIGINS=

最后,我们使用./run agent start autogpt即可启动官方提供的Agent,如果想使用自己创建的Agent,可以运行./run agent start your_agent_name就可以了,即把命令行中的autogpt替换成你创建的Agent名称即可,启动成功后,即可通过http://localhost:8000/进行访问。

使用示例

启动成功后,我们肯定很想试试这个Agent的效果如何,这里我给出了一个示例,让官方的Agent帮我推荐下居住在北京的话,明天应该穿什么。要回答这个问题,Agent首先要知道今天的日期,然后推算出明天的日期,然后查询北京明天的天气,最后给出穿衣建议。实际的Agent响应结果我截图放在下面了,大家感兴趣可以看下,在这个Agent中,为了省钱,我使用的是GPT-3.5-turbo这个模型,如果换成GPT4的话,效果应该会更好。
在这里插入图片描述

当前使用3.5的模型,在分析处理过程中,Agent体现出了一定的智能性,比如遇到异常时,Agent会自己思考并更换同类工具,在这个过程中,Agent成功的获取到了当前时间和明天北京的天气,但是不巧的事,到最后一步穿衣建议时,智能体出现了差错,只给出了一个问题的描述,而没有给出具体的内容。

后记

以当前的例子看,3.5版本的autoGPT还是难堪大用的。后续,我会使用GPT4的模型继续尝试让Agent解决问题,同时,也会从源码层面介绍下AutoGPT的技术实现,希望大家关注下😄😄

参考资料

  1. AutoGPT https://docs.agpt.co/autogpt/setup/
  2. https://ken.io/note/macos-homebrew-install-and-configuration
  3. https://zhuanlan.zhihu.com/p/536626536
  4. https://aiedge.medium.com/autogpt-forge-a-comprehensive-guide-to-your-first-steps-a1dfdf46e3b4
  5. https://pipx.pypa.io/stable/installation/
  6. https://aiedge.medium.com/autogpt-forge-e3de53cc58ec

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/311555.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

conda新建环境报错An HTTP error occurred when trying to retrieve this URL.

conda新建环境报错如下 cat .condarc #将 .condarc文件中的内容删除&#xff0c;改成下面的内容 vi .condarc channels:- defaults show_channel_urls: true default_channels:- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main- https://mirrors.tuna.tsinghua.…

2024年认证杯SPSSPRO杯数学建模D题(第一阶段)AI绘画带来的挑战全过程文档及程序

2024年认证杯SPSSPRO杯数学建模 D题 AI绘画带来的挑战 原题再现&#xff1a; 2023 年开年&#xff0c;ChatGPT 作为一款聊天型 AI 工具&#xff0c;成为了超越疫情的热门词条&#xff1b;而在 AI 的另一个分支——绘图领域&#xff0c;一款名为 Midjourney&#xff08;MJ&…

【教程】cocos2dx资源加密混淆方案详解

1,加密,采用blowfish或其他 2,自定是32个字符的混淆code 3,对文件做blowfish加密,入口文件加密前将混淆code按约定格式(自定义的文件头或文件尾部)写入到文件 4,遍历资源目录,对每个文件做md5混淆,混淆原始串“相对路径”“文件名”混淆code, 文件改名并且移动到资源目录根…

【Entity Framework】你必须要了解EF中数据查询之数据加载

【Entity Framework】你必须要了解EF中数据查询之数据加载 文章目录 【Entity Framework】你必须要了解EF中数据查询之数据加载一、概述二、预先加载2.1 包含多个层级2.2 经过筛选的包含 三、显示加载3.1查询关联实体 四、延时加载4.1 不使用代理进行延迟加载 一、概述 Entity…

电脑网络一切正常但无法上网-注意检查代理

当电脑出现无法上网&#xff0c; 但是网络适配器又一切正常的时候&#xff0c; 不妨检查一下网络代理设置&#xff0c; 看是否处于开启状态。如果是开启状态&#xff0c; 关闭后再次尝试。 代理服务器自动设置成开启状态&#xff0c; 并且代理地址服务器地址设置成127.0.0.1:1…

提升测试效率都有哪些具体手段?

&#x1f525; 交流讨论&#xff1a;欢迎加入我们一起学习&#xff01; &#x1f525; 资源分享&#xff1a;耗时200小时精选的「软件测试」资料包 &#x1f525; 教程推荐&#xff1a;火遍全网的《软件测试》教程 &#x1f4e2;欢迎点赞 &#x1f44d; 收藏 ⭐留言 &#x1…

OVITO-2.9版本

关注 M r . m a t e r i a l , \color{Violet} \rm Mr.material\ , Mr.material , 更 \color{red}{更} 更 多 \color{blue}{多} 多 精 \color{orange}{精} 精 彩 \color{green}{彩} 彩&#xff01; 主要专栏内容包括&#xff1a; †《LAMMPS小技巧》&#xff1a; ‾ \textbf…

Matlab|电价型负荷需求响应(考虑电价变化)

程序复现来源于《计及需求响应消纳风电的电-热综合能源系统经济调度 》第四章内容。 一、原理 需求响应的基本原理是需求侧根据电力市场价格和电网要求改变其负荷需求以 获取一定的利益回报。其中 PDR 可通过直观的电价变化信号引导用户调节用电方式&#xff0c; 从而达到优…

JVM结构化体系

目录 目录 1.JVM 简介 1.1. 如何理解 JVM 呢&#xff1f; 1.2. 市场主流 JVM 分析&#xff1f; 1.3. 为什么要学习 JVM&#xff1f; 1.4. 字节码底层是如何执行呢&#xff1f; 如何理解 JIT 呢&#xff1f; 为什么 JVM 中解释执行与编译执行的并存&#xff08;混合模式&…

JavaScript 高性能编程 —— 加载和运行

JavaScript 在浏览器中的性能,可认为是开发者所要面对的最重要的可用性问题。此问题因 JavaScript 的阻塞特征而复杂,也就是说,当 JavaScript 运行时其他的事情不能被浏览器处理。 事实上,大多数浏览 器使用单进程处理 UI 更新和 JavaScript 运行等多个任务,而同一时间只能…

ADB的基本语法及常用命令

学习网址 ADB命令的基本语法如下&#xff1a; adb [-d|-e|-s <serialNumber>] <command> 如果有多个设备/模拟器连接&#xff0c;则需要为命令指定目标设备。 参数及含义如下&#xff1a; 常用命令如下&#xff1a; 1. 启动ADB服务 adb start-server 2. 停止…

OpenHarmony实战开发-Worker子线程中解压文件。

介绍 本示例介绍在Worker 子线程使用ohos.zlib 提供的zlib.decompressfile接口对沙箱目录中的压缩文件进行解压操作&#xff0c;解压成功后将解压路径返回主线程&#xff0c;获取解压文件列表。 效果图预览 使用说明 1.点击解压按钮&#xff0c;解压test.zip文件&#xff0c…

Spring底层如何执行?

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 Spring底层如何执行refresh()prepareRefresh() 准备刷新的工作initPropertySources() obtainFreshBeanFactory()refreshBeanFactory()AbstractRefreshableApplicati…

【ensp】VLAN间通信的解决办法

目录 VLAN间通信简介 VLAN间通信的两种方式 借助三层设备路由器进行VLAN间的通信&#xff08;也就是单臂路由&#xff09; 在端口上创建子接口之后为什么需要开启arp广播&#xff0c;是因为他是子接口吗? 拓扑图 交换机配置 路由器配置 查看路由器配置 测试能否实现…

Element-Ui的Form表单:Label文本两端对齐,且必填项的*不影响布局

1. HTML 结构 首先&#xff0c;确保你的 HTML 或 Vue 模板中有一个 el-form 组件&#xff0c;类似下面这样&#xff1a; <div id"app"><el-form :model"form" label-width"100px"><el-form-item label"用户名">&l…

基于springboot的医护人员排班系统

随着信息技术在管理上越来越深入而广泛的应用&#xff0c;管理信息系统的实施在技术上已逐步成熟。本文介绍了医护人员排班系统的开发全过程。通过分析医护人员排班系统管理的不足&#xff0c;创建了一个计算机管理医护人员排班系统的方案。文章介绍了医护人员排班系统的系统分…

更改ip地址的几种方式有哪些

在数字化时代&#xff0c;IP地址作为网络设备的标识&#xff0c;对于我们在网络世界中的活动至关重要。然而&#xff0c;出于多种原因&#xff0c;如保护隐私、访问特定网站或进行网络测试&#xff0c;我们可能需要更改IP地址。虎观代理将详细介绍IP地址的更改方法与步骤&#…

【JavaSE】你真的了解内部类吗?

前言 本篇会详细讲解内部类的四种形式&#xff0c;让你掌握内部类~ 欢迎关注个人主页&#xff1a;逸狼 创造不易&#xff0c;可以点点赞吗~ 如有错误&#xff0c;欢迎指出~ 目录 前言 内部类介绍 实例内部类 定义 调用 静态内部类 定义 调用 匿名内部类 定义和调用1 调用方法2 …

预分频器×重装载值)/LSI频率 为什么等于总时间

1. 第一种算法理解&#xff1a;分频系数 64 &#xff0c;外部低速时钟40khz&#xff0c; 则一次计数周期1.6ms &#xff0c;计数625个数&#xff0c;则有625个周期 &#xff0c;1.6ms*625 等于1s 如果分频系数是64&#xff0c;外部低速时钟&#xff08;LSI&#xff09;频率是…

gitee和idea集成

1 集成插件 2 配置账号密码 3 直接将项目传到仓库 4直接从gitee下载项目