21.5k Star , AI 智能体项目OpenDevin:少写代码,多创造(附部署教程)

   日期:2024-12-27    作者:41jem 移动:http://mip.riyuangf.com/mobile/quote/61673.html

Aitrainee | 公众号:AI进修生

Devin 代表了一种尖端的自主代理,旨在应对软件工程的复杂性。它利用 shell、代码编辑器和 Web 浏览器等工具的组合,展示了LLM在软件开发方面尚未开发的潜力。我们的目标是探索和扩展 Devin 的能力,确定其优势和需要改进的领域,以指导开放代码模型的进展。

如何部署

第一章:准备环境

1.1 安装Docker(Linux系统

首先,通过运行下面的命令来安装 Docker 并配置阿里云的镜像加速器

 

1.2 安装 Docker Compose

完成 Docker 的安装后,接下来安装 Docker Compose

 

1.3 用户权限设置

为了便于管理 Docker,将当前用户添加到 Docker 用户组

 

第二章:系统更新与软件安装

2.1 更新系统软件

检查并列出所有可升级的软件包

 

执行软件包升级

 

2.2 安装必要的开发工具

安装 Node.js 和 npm,这对于许多现代开发环境是必需的

 

同样,安装 make 工具来管理和维护项目

 

第三章:安装 Anaconda 和设置 Python 环境

3.1 下载与安装 Anaconda

下载 Anaconda 安装脚本,并为其设置执行权限

 

执行 Anaconda 安装脚本

 

更新环境变量以确保 Anaconda 正确配置

 

3.2 配置 Python 环境

创建并激活一个名为 的新 Python 环境,指定 Python 版本为 3.11

 

第四章:项目设置和构建

4.1 安装 Poetry

安装 Poetry 来管理 Python 项目的依赖

 

更新路径和环境变量

 

4.2 获取并构建项目

克隆并进入 OpenDevin 项目目录,然后使用 make 构建项目

 
 

第五章:配置语言模型

5.1 选择和配置语言模型

OpenDevin 支持使用 litellm 库配置多种语言模型。默认配置是使用 OpenAI 的 GPT-4,但用户可以根据需求选择其他模型,如 Anthropic 的 Claude 或 Llama。

5.1.1 使用 Makefile 配置模型

简单有效的配置方法是通过 Makefile

 

此命令会引导您输入所需的 LLM API 密钥和模型名称,以便个性化您的 OpenDevin 环境。

5.1.2 探索其他模型

如果您希望尝试除 OpenAI GPT 外的其他模型,可以查阅 litellm 文档以获取更多信息和支持。我们也在准备相关文档,以帮助用户探索和配置各种替代模型。

5.2 运行本地模型

具体文档说明如何使用 ollama 在本地运行模型,以及使用 Azure 云服务运行 OpenDevin 的指南正在编写中。

第六章:运行应用程序

6.1 启动 OpenDevin

完成配置后,启动 OpenDevin 就像执行以下命令一样简单

 

这将同时启动后端和前端服务器,使您能够与 OpenDevin 交互。

第七章:单独服务器启动

7.1 启动后端服务器

如果需要专注于后端相关任务,可以单独启动后端服务器

 

7.2 启动前端服务器

同样,如果要处理前端相关的组件或界面增强,可以单独启动前端服务器

 

第八章:获取帮助

8.1 使用 make help

如果您需要关于可用目标和命令的帮助或信息,可以使用以下命令

 

:一键执行

 

https://github.com/OpenDevin/OpenDevin


    特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


    举报收藏 0评论 0
    0相关评论
    相关最新动态
    推荐最新动态
    点击排行
    {
    网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号