MAPPO:PPO在合作多智能体博弈中的惊人效果_ppo mappo-程序员宅基地

技术标签: 学习  多智能体强化学习  

目录

The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games

PPO在合作多智能体博弈中的惊人效果

1 Introduction 

1 引言

2 Related Works 

2 相关著作

3 PPO in Multi-Agent Settings

3 PPO 多智能体设置中的

3.1 Preliminaries 

3.2 MAPPO and IPPO 

3.3 Implementation Details

3.3 实现细节

4 Main Results

4 主要结果

4.1 Testbeds, Baselines, and Common Experimental Setup

4.1 测试平台、基线和通用实验设置

4.2 MPE Testbed 

4.2 MPE测试台

4.3 SMAC Testbed

4.3 SMAC测试台

4.4 Google Football Testbed

4.4 谷歌足球测试平台

4.5 Hanabi Testbed

4.5 Hanabi 测试台

5Factors Influential to PPO’s Performance5影响PPO绩效的因素

5.1 Value Normalization 

5.1 值归一化

5.2 Input Representation to Value Function

5.2 输入表示到值函数

5.3 Training Data Usage 

5.3 训练数据使用

5.4 PPO Clipping 

5.4 PPO削波

5.5 PPO Batch Size 

5.5 PPO批量大小

6 Conclusion 

6 结论

Acknowledgments 致谢 

The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games

PPO在合作多智能体博弈中的惊人效果

https://arxiv.org/abs/2103.01955

Abstract 摘要

        Proximal Policy Optimization (PPO) is a ubiquitous on-policy reinforcement learning algorithm but is significantly less utilized than off-policy learning algorithms in multi-agent settings. This is often due to the belief that PPO is significantly less sample efficient than off-policy methods in multi-agent systems. In this work, we carefully study the performance of PPO in cooperative multi-agent settings. We show that PPO-based multi-agent algorithms achieve surprisingly strong performance in four popular multi-agent testbeds: the particle-world environments, the StarCraft multi-agent challenge, Google Research Football, and the Hanabi challenge, with minimal hyperparameter tuning and without any domain-specific algorithmic modifications or architectures. Importantly, compared to competitive off-policy methods, PPO often achieves competitive or superior results in both final returns and sample efficiency. Finally, through ablation studies, we analyze implementation and hyperparameter factors that are critical to PPO’s empirical performance, and give concrete practical suggestions regarding these factors. Our results show that when using these practices, simple PPO-based methods can be a strong baseline in cooperative multi-agent reinforcement learning. Source code is released at https://github.com/marlbenchmark/on-policy.
        近端策略优化 (PPO) 是一种无处不在的策略强化学习算法,但在多智能体设置中的使用率明显低于策略外学习算法。这通常是由于人们认为 PPO 的样本效率明显低于多智能体系统中的非策略方法。在这项工作中,我们仔细研究了 PPO 在合作多代理环境中的性能。我们表明,基于 PPO 的多智能体算法在四个流行的多智能体测试平台中实现了令人惊讶的强大性能:粒子世界环境、星际争霸多智能体挑战赛、Google Research Football 和 Hanabi 挑战赛,只需最少的超参数调整,并且没有任何特定领域的算法修改或架构。重要的是,与竞争性非政策方法相比,PPO通常在最终回报和样本效率方面都具有竞争力或优越的结果。最后,通过消融研究,分析了对PPO实证性能至关重要的实施和超参数因素,并就这些因素给出了具体的实践建议。我们的结果表明,当使用这些实践时,基于PPO的简单方法可以成为合作多智能体强化学习的有力基线。源代码发布于 https://github.com/marlbenchmark/on-policy。 

1 Introduction 

1 引言

        Recent advances in reinforcement learning (RL) and multi-agent reinforcement learning (MARL) have led to a great deal of progress in creating artificial agents which can cooperate to solve tasks: DeepMind’s AlphaStar surpassed professional-level performance in the StarCraft II [35], OpenAI Five defeated the world-champion in Dota II [4], and OpenAI demonstrated the emergence of human-like tool-use agent behaviors via multi-agent learning [2]. These notable successes were driven largely by on-policy RL algorithms such as IMPALA [10] and PPO [304] which were often coupled with distributed training systems to utilize massive amounts of parallelism and compute. In the aforementioned works, tens of thousands of CPU cores and hundreds of GPUs were utilized to collect and train on an extraordinary volume of training samples. This is in contrast to recent academic progress and literature in MARL which has largely focused developing off-policy learning frameworks such as MADDPG [22] and value-decomposed Q-learning [3227]; methods in these frameworks have yielded state-of-the-art results on a wide range of multi-agent benchmarks [3637].
        强化学习 (RL) 和多智能体强化学习 (MARL) 的最新进展导致在创建可以协作解决任务的人工智能体方面取得了很大进展:DeepMind 的 AlphaStar 在《星际争霸 II》中超越了专业级性能 [ 35],OpenAI Five 在 Dota II 中击败了世界冠军 [ 4],OpenAI 通过多智能体学习展示了类人工具使用智能体行为的出现 [ 2]。这些显著的成功很大程度上是由策略RL算法推动的,如IMPALA [ 10]和PPO [ 30, 4],这些算法通常与分布式训练系统相结合,以利用大量的并行性和计算。在上述工作中,数以万计的 CPU 内核和数百个 GPU 被用于收集和训练大量训练样本。这与MARL最近的学术进展和文献形成鲜明对比,后者主要侧重于开发非政策学习框架,如MADDPG [ 22]和价值分解Q学习 [ 32, 27];这些框架中的方法在广泛的多智能体基准上产生了最先进的结果[36,37]。

        In this work, we revisit the use of Proximal Policy Optimization (PPO) – an on-policy algorithm1 popular in single-agent RL but under-utilized in recent MARL literature – in multi-agent settings. We hypothesize that the relative lack of PPO in multi-agent settings can be attributed to two related factors: first, the belief that PPO is less sample-efficient than off-policy methods and is correspondingly less useful in resource-constrained settings, and second, the fact that common implementation and hyperparameter tuning practices when using PPO in single-agent settings often do not yield strong performance when transferred to multi-agent settings.
        在这项工作中,我们重新审视了近端策略优化 (PPO) 的使用——一种策略算法 1。在单 RL 中很受欢迎,但在最近的 MARL 文献中未得到充分利用——在多药环境中。我们假设,在多智能体环境中相对缺乏 PPO 可归因于两个相关因素:首先,认为 PPO 的采样效率低于非策略方法,并且在资源受限的环境中相应地不太有用,其次,在单智能体环境中使用 PPO 时的常见实现和超参数调整实践在转移到多智能体设置时通常不会产生强大的性能。

        We conduct a comprehensive empirical study to examine the performance of PPO on four popular cooperative multi-agent benchmarks: the multi-agent particle world environments (MPE) [22], the StarCraft multi-agent challenge (SMAC)  [28], Google Research Football (GRF) [19] and the Hanabi challenge [3]. We first show that when compared to off-policy baselines, PPO achieves strong task performance and competitive sample-efficiency. We then identify five implementation factors and hyperparameters which are particularly important for PPO’s performance, offer concrete suggestions about these configuring factors, and provide intuition as to why these suggestions hold.
        我们进行了一项全面的实证研究,以检验PPO在四个流行的合作多智能体基准上的性能:多智能体粒子世界环境(MPE)[22]、星际争霸多智能体挑战(SMAC)[28]、Google Research Football(GRF)[19]和Hanabi挑战[3]。我们首先表明,与非政策基线相比,PPO实现了强大的任务绩效和有竞争力的样本效率。然后,我们确定了对 PPO 性能特别重要的五个实现因素和超参数,就这些配置因素提供了具体建议,并提供了这些建议成立原因的直觉。

        Our aim in this work is not to propose a novel MARL algorithm, but instead to empirically demonstrate that with simple modifications, PPO can achieve strong performance in a wide variety of cooperative multi-agent settings. We additionally believe that our suggestions will assis

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/wq6qeg88/article/details/137181005

智能推荐

稀疏编码的数学基础与理论分析-程序员宅基地

文章浏览阅读290次,点赞8次,收藏10次。1.背景介绍稀疏编码是一种用于处理稀疏数据的编码技术,其主要应用于信息传输、存储和处理等领域。稀疏数据是指数据中大部分元素为零或近似于零的数据,例如文本、图像、音频、视频等。稀疏编码的核心思想是将稀疏数据表示为非零元素和它们对应的位置信息,从而减少存储空间和计算复杂度。稀疏编码的研究起源于1990年代,随着大数据时代的到来,稀疏编码技术的应用范围和影响力不断扩大。目前,稀疏编码已经成为计算...

EasyGBS国标流媒体服务器GB28181国标方案安装使用文档-程序员宅基地

文章浏览阅读217次。EasyGBS - GB28181 国标方案安装使用文档下载安装包下载,正式使用需商业授权, 功能一致在线演示在线API架构图EasySIPCMSSIP 中心信令服务, 单节点, 自带一个 Redis Server, 随 EasySIPCMS 自启动, 不需要手动运行EasySIPSMSSIP 流媒体服务, 根..._easygbs-windows-2.6.0-23042316使用文档

【Web】记录巅峰极客2023 BabyURL题目复现——Jackson原生链_原生jackson 反序列化链子-程序员宅基地

文章浏览阅读1.2k次,点赞27次,收藏7次。2023巅峰极客 BabyURL之前AliyunCTF Bypassit I这题考查了这样一条链子:其实就是Jackson的原生反序列化利用今天复现的这题也是大同小异,一起来整一下。_原生jackson 反序列化链子

一文搞懂SpringCloud,详解干货,做好笔记_spring cloud-程序员宅基地

文章浏览阅读734次,点赞9次,收藏7次。微服务架构简单的说就是将单体应用进一步拆分,拆分成更小的服务,每个服务都是一个可以独立运行的项目。这么多小服务,如何管理他们?(服务治理 注册中心[服务注册 发现 剔除])这么多小服务,他们之间如何通讯?这么多小服务,客户端怎么访问他们?(网关)这么多小服务,一旦出现问题了,应该如何自处理?(容错)这么多小服务,一旦出现问题了,应该如何排错?(链路追踪)对于上面的问题,是任何一个微服务设计者都不能绕过去的,因此大部分的微服务产品都针对每一个问题提供了相应的组件来解决它们。_spring cloud

Js实现图片点击切换与轮播-程序员宅基地

文章浏览阅读5.9k次,点赞6次,收藏20次。Js实现图片点击切换与轮播图片点击切换<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title></title> <script type="text/ja..._点击图片进行轮播图切换

tensorflow-gpu版本安装教程(过程详细)_tensorflow gpu版本安装-程序员宅基地

文章浏览阅读10w+次,点赞245次,收藏1.5k次。在开始安装前,如果你的电脑装过tensorflow,请先把他们卸载干净,包括依赖的包(tensorflow-estimator、tensorboard、tensorflow、keras-applications、keras-preprocessing),不然后续安装了tensorflow-gpu可能会出现找不到cuda的问题。cuda、cudnn。..._tensorflow gpu版本安装

随便推点

物联网时代 权限滥用漏洞的攻击及防御-程序员宅基地

文章浏览阅读243次。0x00 简介权限滥用漏洞一般归类于逻辑问题,是指服务端功能开放过多或权限限制不严格,导致攻击者可以通过直接或间接调用的方式达到攻击效果。随着物联网时代的到来,这种漏洞已经屡见不鲜,各种漏洞组合利用也是千奇百怪、五花八门,这里总结漏洞是为了更好地应对和预防,如有不妥之处还请业内人士多多指教。0x01 背景2014年4月,在比特币飞涨的时代某网站曾经..._使用物联网漏洞的使用者

Visual Odometry and Depth Calculation--Epipolar Geometry--Direct Method--PnP_normalized plane coordinates-程序员宅基地

文章浏览阅读786次。A. Epipolar geometry and triangulationThe epipolar geometry mainly adopts the feature point method, such as SIFT, SURF and ORB, etc. to obtain the feature points corresponding to two frames of images. As shown in Figure 1, let the first image be ​ and th_normalized plane coordinates

开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先抽取关系)_语义角色增强的关系抽取-程序员宅基地

文章浏览阅读708次,点赞2次,收藏3次。开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先关系再实体)一.第二代开放信息抽取系统背景​ 第一代开放信息抽取系统(Open Information Extraction, OIE, learning-based, 自学习, 先抽取实体)通常抽取大量冗余信息,为了消除这些冗余信息,诞生了第二代开放信息抽取系统。二.第二代开放信息抽取系统历史第二代开放信息抽取系统着眼于解决第一代系统的三大问题: 大量非信息性提取(即省略关键信息的提取)、_语义角色增强的关系抽取

10个顶尖响应式HTML5网页_html欢迎页面-程序员宅基地

文章浏览阅读1.1w次,点赞6次,收藏51次。快速完成网页设计,10个顶尖响应式HTML5网页模板助你一臂之力为了寻找一个优质的网页模板,网页设计师和开发者往往可能会花上大半天的时间。不过幸运的是,现在的网页设计师和开发人员已经开始共享HTML5,Bootstrap和CSS3中的免费网页模板资源。鉴于网站模板的灵活性和强大的功能,现在广大设计师和开发者对html5网站的实际需求日益增长。为了造福大众,Mockplus的小伙伴整理了2018年最..._html欢迎页面

计算机二级 考试科目,2018全国计算机等级考试调整,一、二级都增加了考试科目...-程序员宅基地

文章浏览阅读282次。原标题:2018全国计算机等级考试调整,一、二级都增加了考试科目全国计算机等级考试将于9月15-17日举行。在备考的最后冲刺阶段,小编为大家整理了今年新公布的全国计算机等级考试调整方案,希望对备考的小伙伴有所帮助,快随小编往下看吧!从2018年3月开始,全国计算机等级考试实施2018版考试大纲,并按新体系开考各个考试级别。具体调整内容如下:一、考试级别及科目1.一级新增“网络安全素质教育”科目(代..._计算机二级增报科目什么意思

conan简单使用_apt install conan-程序员宅基地

文章浏览阅读240次。conan简单使用。_apt install conan