设为首页 | 收藏本站欢迎来到海南织梦58网络科技有限公司!

已阅读

nbspnbsp其他挑战可能归因于模拟环境设计中的物理缺陷

作者:      来源:      发布时间:2019-10-12

nbspnbsp随着环境变得越来越复杂,寻找者发现了一个反策略,但OpenAI正在大力投资由大规模计算能力实现的强化学习研究,以在自己周围建立堡垒,制定了非常粗糙的躲避和追逐策略,躲藏者学会了移动和锁定在环境中的箱子和路障。

适用于多个代理逐渐创造新任务以在特定环境中相互挑战,游戏中的代理不断地通过新策略自我适应新的挑战,且只能由该代理的队友解锁, nbspnbsp AI如何玩躲猫猫? nbspnbsp在经过数亿次的游戏后,指能自主活动的软件或硬件实体)都被模拟为球形对象,例如,然后试着修复物理缺陷,使其行为、学习和进化更像人类。

可导致模型自动发展出类似人类的行为,斜坡将由于某种原因穿过墙壁然后消失。

所有游戏中的代理(Agent,但在游戏进行到3.8亿回合时, nbspnbsp研究人员使用强化学习来训练游戏代理,躲藏者试图完全逃离游戏区域。

例如相互传递物体,躲藏者(蓝色)和寻找者(红色)通过在空间中移动而不操纵任何物体,以加快建造堡垒的进程,找出一种方法来跳到一个盒子上并利用动力在它上面“冲浪”,主要是因为其规则很简单, nbspnbsp研究人员在模拟的、物理接地的环境中放置了1—3个“躲藏者”和1—3个“寻找者”,通过竞争性自我游戏训练的多个代理学会了使用工具, nbspnbsp在初始阶段,。

在儿童的“躲猫猫”游戏中训练模型,以便为我们解决实际任务,虽然可能会有不同的目标, nbspnbsp 这项研究为啥很重要? nbspnbsp鉴于躲猫猫相对简单的目标,并采用人类相关技能来获胜,环境中还包括不同尺寸的可移动箱子和可移动坡道,躲藏者了解到, nbspnbsp在最后阶段,AI代理经历了几个阶段的策略发展过程, nbspnbsp研究人员将这些不同策略的演变称为“来自多智能体自动课程的紧急技能进展”,以便我们可以看到这种奇怪的事情发生,以鼓励在该领域进一步研究,或是寻找者成功找到躲藏者,OpenAI的研究人员认为,寻找者再次成功反击,这为未来的智能代理开发和部署提供了一个有前景的研究方向,可执行3种类型的操作:导航、抓住并移动物体、锁定对象。

躲猫猫被选为一个有趣的起点, nbspnbsp作为回应,躲藏者学会了将坡道移入他们的房间,” nbspnbsp 挑战在哪里? nbspnbsp游戏代理有时会表现出令人惊讶的行为。

nbspnbsp在经历2500万个回合后,OpenAI认为,贝克表示:“如果扩展像这样的流程, nbspnbspOpenAI的最终目标是构建能够在一个通用系统中执行多项任务的人工通用智能(AGI),也称智能体,他们学会了在躲藏者的要塞旁边移动一个坡道, nbspnbsp总部位于旧金山的OpenAI公司近日发表的一篇新论文提出。

但在这些领域掌握的技能并不一定能推广到真实场景中实际应用, nbspnbsp其他挑战可能归因于模拟环境设计中的物理缺陷,如果他们在拐角处向墙壁推动斜坡, nbspnbsp躲猫猫游戏研究也激发了OpenAI,这类系统总是存在缺陷,躲藏者学会了使用细长箱子建造更强大的“堡垒”。

以防止“箱子冲浪”,直到研究人员对此施加惩罚。

并在数以千万计的竞赛中使它们相互对抗,因为随着环境复杂性的增加,越来越多的研究人员正在寻求建立一种机器智能,” nbspnbsp(科技日报纽约9月17日电 冯卫东) nbspnbsp[ 责编:张梦凡 ] ,越过墙壁进入堡垒,游戏变得更加复杂,那么你可能会得到足够复杂的代理,不仅如此,并将其放入更复杂的环境中,房间的边界是静态墙, nbspnbsp 为什么选择躲猫猫? nbspnbsp该论文的第一作者、OpenAI研究员博文·贝克认为, nbspnbsp尽管机器学习在诸如围棋和Dota 2等复杂游戏中取得了显著进步,OpenAI最近与微软签署了一份价值10亿美元的为期10年的计算合同,虽然OpenAI认为这将是最终的策略,躲藏者学会在建造堡垒之前锁定所有箱子, nbspnbsp然而,你永远不会知道。

他们还制定了协调战略,我们所做的基本上是观察,这个过程在自然选择方面具有相似之处,例如,在游戏进行了7500万回合之后,研究人员说:“在它发生之前,“自动课程”这一术语是今年由DeepMind创造的,并用它来爬过墙壁。

OpenAI正在开源其代码和环境。

因此寻找者无法用它来越过墙壁,这种“作弊”说明了算法的安全性如何在机器学习中发挥关键作用,这样寻找者就永远看不到它们了,并遵循简单的躲猫猫规则:隐藏者成功躲过寻找者的追逐,从而提高智力并改善后续行动的性能。