cost 93 ms
yaml管道中版本的多代理作业 - Multi-agent jobs over versions in yaml pipeline

所以,我有一个 yaml 管道,它有一个在 bash 中存储一组版本的数组,比如说arrayVersions=(3.0.1 3.0.2 ....) 。 现在,我想设置管道,将这些版本中的每一个拆分为 yaml 管道中的一个作业,然后在多代理范例中运行它们。 CONTEXT - 我已经设置了遍历 ...

"最小化代理到访问目标距离和的算法" - Algorithm for Minimising Sum of Distance of agents to visiting targets

我正在用 Python 实现一个模型。 作为该模型的一部分,我有一组需要访问一组目标(例如地点)的代理(例如人类)。 每个代理都有自己的初始位置(即起点),我可以计算每个代理到每个目标的距离。 在这一点上,我需要为每个代理分配第一份工作,使代理从他们的起始位置到他们的第一份工作的所有旅行距离的总和最 ...

从 Python 类生成 JSON Schema 规范 - Generate a JSON Schema specification from Python classes

介绍 大家好 ! 我正在尝试在 Python3 中开发多代理模型。 所以我的方法是创建基本类并将它们派生为更具体和特定的类。 例如,一个类 Bike 继承自 Vehicle,它本身继承自一个基本的 Agent 类。 问题 我想使用 JSON Schema(并将它们用于验证)提供我的类初始化参数的 ...

Jade 框架(两个容器) - Jade Framework (two containers)

我有在同一台主机(我的笔记本电脑)上使用 Jade 的专业知识,因为我可以处理代理之间的所有交互; 但是我必须在笔记本电脑中运行MainContainer ,在 Raspberry Pi 中运行第二个容器。 我开始尝试一个简单的例子,创建 2 个代理,第一个在主容器上,第二个在将在 Raspberr ...

如何执行第二个计划,当第一个在 qwery 失败时,在 JASON AgnetSpeak - How to execute a second plan, when the first fail in qwery, in JASON AgnetSpeak

我的程序有一个小问题,在一个部分中,一个代理 X 向代理 Y 发送了一个tell ,这个代理检查了他的信念基础以验证事实,问题是当计划失败时,他尝试添加一个-plan但它没有用,我感谢任何帮助,我已经改变了问题的背景,以便更好地理解,但主要思想是相同的 婚礼宾客(约翰)。 婚礼宾客(安娜)。 婚 ...

使用 RLlib 时,如何防止我在评估运行期间收到的奖励金额重复出现? - How to prevent my reward sum received during evaluation runs repeating in intervals when using RLlib?

我正在使用Ray 1.3.0 (用于 RLlib )和SUMO 1.9.2 版的组合来模拟多代理场景。 我已将 RLlib 配置为使用单个PPO.network ,该网络通常由所有N个代理更新/使用。 我的评估设置如下所示: 每 20 次迭代(每次迭代收集“X”训练样本)会发生一次至少 10 集的 ...

JADE 代理 - 异常消息:调度程序错误 - 原因:远程站点中的 DispatcherException。 object-id 没有骨架 - JADE agents - Exception message: Dispatcher error - Caused by: DispatcherException in remote site. No skeleton for object-id

我正在尝试设置 2 个代理(DFSearchAgent)和另一个按类型注册服务的代理(DFRegisterAgent)。 但是,我无法启动“外围容器”或托管第二个代理的额外容器。 假设: 两个容器都在同一台机器上,因此相同的 IP 和相同的端口。 JADE 版本 4.5.0 在 WSL (Wind ...

了解基于冲突的搜索 MAPF (cbs-mapf) package in Python - Understanding the conflict based search MAPF (cbs-mapf) package in Python

我正在尝试使用 pypi cbs mapf package这是一种基于冲突的多代理路径查找算法。 对于示例文件scenario1.yaml ,它运行得很好。 package安装: 但是当我尝试编写自己的代理时,给了我错误。 我的驱动程序代码: 给我一个错误代码: 但是,当我将static_obs ...

多智能体(非深度)强化学习? 建模问题 - Multiagent (not deep) reinforcement learning? Modeling the problem

我有N个代理/用户访问单个无线信道,并且每次只有一个代理可以访问该信道并获得奖励。 每个用户都有一个可以存储B个数据包的缓冲区,我假设它是无限缓冲区。 如果时隙t 中的数据包成功或失败(冲突),则每个用户n从环境中获得观察。 如果超过一个用户访问该频道,他们将受到惩罚。 由于我们只有一个频道, ...

运行 Mesa 示例模型时,出现“NotImplementedError” - When running Mesa example model, I get a "NotImplementedError"

我尝试从 [mesa][1] 实施教程。 这是我从那里复制的代码,分别分为两个文件,money_model.py 和 server.py: 和 当我运行该示例时,它给了我以下错误: 当我在包含 run.py 文件的项目目录中时,当我使用“mesa runserver”运行当前正在处理的项 ...

多智能体强化学习环境 公共交通问题 - Multi-agent reinforcement learning environment Public transport problem

对于我的 Msc 论文,我想将多代理 RL 应用于总线控制问题。 这个想法是公共汽车在给定的线路上运行,但没有时间表。 公交车应该有公交车站,乘客随着时间的推移积累并接他们,公交车之间的间隔越长,在车站等待的乘客就越多(平均而言,这是一个随机过程)。 我还想实现一些交叉路口,公交车必须等待绿灯。 ...

无法交互主 window pygame - Can't interact the main window pygame

我尝试使用 pygame 实现多代理系统。我为系统“SMA”创建了一个 class,为环境“EnvSMA”创建了一个 class,以及一个具有不同行为的 class 代理。 当一个代理与网格边界之一的“墙”碰撞时,它的行为就像乒乓球比赛中的球,当它与另一个代理碰撞时,它会与另一个代理交换方向。 我 ...

在多智能体环境中降低一个智能体的动作采样频率 - Decreasing action sampling frequency for one agent in a multi-agent environment

我第一次使用 rllib,并尝试训练一个自定义的多代理 RL 环境,并希望在其上训练几个 PPO 代理。 我需要弄清楚的实现问题是如何改变对一名特工的训练,以便这个特工每 X 个时间步才采取一次行动。 最好只在每 X 个时间步调用 compute_action() 吗? 或者,在其他步骤中,屏蔽策略 ...

如何通过 java 代码执行“java”命令? - how can I execute “java” command by java code?

我正在尝试通过代码使用JADE运行多代理系统。 通常,我可以使用以下命令通过命令行运行翡翠系统: 通过更改项目属性并将运行配置指向jade.Boot class,它也可以使用 Netbeans IDE 运行良好。 我的问题是:我想通过 java 代码运行这个系统......假设,当用户点击一个按钮 ...

NS3 可以与真正的分布式算法配对吗? - Can NS3 be paired with real distributed algorithms?

我有一个自己编写的分布式算法,我想测试它在不同网络情况下的表现。 我找到了网络模拟器 3,它主要用于网络研究。 我很好奇,我可以设置它来为 Node/NetDevice 运行一些真实的算法并在它们之间传输真实的数据吗? ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM