繁体   English   中英

机器学习算法预测/查找/收敛以纠正数学模型中的参数

[英]Machine learning algorithm to predict/find/converge to correct parameters in mathematical model

我目前正在尝试找到一种机器学习算法,该算法可以预测数学模型(MM)中使用的大约 5 - 15 个参数。 MM 有 4 个不同的常微分方程 (ODE),并且会添加更多的常微分方程,因此需要更多的参数。 大多数参数可以测量,但其他参数需要猜测。 我们知道所有的 15 个参数,但我们希望计算机猜测 5 个甚至 10 个。为了测试参数是否正确,我们在 MM 中填写参数,然后用数值方法计算 ODE。 随后,我们使用我们知道(并想猜测)的参数计算模型计算与我们猜测参数的 MM 的计算值之间的误差。 对模型 ODE 值的计算进行了多次,ODE 实时表示一分钟,我们计算了 24 小时,因此进行了 1440 次计算。

目前我们正在使用粒子过滤器来猜测变量,这可以正常工作,但我们想看看是否有更好的方法来猜测模型中的参数。 粒子过滤器为一个参数取一个随机值,该值位于我们知道的参数范围之间,例如 0,001 - 0,01。 这是为每个需要猜测的参数完成的。

如果您可以运行大量完整的模拟(数万次),您可以尝试黑盒优化。 我不确定黑盒是否适合您(我不熟悉粒子过滤器)。 但如果是这样, CMA-ES在这里是一个明确的匹配项,并且易于尝试。

您必须为您的参数指定一个损失函数(例如整个模拟的总误差平方和)和一个初始猜测(均值和西格玛)。 在黑盒算法中,CMA-ES 是一个完善的基线。 如果您只有很少(最多几百个)连续参数且没有梯度信息,则很难被击败。 然而,任何可以利用问题的 ODE 性质的不那么黑箱的东西都会做得更好。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM