M 运行M/M/C排队论模型优化地铁车站大客流组织 C (m运行8秒和m起动8秒的区别)

本文目录导航:
运行M/M/C排队论模型优化地铁车站大客流组织 M C
摘 要:随着国际各大市区轨道交通行业的极速开展,地铁运量大、速度快、安保、准点、温馨等好处曾经遭到广阔市民的认可,越来越多的人开局选用地铁作为首要出行工具。
每逢上班日早晚高峰、节假日或大型优惠举行日,地铁车站的客流量都会大幅攀升,很多车站都会出现少量乘客排队购票的状况。
在组织大客流时,车站普通会驳回开明人工售票窗口的方式放慢疏散速度,提高服务率。
乘客总是宿愿能开明的窗口数量越多越好,车站在客流组织环节中只管也想更好的为乘客服务,但为了提高运输组织上班效率,人工售票窗口无法能有限度的开明。
本文以运筹学中的排队论原理为基础,首先以地铁车站售票上班为钻研对象,建设了地铁站购票多窗口期待制排队模型,其次依据此模型计算出了开明人工售票窗口数量的最优解,最后对计算结果启动了钻研和剖析,为车站大客流运输组织打算的优化提供了有力的数据论证。
关键词:客流组织;排队论模型;M/M/C模型;客流组织优化引言随着市区的极速开展,地铁作为一种不凡的交通运输方式,以其运量大、速度快、能耗低、安保、准点、环境温馨等好处,成为很多市民首选的出行工具。
地铁承载着市区交通运输中的关键义务,在一些大型商业圈、火车站、短途汽车站、大型体育场馆、展览馆左近的地铁站,经常会出现短时期瞬间大客流和继续大客流。
乘客在购票的环节中的期待时期则会因乘客的增多而变长,少量乘客长时期排队岂但影响乘客的出行品质,而且会造成站厅人员汇集、拥堵,进而出现通道被排队人流及伴行等候人员梗塞,人员流动速度显著降低,甚至阻滞不前,极易引发意外。
因此尽快引导购票客流往往成为大客流组织上班的重中之重。
在运能满足条件的前提下,理论大客流组织的环节中,车站为了放慢客流的疏散速度,节俭乘客购票的排队时期,理论会开明人工售票窗口繁难乘客购票。
由于遭到人员、设施、场地的限度,人工售票窗口无法能有限度的开明。
如何正当确实定开明人工售票窗口的数量,从而到达既能保障客流顺利引导,又能最大水平节俭人力的成果,成为大客流组织上班优化的重点疑问。
这就须要对乘客排队购票状况建设数学模型启动剖析钻研。
一、排队系统的组成任何一个排队疑问的基本排队环节都可以用图1-1表示。
从图1-1可知,每个顾客由顾客源按肯定方式抵达服务系统,首先参与队列排队期待接受服务,而后服务台按肯定规定从队列当选用顾客启动服务,取得服务的顾客立刻退出。
理论,排队系统都有输入环节、服务台、服务时期、服务规定等3个组成部分。
图1-1 排队环节示用意1、输入环节这是指要求服务的顾客是按怎么的法令抵达排队系统的环节,有时也把它称为顾客流,普通可以从3个方面来形容-个输入环节。
(1)顾客总体数,又称顾客源、输入源。
这是指顾客的起源。
顾客源可以是有限的,也可以是有限的。
例如,到售票处购票的顾客总数可以以为是有限的,而某个工厂因缺点待修的机床数则是有限的。
(2)顾客抵达方式。
这是形容顾客是怎么到来系统的,他们是单个抵达,还是成批抵达。
病人到医院看病是顾客单个抵达的例子。
在库存疑问中如将消费器材进货或产品入库看作是顾客,那么这种顾客则是成批抵达的。
(3)顾客流的概率散布,或称相继顾客抵达的时时期隔的散布。
这是求解排队系统无关运转目的疑问时,首先须要确定的目的。
这也可以了解为在肯定的时时期隔内抵达K个顾客(K=1、2、 )的概率是多大。
顾客流的概率散布普通有定长散布、二项散布、泊松流(最繁难流)、爱尔朗散布等若干种。
2、服务台服务台可以从以下3方面来形容:(1)服务台数量及造成方式。
从数量上说,服务台有单服务台和多服务台之分。
从造成方式上看,服务台有:①单队——单服务台式;(开明一个服务窗口,一列等候服务的队伍。
实例:公交汽车排队刷卡服务。
)②单队——多服务台并联式;(开明多个服务窗口,不同服务窗口同时展开同类或相似业务,一列等候服务的队伍,按既定顺序随机到各窗口实施无关业务。
实例:银行取号排队等候服务。
)③多队——多服务台并联式;(开明多个服务窗口,同时展开同类或相似业务,多列等候服务的队伍,按各窗口排定序列实施无关业务。
实例:食堂窗口排队领餐服务。
)④单队——多服务台串联式;(开明多个服务窗口,顺序展开不同类业务。
实例:政务超市操持跨部门审批无关业务。
)⑤单队——多服务台并串联混合式,以及多队--多服务台并串联混合式等等。
(2)服务方式。
取决于在某一特定时辰接受服务的顾客数,它有单个服务和成批服务两种。
如公共汽车一次性就可装载一批乘客就属于成批服务。
(3)服务时期的散布。
普通来说,在少数状况下,对每一个顾客的服务时期是一随机变量,其概率散布有定长散布、负指数散布、K级爱尔良散布、普通散布(一切顾客的服务时期都是独立同散布的)等等。
3、服务时期服务时期是指顾客接纳服务的时期法令。
顾客接受服务的时期法令往往也经过概率散布形容。
普通来说,繁难的排队系统的服务时期往往听从负指数散布,即每位顾客接受服务的时期是独立同散布的,其散布函数为B(t)=1-e-mt(t≥0),其中m>0为一常数,代表单位时期的平均服务率,而1/m则是平均服务时期。
4、服务规定。
这是指服务台从队列当选取顾客启动服务的顺序。
普通可以分为损失制、期待制和混合制等3大类。
(1)损失制。
这是指假设顾客抵达排队系统时,一切服务台都已被先来的顾客占用,那么他们就智能退出系统永不再来。
典型例子是,如电话拔号后出现忙音,顾客不愿期待而智能挂断电话,如要再打,就需从新拔号,这种服务规定即为损失制。
(2)期待制。
这是指当顾客到来系统时,一切服务台都不空,顾客参与排队行列期待服务。
例如,排队期待售票,缺点设施期待培修等。
期待制中,服务台在选用顾客启动服务时,常有如下四种规定:
几种罕用最优化方法
学习和上班中遇到的大多疑问都可以建模成一种最优化模型启动求解,比如咱们如今学习的机器学习算法,大部分的机器学习算法的实质都是建设优化模型,经过最优化方法对目的函数(或损失函数)启动优化,从而训练出最好的模型。
经常出现的优化方法(optimization)有梯度降低法、牛顿法和拟牛顿法、共轭梯度法等等。
1. 梯度降低法(Gradient Descent) 梯度降低法是最早最繁难,也是最为罕用的最优化方法。
梯度降低法成功繁难,当目的函数是凸函数时,梯度降低法的解是全局解。
普通状况下,其解不保障是全局最优解,梯度降低法的速度也未必是最快的。
梯度降低法的优化思维是用以后位置负梯度方向作为搜查方向,由于该方向为以后位置的最快降低方向,所以也被称为是”最速降低法“。
最速降低法越接近目的值,步长越小,行进越慢。
梯度降低法的缺陷: (1)接近极小值时收敛速度减慢; (2)直线搜查时或许会发生一些疑问; (3)或许会“之字形”地降低。
在机器学习中,基于基本的梯度降低法开展了两种梯度降低方法,区分为随机梯度降低法和批量梯度降低法。
比如对一个线性回归(Linear Logistics)模型,假定上方的h(x)是要拟合的函数,J()为损失函数,是参数,要迭代求解的值,求解进去了那最终要拟合的函数h()就进去了。
其中m是训练集的样本个数,n是特色的个数。
1)批量梯度降低法(Batch Gradient Descent,BGD) (1)将J()对求偏导,获取每个theta对应的的梯度: (2)由于是要最小化危险函数,所以按每个参数的梯度负方向,来降级每个: (3)从上方公式可以留意到,它获取的是一个全局最优解,然而每迭代一步,都要用到训练集一切的数据,假设m很大,那么可想而知这种方法的迭代速度会相当的慢。
所以,这就引入了另外一种方法——随机梯度降低。
关于批量梯度降低法,样本个数m,x为n维向量,一次性迭代须要把m个样本所有带入计算,迭代一次性计算量为m*n2。
2)随机梯度降低(Stochastic Gradient Descent,SGD) (1)上方的危险函数可以写成如下这种方式,损失函数对应的是训练集中每个样本的粒度,而上方批量梯度降低对应的是一切的训练样本: (2)每个样本的损失函数,对求偏导获取对应梯度,来降级: (3)随机梯度降低是经过每个样原本迭代降级一次性,假设样本量很大的状况(例如几十万),那么或许只用其中几万条或许几千条的样本,就曾经将 迭代到最优解了,对比上方的批量梯度降低,迭代一次性须要用到十几万训练样本,一次性迭代无法能最优,假设迭代10次的话就须要遍历训练样本10次。
然而,SGD随同的一个疑问是噪音较BGD要多,使得SGD并不是每次迭代都向着全体最优化方向。
随机梯度降低每次迭代只经常使用一个样本,迭代一次性计算量为n2,当样本个数m很大的时刻,随机梯度降低迭代一次性的速度要远高于批量梯度降低方法。
两者的相关可以这样了解:随机梯度降低方法以损失很小的一部分准确度和参与肯定数量的迭代次数为代价,换取了总体的优化效率的优化。
参与的迭代次数远远小于样本的数量。
对批量梯度降低法和随机梯度降低法的总结: 批量梯度降低---最小化一切训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得危险函数最小,然而关于大规容貌本疑问效率低下。
随机梯度降低---最小化每条样本的损失函数,只管不是每次迭代获取的损失函数都向着全局最优方向, 然而大的全体的方向是向全局最优解的,最终的结果往往是在全局最优解左近,实用于大规模训练样本状况。
2. 牛顿法和拟牛顿法(Newtons method &Quasi-Newton Methods)1)牛顿法(Newtons method) 牛顿法是一种在实数域和双数域上近似求解方程的方法。
方法经常使用函数 f ( x )的泰勒级数的前面几项来寻觅方程 f ( x ) = 0的根。
牛顿法最大的特点就在于它的收敛速度很快。
详细步骤: 首先,选用一个接近函数 f ( x )零点的x0,计算相应的 f ( x 0)和切线斜率 f ( x 0)(这里 f 表示函数 f的导数)。
而后咱们计算穿过点( x 0, f( x 0))并且斜率为 f ( x 0)的直线和 x 轴的交点的 x 坐标,也就是求如下方程的解: 咱们将新求得的点的 x 坐标命名为 x 1,理论 x 1会比 x 0更接近方程 f( x ) = 0的解。
因此咱们如今可以应用 x 1开局下一轮迭代。
迭代公式可化简为如下所示: 曾经证明,假设 f是延续的,并且待求的零点 x 是孤立的,那么在零点 x 周围存在一个区域,只需初始值 x 0位于这个临近区域内,那么牛顿法必然收敛。
并且,假设 f ( x )不为0, 那么牛顿法将具备平方收敛的功能. 粗略的说,这象征着每迭代一次性,牛顿法结果的有效数字将参与一倍。
下图为一个牛顿法口头环节的例子。
由于牛顿法是基于以后位置的切线来确定下一次性的位置,所以牛顿法又被很笼统地称为是切线法。
关于牛顿法和梯度降低法的效率对比: 从实质下来看,牛顿法是二阶收敛,梯度降低是一阶收敛,所以牛顿法就更快。
假设更深刻地说的话,比如你想找一条最短的门路走到一个盆地的最底部,梯度降低法每次只从你以后所处位置选一个坡度最大的方向走一步,牛顿法在选用方向时,不只会思考坡度能否够大,还会思考你走了一步之后,坡度能否会变得更大。
所以,可以说牛顿法比梯度降低法看得更远一点,能更快地走到最底部。
(牛顿法眼光愈延久远,所以少走弯路;相对而言,梯度降低法只思考了部分的最优,没有全局思维。
) 依据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你以后所处位置的部分曲面,而梯度降低法是用一个平面去拟合以后的部分曲面,理论状况下,二次曲面的拟合会比平面更好,所以牛顿法选用的降低门路会更合乎实在的最优降低门路。
注:白色的牛顿法的迭代门路,绿色的是梯度降低法的迭代门路。
牛顿法的优缺陷总结: 好处:二阶收敛,收敛速度快; 缺陷:牛顿法是一种迭代算法,每一步都须要求解目的函数的Hessian矩阵的逆矩阵,计算比拟复杂。
2)拟牛顿法(Quasi-Newton Methods) 拟牛顿法是求解非线性优化疑问最有效的方法之一,于20世纪50年代由美国Argonne国度试验室的物理学家所提进去。
Davidon设计的这种算法在过后看来是非线性优化畛域最具发明性的发明之一。
不久R. Fletcher和M. J. D. Powell证明了这种新的算法远比其余方法极速和牢靠,使得非线性优化这门学科在一夜之间一日千里。
拟牛顿法的实质思维是改善牛顿法每次须要求解复杂的Hessian矩阵的逆矩阵的缺陷,它经常使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。
拟牛顿法和最速降低法一样只需求每一步迭代时知道目的函数的梯度。
经过测量梯度的变动,结构一个目的函数的模型使之足以发生超线性收敛性。
这类方法大大优于最速降低法,尤其关于艰巨的疑问。
另外,由于拟牛顿法不须要二阶导数的消息,所以有时比牛顿法更为有效。
如今,优化软件中蕴含了少量的拟牛顿算法用来处置无解放,解放,和大规模的优化疑问。
详细步骤: 拟牛顿法的基本思维如下。
首先结构目的函数在以后迭代xk的二次模型: 这里Bk是一个对称正定矩阵,于是咱们取这个二次模型的最优解作为搜查方向,并且获取新的迭代点: 其中咱们要求步长ak 满足Wolfe条件。
这样的迭代与牛顿法相似,区别就在于用近似的Hesse矩阵Bk 替代实在的Hesse矩阵。
所以拟牛顿法最关键的中央就是每一步迭代中矩阵Bk的降级。
如今假定获取一个新的迭代xk+1,并获取一个新的二次模型: 咱们尽或许地利用上一步的消息来选取Bk。
详细地,咱们要求 从而获取 这个公式被称为割线方程。
罕用的拟牛顿法有DFP算法和BFGS算法。
原文链接: Math] 经常出现的几种最优化方法 - Poll的笔记 - 博客园
什么是数据剖析和算法的优化?
数据剖析是指经过对各种数据启动搜集、整顿、剖析和解释,从中开掘出有用的消息和洞见的环节。
数据剖析可以协助人们更好地了解所处置的数据,并依据这些消息做出决策或许制订相应的战略。
数据剖析包括统计学、机器学习等方法。
算法优化是指优化算法的功能,使其能够更好地处置少量复杂的数据。
为了成功算法优化,须要对算法启动改良、调整和优化,以到达更高的效率和更好的结果。
算法优化理论包括以下几个方面:1. 时期复杂度:一个算法须要消耗的时期与输入规模之间的相关。
2. 空间复杂度:一个算法在口头时所需内存空间与输入规模之间的相关。
3. 精度:一个算法在结果上与实践值之间的误差大小。
4. 可保养性:一个算法代码能否易于了解和修正。
在这些方面启动优化可以大幅提高算法效率和数据处置速度,优化数据剖析的品质和成果。
文章评论