基于LS-SVM和PSO的盾构机密封船土压预测    中山沙溪升降车出租
来源: admin   发布时间: 2017-11-13   1016 次浏览   大小:  16px  14px  12px
中山沙溪升降车出租, 中山沙溪升降车公司, 中山沙溪升降车

    基于LS-SVM和PSO的盾构机密封船土压预测    中山沙溪升降车出租, 中山沙溪升降车公司, 中山沙溪升降车   支持向量机回归理论,  软测量技术与支持向量机的提出软测量技术主要用来解决生产过程中产品指标的可检测性和实时问题,其基本思想是根据某种最优准则,选择一些易于测量的变量,亦称辅助变量,通过构建某种数学关系建立一个推理模型,进而用该模型预测难以在线测量的变量,亦称主导变量。软测量技术把自动控制理论与生产过程知识很好的结合到一起,实现了用软件来代替硬件的功能。软测量技术的使用,实现了可以在线检测元素组分含量,且经济可靠,动态响应迅速,预测结果更精确。软测量技术作为一种检测技术巳成为过程优化控制领域的强有力工具,无论在科学研究还是实际应用中,均取得了较大的成果。但由于基于数据驱动的软测量建模方法只能靠以往的经验来确定模型,因此很大程度上受人为影响。另外,此方法可解释性差,容易受数据样本的影响,使建模效果无法预测。这导致了许多相关的研究目前还处于理论研究和软件仿真阶段,尚未得到实际应用,例如有些软仪表有着较高的拟合精度却预测精度低,有些抗干扰性不好,计算复杂,导致不能实时地在线更新和优化。因此有关软测量建模方法的研究,还有好多工作要做。为了解决以上问题,基于统计学习理论的支持向量机技术应运而生。





   支持向量机是数据挖掘研宄领域中的一种重要技术,是利用最优方法去解决机器学习问题的有效手段,近些年来在其基础研宄和实际应用等方面都得到了较大的发展,并且在模式识别等相关方面获得了普遍的运用。支持向量机理论是根据统计学习理论的VC维理论和结构风险最小原则而提出的,它利用有限的样本数据在模型的复杂性和学习能力之间寻找最佳折衷,以期获得最好的泛化能力。




   支持向量机依据预先选择的一种非线性映射,把输入量映射到一个高维特征空间中去。支持向量机理论基于线性可分的最优分类面产生,这样可以将所有训练样本准确合理的进行分类。它的主要思想是寻找一个超平面,让它可以尽量多的将两种数据点正确分离,并同时保证分离的两类数据点到分类面的距离最远。此外,为了防止在高维特征空间中进行复杂的非线性运算,因此在支持向量机中运用了核函数的措施,它可以把高维空间的内积运算变成初始空间中的核函数的计算,不仅避免了“维数灾难”问题,并且无需知道非线性变换函数的具体形式,而且能够在维数接近于无穷大的特征空间中进行分类。Mercer条件是核函数必须要满足的,同时并且核函数要做到尽量准确地反映训练样本的分布情况。因此,如何正确的选择核函数是研究和应用支持向量机理论过程中的一项关键技术,但如今就核函数及其参数的选择问题,尚无有效的解决办法,相同的实验样本,假如使用不同的核函数,其分类精度通常差别较大;同样的核函数,不同的参数,其分类精度同样亦会有着较大的差别。在实践应用时,通常采用以下三种核函数:径向基核函数、多项式核函数和Sigmoid核函数。在具体选择时,应考虑不同问题的情况以及多次仿真试验,找出最佳的核函数及其相关参数。此外,RBF核函数可以说是一种普遍适用的核函数,经过参数的调整,它能够适用于随意分布的实验样本,如今运用在支持向量机中最多的就是RBF核函数。在结构上,支持向量分类函数跟一个神经网络系统非常相似,输出为各个中间节点的线性组合,而各个中间节点又对照了一个支持向量。现设支持向量机输入为一个三维的向量,共有丨个训练样本,则可把它表示,支持向量机的目的其实是利用这/个训练样本来寻找出最优决策函数。支持向量机是通过一个非线性映射将输入样本空间映射到一个高维特征空间,并且在高维特征空间中进行线性回归。支持向量机是解决非线性分类、函数估计和密度评估的一种强有力的方法,极大地促进了基于核函数学习方法的发展,在机器学习领域及其应用领域,都有其重大贡献。



    中山沙溪升降车出租, 中山沙溪升降车公司, 中山沙溪升降车 http://www.chuzupingtai.com/





       最小二乘支持向量机是在标准支持向量机的基础上的一种改进,它是支持向量机在二次损失函数下的一种特殊形式。与标准支持向量机相比较,它是在原始的对偶空间中求解,而没有使用支持向量机中的一次损失函数,而是利用最小二乘线性系统作为损失函数,并且在优化指标中釆用了平方项,釆用等式约束替换了不等式约束,将二次规划问题变为求解线性方程组,所以在很大程度上降低了运算的复杂性。相对于标准支持向量机,最小二乘支持向量机具有更强的泛化能力,可以更好的解决小样本、高维数、非线性等实际问题,并且最小二乘支持向量机比标准支持向量机还具有更高的训练速度。 尤其在解决凸优化问题时,特别是二次优化问题方面,最小二乘支持向量机通过求解线性KKT系统,从而代替标准SVM算法的非等式约束问题,将支持向量机中的不等式问题转化为线性问题,大大降低了计算的复杂性,运算速度要明显快于支持向量机的其他形式,因此LS-SVM算法越来越受到软测量研究领域的关注。以下为最小二乘支持向量机原理详细的推导过程:给出/个训练样本,维训练样本的输入变量,是训练样本的输出变量,训练样本的总量。其算法的目的就是要依据这个训练样本来求解出来一个最优决策函数,其表达形式,其中6是偏置常数项,系数向量。而LS-SVM算法的目标优化函数, 其中,是非线性核空间映射函数,e为误差变量,0为正则化参数或惩司因子。将输入空间变量映射到高维特征空间中,从而将原始样本空间中的线性不可分的问题变成高维特征空间中的线性可分问题。采用拉格朗日法来求解此优化问题,为了将约束优化问题变成无约束的二次规划问题,在此引入拉格朗日乘子,得到矩阵形式的线性方程组,为满足Mercer准则的核函数。继续求解线性方程组,得到a和/>,最后得到LS-SVM的回归函数模型.  粒子群算法粒子群算法最早由Kennedy和Eberhart提出,是在模拟鸟类飞行运动的基础上而提出的群体智能优化算法。粒子群算法因为其方便实现、收敛速度快、精度高等优点,自提出以来便引起了的关注,并且逐渐在实践应用的过程中显示了其独特的优势。目前已经在神经网络训练、函数或目标参数优化、模糊系统控制等方面获得了广泛的运用。





    粒子群算法的核心原则就是首先随机初始一个种群,种群中的每个个体均是没有体积没有质量的,每个粒子代表了问题的一个解向量,并且将此解向量带入到适应度函数中,粒子的优劣根据适应度函数值来评判。种群中的每个个体均在候选给定解的范围内参考某个速度向量活动。并通过个体和全局最优学习来不断更新粒子的位置和速度,从而实现全局最优。每个个体通常会跟随适应度函数值最好的个体运动,每一轮寻优后会找出此轮中最好的个体。而在每一轮寻优过程中,种群中的每个个体必须参考两个标准进行寻优:一是每个独立个体进行局部寻优,即在一轮寻优中找到自身的最好值;二是全部个体进行全局寻优,即在全部个体中寻找到最好值。通过个体和全局最优学习来不断更新粒子的位置和速度,从而实现全局最优。PSO算法首先随机初始化一个含有一个粒子的种群,通过数次迭代学习找到最俄解。个体最优值为一个粒子曾经经过的最优位置,全局最优值为粒子群中所有粒子曾经经过的最优位置中最优的一个。主要由三个部分构成:第一部分是粒子对过去运动速度的继承;第二部分是粒子对自身的认知情况,具体表现为一个逐渐学习的过程;第三部分为粒子从群体得到的认知情况,具体表现为个体之间进行信息共享和相互合作。




    中山沙溪升降车出租, 中山沙溪升降车公司, 中山沙溪升降车