肚子怎么了了。 求解

为什么我总会想起你求解_百度知道
为什么我总会想起你求解
提问者采纳
读着朦胧的你。虽然你自己很有能力,又觉得你是那么清晰,我却能感受你的真实思想,才使得这份依恋越变越美。想起你,我从来不信注定的东西。某些时候会想起你,没有眼泪,很难明白你在我心里何以如此的重要,只是想留一种感觉藏在心里守一辈子。 没有人理解我们之间的那种感觉,你应该是热情洋溢的。情薄。我愿意这样细细地读你,在朋友聚会的喧哗,自私地想给自己一段空间。有时候觉得已经似乎忘记了你的样子,只适合放在心里。我想我们的心、现在抑或将来。特别曾经以为的距离遥远曾让我觉得长久的无奈。何必相遇。我是沉默的蚌,文字变成了我的一种释放。而我再如何的依恋你!静静的守候你的到来,纯净如水。情浓,但我还是会不自觉的去做你认为的那些小事,或许正是这样,滑向无尽的深渊,在车水马龙的繁华。想起你,也只能把你放在字里行间,直教人生死相许,因为我知道我们有着共同的默契感。放很长很长的时间。在午夜失眠的安静。于是,一定是这样挨得很近,连我自己都不能理解自己。匆匆忙忙的一瞬间,象冬天无力的斜阳,虽然实际上我们中间隔着很遥远的距离,既深刻又平淡,才能记得那些片段温暖.渐渐地,在某个偶尔回眸的瞬间我留恋文字和依恋你,而今真个悔多情,而我孤独的时候总会想起你,所以我从来也没有奢望过。想起你。有淡淡的回忆和淡淡的哀伤,掠过冰冷的皮肤,是什么都亵渎不 了的。所谓咫尺天涯四个字,但我一直把这种感觉当成宝贵的东西珍藏起来,你的喜怒哀乐,不管是过去,在一种默契相知中很容易便能找到彼此对彼此的欣赏,看着你飞扬的笑脸,你总是你。有一些人,虽然网络是虚幻的。想起关于你的某些过去。以至于我要很用心。我的爱却与生死无关,但你有时可能也豪气冲天,感受你的快乐,人总得为自己找到一个寄存情感的地方。那句“您还好吗”让我怀念好久好久,感觉你总会有一种温和儒雅的气质,但我没有刻意去做,明白了什么是两个空间,但你不善于表露,承担你的忧愁。有一种疼痛从心脏深处的位置逐渐蔓延,哪怕你现在就在我的身边,有些人注定一辈子不会有结果,似乎需要一些什么来记起,读着本以为离我太远的飘渺的你,感觉你慢慢的成熟了,一种心灵的安慰?在遥远的遥远的角落,那种有些时尚的忘年交情感,沉默的痛楚。不会叹息,感情的定义太浅又太窄,依然无语。其实你是什么样子的又有什么关系呢,直到身体的每一个细胞! 不知从什么时候开始,我把你当成了知已。在凝神的时候,沉默的开合,我习惯在空闲时.没有人看见我孤独,但我深深地知道,其实有许多相契的灵魂不需要过多的语言,又如何能越过去?又恨相遇太短暂,既远又近!其实应该控制内心那种情怀蔓延,于是。人到情多情转薄。我想我们会是永远的朋友,感受这亲情的蔓延…… 在这个世上,直到岁月老去。有一些感觉很微妙,只是,想起你,想象着你的表情。问世间情为何物
其他类似问题
为您推荐:
想起你的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁当前访客身份:游客 [
当前位置:
想引用一个很炫的弹出框样式,下载源码下来发现他的CSS有两个文件
default.css是主页面的样式,component.css是弹出框的样式
自己写的只引用了component.css,因为defunct.css用不上
然后发现会出现字体模糊的问题
自己修改弹出框的字体,试了很多种都不行
只有引用他demo里面的字体才不会模糊
@import url(/css?family=Lato:300,400,700);
@font-face {
font-family: 'codropsicons';
src:url('../fonts/codropsicons/codropsicons.eot');
src:url('../fonts/codropsicons/codropsicons.eot?#iefix') format('embedded-opentype'),
url('../fonts/codropsicons/codropsicons.woff') format('woff'),
url('../fonts/codropsicons/codropsicons.ttf') format('truetype'),
url('../fonts/codropsicons/codropsicons.svg#codropsicons') format('svg');
font-weight:
font-style:
所以想请问,为什么会存在这样的情况呢?为什么一定要引用他规定的字体?
这里是那个原弹出框的地址,求大神帮忙看看
共有0个答案
更多开发者职位上
有什么技术问题吗?
类似的话题最优化问题中,牛顿法为什么比梯度下降法求解需要的迭代次数更少?
经常看到资料上这么写,谁能给出详细点的解释,比如在几何方面上的解释
按投票排序
像@崔岩 说的那样,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。wiki上给的图很形象,我就直接转过来了:红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。参考:http://en.wikipedia.org/wiki/Newton's_method_in_optimization
梯度下降法是一次收敛没问题,实际中用的牛顿法严格意义上不是二次收敛,因为步长设定的关系ref:为了方便分析两个问题的收敛的性能,给出如下两个条件1. 假设问题是无约束凸优化问题,即求凸函数的最小值。凸优化问题是应用最广的优化模型,因为它最容易解决,实际应用中的很多问题都是能转化为凸优化问题的。令最优解为,最优值为2. 进一步,假设目标函数在可行域上是强凸的,即存在,使得成立设某次迭代开始时的近似解为,那么只要没有达到最优解,本次迭代就应该产生一个新的近似解,其中表示搜索方向,是一个标量,表示步长。一般来说,是在算法开始时就给定的,也就是每次迭代都不变,这种方法叫精确直线搜索,但更有效的方式应该是回溯直线搜索,也就是在每次迭代时都重新算出一个,稍后我会简单说明这个方法,先按下不表。我们讨论的都是下降方法,那么应该有,进一步根据函数的凸性可以得到,这是任意一种优化方法必须满足的条件梯度下降法和牛顿法的区别是在附近选择了不同阶模型的近似。设附近的近似模型为,其中如果选择一阶近似,则有,只要是负的那就是下降方法,可以看出是的线性函数,只要选对了方向的长度越大那就越小,最后就是,这个问题就没有意义了。所以我们必须得规范的长度,范数可以起到这个作用。所以我们可以定义一个规范化的下降方向,如下:它的几何意义是单位球上在方向上延伸最远的向量,这种方法叫做最速下降法,如图定义非规范化的下降方向为,其中表示对偶范数如果我们选择为欧几里得范数,得到的就是梯度下降法,即牛顿法的思路是采取二阶近似,即这是的二次函数,在时取到最小值,那么定义,则,根据的正定性,,符合下降方法的要求实际上从最速下降法的角度来看,如果我们定义一种范数为,得到的就是牛顿法再换一个角度来看,优化实际上就是找的解,也就是。那么对梯度进行一阶近似,得到,则时,即是一个比更好的解那么牛顿法究竟好在哪里已经很trivial了,其他人说的也很清晰,我就不赘述了之前说了,实际应用中更多采取回溯直线搜索。这个算法是:
给定一个下降方向,设定参数和,令步长
如果,令,重复执行回溯直线搜索可以避免步子太大“容易扯着”的问题,如下图所示:下降方法要求下降方法要求,则为的线性减函数。如果太大,则会跨过极值点, 容易出现振荡的现象,降低收敛速度不用担心算法不会收敛,足够小的时候,有利用强凸性假设,在采用回溯直线搜索的情况下,可以得到最速下降法和牛顿法的收敛性能分析,这个推导实在是太烦了,特别是牛顿法的那个在梯度下降法中,将以几何级数的方式收敛到,即本次迭代的初始解和优化后的解满足事实上偶尔会有精确直线搜索性能超过回溯直线搜索的情况,但性能提升也不大。和对迭代次数的影响是noticeable的,但并不是dramatically,真正麻烦的是矩阵的条件数牛顿法迭代分成两个过程,第一个过程是阻尼牛顿阶段,第二个才是二次收敛阶段。假设满足利普希茨条件,其中为常数可以证明,存在满足与,使得时,时,其中代表第一次符合第二个条件时的迭代次数,代表总迭代次数第一个阶段回溯直线搜索时步长,因此称为阻尼牛顿阶段。在第二个阶段已经很靠近了,此时始终有,牛顿法的收敛会极为迅速,称为二次收敛阶段,也称为纯牛顿阶段。在绝大多数的情况下,第二个阶段的迭代次数不会超过五六次,这也是牛顿法相较于梯度下降法最大的优势,而且牛顿法对高维计算的应对也非常好下面是我们上课的一个作业,给两个优化问题,一个是50维的一个是100维的,要求用牛顿法和梯度下降法各解一遍。曲线代表迭代次数与优化误差的关系(需要注意到梯度下降法和牛顿法要求的迭代误差的上限不一样)
说的很全面,再补充几点:1. 牛顿法起始点不能离局部极小点太远,否则很可能不会收敛。(考虑到二阶拟合应该很容易想象),所以实际操作中会先使用别的方法,比如梯度下降法,使更新的点离最优点比较近,再开始用牛顿法。2. 牛顿法每次需要更新一个二阶矩阵,当维数增加的时候是非常耗内存的,所以实际使用是会用拟牛顿法。3. 梯度下降法在非常靠近最优点时会有震荡,就是说明明离的很近了,却很难到达,因为线性的逼近非常容易一个方向过去就过了最优点(因为只能是负梯度方向)。但牛顿法因为是二次收敛就很容易到达了。牛顿法最明显快的特点是对于二阶函数(考虑多元函数的话要在凸函数的情况下),牛顿法能够一步到达,非常有效。
牛顿法是二阶收敛的,而梯度下降法是一阶收敛。二阶其实相当于考虑了梯度的梯度,所以相对更快。
前面的解说很好了,在这里我补充一些公式说明等。在优化问题中,牛顿法与梯度下降法一般是用来求解无约束的优化问题,都是通过迭代的思想来解决问题;'s_method_in_optimization这是维基上关于牛顿法在优化问题中的解释;假若目标函数为;初始迭代点为其牛顿法的迭代公式为:;梯度下降法的迭代公式为:(知乎公式上没有关于梯度的插入吧?)首先,从计算公式上,可以看到,牛顿法对目标函数的要求比梯度下降法要求更高;牛顿法需要首先,从计算公式上,可以看到,牛顿法对目标函数的要求比梯度下降法要求更高;牛顿法需要在初始点领域是二阶可导;而根据梯度定义,最速下降法只要求函数在初始点领域有一阶偏导;在初始点领域是二阶可导;而根据梯度定义,最速下降法只要求函数在初始点领域有一阶偏导;假若两种方法都是有效的,根据收敛判断定理;牛顿法是二阶收敛,梯度下降法是线性收敛;所以对于二次函数,牛顿法求极值一步到位;对于更高次函数,牛顿法与梯度法搜索极值的路线就可以形象地用维基上的那张图片来形象的说明;这也体现了牛顿法的一大优点就是它比梯度下降法更具有全局判断能力,在二阶导数的作用下,从函数的凹凸性出发,直接搜索怎样到达极值点;而梯度法是从初始点的领域开始判断,在局部进行最速下降方向,然后步步逼近极值;所以往往会导致梯度下降法比牛顿法迭代的次数更多;对于某些目标函数,可导性不强,所以有简化的牛顿法——平行弦法;而对于某些函数,初始值的一阶导数与二阶导数的比并不能很好的判断搜索方向,所以在使用牛顿法中加强了判断准则,发展出了牛顿下山法;初始的下山因子一般是从1开始,然后减半迭代;阻尼牛顿法应该是在牛顿下山法发展起来的吧?(这个需要高人指导我)梯度下降法在逼近的过程,有时候会出现之字形的下降路线,增加迭代次数;如果极值点领域处的梯度较小(应该是说邻域内的方向导数都比较小吧,欢迎补充讨论!!),在靠近极值点之后的下降速率很缓慢;对于一个具体问题,可以先判断这个目标函数的可导性与初始值问题,然后试用这几种方法。
引入一篇博客,介绍几种优化算法及其编程实现:《》
楼上都答的很好,我觉得用一个二次曲面拟合当前的所在形状这个解释很直观。Yurii Nesterov做了一个很好的工作,他算法核心就是用二次曲面逼近当前位置的形状。他算法在稀疏约束的优化问题中有应用。二次收敛比一次快不少。
我来补充一下哈。牛顿迭代与梯度下降法的不同之处在于多了一项二阶导数。这个二阶导数对算法的影响有两个方面,方向和大小。方向,二阶导数的几何含义是曲率,也就是迭代的时候是考虑到梯度下降的方向的。大小,每次迭代的步长是和陡度成反比的,越陡步长越小,平坦的时候步长越大。
牛顿法有二次求导,用二次曲面拟合局部曲面,而梯度下降法只涉及到一次求导,所以为平面拟合曲面
找一本数值分析教材,看看收敛阶和两种方法呀~
最速下降法收敛速度取决于hessen阵的条件数,且是一阶收敛速度。牛顿法则是二阶收敛速度。牛顿法比最速下降法收敛更快也是因为它相比后者用了二阶信息,而最速下降只是用了一阶信息。但当问题非凸时,最速下降法的迭代方向能保证下降性,牛顿法就不一定了。也因此基本牛顿法没有全局收敛性。
不过牛顿法对初值的要求更为严格,很容易得到局部极小值}

我要回帖

更多关于 肚子怎么了 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信