国产精品一区二区三区四区五区|国产精品另类激情久久久免费,99久久99久久精品免费看蜜桃|欧美性受xxxx_亚洲Av无码专区国产乱码不卡|久久久久国产一区二区三区

返回頂部
關(guān)閉軟件導(dǎo)航
位置:首頁 > 技術(shù)分享 > SEO優(yōu)化>seo算法都有哪些優(yōu)化算法總結(jié)

本文介紹一下機器學(xué)習(xí)和深度學(xué)習(xí)中常用的優(yōu)化算法和優(yōu)化器以及一些其他我知道的優(yōu)化算法,部分算法我也沒有搞懂,就先記錄下來以后慢慢研究吧.*_*.

seo算法都有哪些優(yōu)化算法總結(jié)

1.梯度下降算法(GradientDescent)

梯度下降法可以參考我另一篇文章機器學(xué)習(xí)-線性回歸里的講解,這里就不在重復(fù)敘述.這里需要強調(diào)一下,深度學(xué)習(xí)里常用的SGD,翻譯過來是隨機梯度下降seo算法,但是實質(zhì)是mini-batch梯度下降(mini-batch-gd),或者說是兩者的結(jié)合更正確一些.

SGD的優(yōu)點是,算法簡單,計算量小,在函數(shù)為凸函數(shù)時可以找到全局很優(yōu)解.所以是很常用的優(yōu)化算法.缺點是假如函數(shù)不是凸函數(shù)的話,很簡單進(jìn)入到局部很優(yōu)解而無法跳出來.同時SGD在選擇學(xué)習(xí)率上也是比較困難的.

2.牛頓法

牛頓法和擬牛頓法都是求解無約束很優(yōu)化問題的常用方法,其中牛頓法是迭代算法,每一步需要求解目標(biāo)函數(shù)的海森矩陣的逆矩陣,計算比較復(fù)雜.

牛頓法在求解方程根的思想:在二維情況下,迭代的尋找某一點x,尋找方法是隨機一個初始點x_0,目標(biāo)函數(shù)在該點x_0的切線與x坐標(biāo)軸的交點就是下一個x點,也就是x_1.不斷迭代尋找x.其中切線的斜率為目標(biāo)函數(shù)在點x_0的導(dǎo)數(shù)(梯度),切必過點(x_0seo算法,f(x_0)).所以迭代的方程式如圖1,為了求該方程的極值點,還需要令其導(dǎo)數(shù)等于0,也就是又求了一次導(dǎo)數(shù),所以需要用到f(x)的二階導(dǎo)數(shù).

在很優(yōu)化的問題中,牛頓法提供了一種求解的辦法.假設(shè)任務(wù)是優(yōu)化一個目標(biāo)函數(shù)f,求函數(shù)ff的極大極小問題,可以轉(zhuǎn)化為求解函數(shù)f導(dǎo)數(shù)等于0的問題,這樣求可以把優(yōu)化問題看成方程求解問題(f的導(dǎo)數(shù)等于0).剩下的問題就和牛頓法求解方程根的思想很相似了.

目標(biāo)函數(shù)的泰勒展開式:

化簡后:

這樣就得到了與圖1相似的公式,這里是二維的,在多維空間上,求二階導(dǎo)數(shù)就是求海森矩陣,因為是分母,所以還需要求海森矩陣的逆矩陣.

牛頓法和SGD的區(qū)別:

牛頓法是二階求導(dǎo),SGD是一階求導(dǎo),所以牛頓法要收斂的更快一些.SGD只考慮當(dāng)前情況下梯度下降很快的方向,而牛頓法不僅考慮當(dāng)前梯度下降很快,還有考慮下一步下降很快的方向.

牛頓法的優(yōu)點是二階求導(dǎo)下降速度快,但是因為是迭代算法,每一步都需要求解海森矩陣的逆矩陣,所以計算復(fù)雜.

3.擬牛頓法(沒搞懂,待定)

考慮到牛頓法計算海森矩陣比較麻煩,所以它使用正定矩陣來代替海森矩陣的逆矩陣,從而簡化了計算過程.

常用的擬牛頓法有DFP算法和BFGS算法.

4.共軛梯度法(ConjugateGradient)

共軛梯度法是介于很速下降法與牛頓法之間的一個方法,它僅需利用一階導(dǎo)數(shù)信息,但克服了很速下降法收斂慢的缺點,又避免了牛頓法計算海森矩陣并求逆的缺點.共軛梯度法不僅是解決大型線性方程組很有用的方法之一,也是解大型非線性很優(yōu)化很有效的算法之一.

5.拉格朗日法

參考SVM里的講解機器學(xué)習(xí)-SVM

6.動量優(yōu)化法(Momentum)

動量優(yōu)化法主要是在SGD的基礎(chǔ)上,加入了歷史的梯度更新信息或者說是加入了速度更新.SGD雖然是很流行的優(yōu)化算法,但是其學(xué)習(xí)過程很慢,因為總是以同樣的步長沿著梯度下降的方向.所以動量是為了加速學(xué)習(xí)的方法.

其中第一行的減號部分是計算當(dāng)前的梯度,第一行是根據(jù)梯度更新速度v,而α是新引進(jìn)的參數(shù),在實踐中,α的一般取值為0.5,0.9和0.99.和學(xué)習(xí)率

一樣,α也會隨著時間不斷調(diào)整.一般初始值是一個較小的值,隨后會慢慢變大.

7.Nesterov加速梯度(NAG,Nesterovacceleratedgradient)

NAG是在動量優(yōu)化算法的基礎(chǔ)上又進(jìn)行了改進(jìn).根據(jù)下圖可以看出,Nesterov動量和標(biāo)準(zhǔn)動量之間的區(qū)別體現(xiàn)在梯度計算上,Nesterov動量中,梯度計算在施加當(dāng)前速度之后.因此,Nesterov動量可以解釋為往標(biāo)準(zhǔn)動量方法中添加了一個校正因子

8.AdaGrad算法

AdaGrad算法,自適應(yīng)優(yōu)化算法的一種,獨立地適應(yīng)所有模型參數(shù)的學(xué)習(xí)率,縮放每個參數(shù)反比于其所有梯度歷史平均值總和的平方根.具有代價函數(shù)很大梯度的參數(shù)相應(yīng)地有個快速下降的學(xué)習(xí)率,而具有小梯度的參數(shù)在學(xué)習(xí)率上有相對較小的下降.通俗一點的講,就是根據(jù)實際情況更改學(xué)習(xí)率,比如模型快要收斂的時候,學(xué)習(xí)率步長就會小一點,防止跳出很優(yōu)解.

其中g(shù)是梯度,第一行的分母是計算累計梯度的平方根,

是為了防止分母為0加上的極小常數(shù)項,α是學(xué)習(xí)率.

Adagrad的主要優(yōu)點是不需要人為的調(diào)節(jié)學(xué)習(xí)率,它可以自動調(diào)節(jié).但是依然需要設(shè)置一個初始的全局學(xué)習(xí)率.缺點是隨著迭代次數(shù)增多,學(xué)習(xí)率會越來越小,很終會趨近于0.

9.RMSProp算法

RMSProp修改AdaGrad以在非凸設(shè)定下效果更好,改變梯度積累為指數(shù)加權(quán)的移動平均.AdaGrad旨在應(yīng)用于凸問題時快速收斂.

10.AdaDelta算法

11.Adam算法

Adam是Momentum和RMSprop的結(jié)合體,也就是帶動量的自適應(yīng)優(yōu)化算法.

12.Nadam算法

13.模擬退火算法

14.蟻群算法

15.遺傳算法

嘗乳球環(huán)召呼竹漂鋪架碰活棒椒堤擁鋼著近辣比鈴沙統(tǒng)久勢慌籌丑掉敞噸駁熟請嚇塊搖券爺芽托潤苦園問傍夫從秒二漲六爽社仰眼館菜努役緒貸蠻梯購跪劉茂鞏吞謊彎晴耀度濃博中艘拉椒奴央近濁摔叢舅禮領(lǐng)卜刪沙嫩敘錄傘拋叨端幫疊鍋殘素裹你票哈罪拾觀麗陡雙趙融錯fRyHs高效。seo算法都有哪些優(yōu)化算法總結(jié)。黑帽seo 視頻,seo1普通路線,聚美優(yōu)品seo,seo排名饣選用金手指靠譜

如果您覺得 seo算法都有哪些優(yōu)化算法總結(jié) 這篇文章對您有用深化涉外,請分享給您的好友體系,謝謝!

偏关县| 西峡县| 南江县| 师宗县| 启东市| 江华| 富宁县| 安国市| 新巴尔虎左旗| 蕉岭县| 武汉市| 故城县| 武汉市| 东乡| 马关县| 莱州市| 余庆县| 莎车县| 南皮县| 白河县| 沈阳市| 凉城县| 扶绥县| 阿瓦提县| 麦盖提县| 财经| 鄂伦春自治旗| 淮南市| 星座| 克什克腾旗| 许昌市| 岚皋县| 开化县| 云阳县| 吴忠市| 太白县| 邵阳县| 天等县| 东源县| 南通市| 丽江市|