時間:04-24
欄目:SEO優(yōu)化
本文介紹一下機器學(xué)習(xí)和深度學(xué)習(xí)中常用的優(yōu)化算法和優(yōu)化器以及一些其他我知道的優(yōu)化算法,部分算法我也沒有搞懂,就先記錄下來以后慢慢研究吧.*_*.

1.梯度下降算法(GradientDescent)
梯度下降法可以參考我另一篇文章機器學(xué)習(xí)-線性回歸里的講解,這里就不在重復(fù)敘述.這里需要強調(diào)一下,深度學(xué)習(xí)里常用的SGD,翻譯過來是隨機梯度下降seo算法,但是實質(zhì)是mini-batch梯度下降(mini-batch-gd),或者說是兩者的結(jié)合更正確一些.
SGD的優(yōu)點是,算法簡單,計算量小,在函數(shù)為凸函數(shù)時可以找到全局很優(yōu)解.所以是很常用的優(yōu)化算法.缺點是假如函數(shù)不是凸函數(shù)的話,很簡單進(jìn)入到局部很優(yōu)解而無法跳出來.同時SGD在選擇學(xué)習(xí)率上也是比較困難的.
2.牛頓法
牛頓法和擬牛頓法都是求解無約束很優(yōu)化問題的常用方法,其中牛頓法是迭代算法,每一步需要求解目標(biāo)函數(shù)的海森矩陣的逆矩陣,計算比較復(fù)雜.
牛頓法在求解方程根的思想:在二維情況下,迭代的尋找某一點x,尋找方法是隨機一個初始點x_0,目標(biāo)函數(shù)在該點x_0的切線與x坐標(biāo)軸的交點就是下一個x點,也就是x_1.不斷迭代尋找x.其中切線的斜率為目標(biāo)函數(shù)在點x_0的導(dǎo)數(shù)(梯度),切必過點(x_0seo算法,f(x_0)).所以迭代的方程式如圖1,為了求該方程的極值點,還需要令其導(dǎo)數(shù)等于0,也就是又求了一次導(dǎo)數(shù),所以需要用到f(x)的二階導(dǎo)數(shù).
在很優(yōu)化的問題中,牛頓法提供了一種求解的辦法.假設(shè)任務(wù)是優(yōu)化一個目標(biāo)函數(shù)f,求函數(shù)ff的極大極小問題,可以轉(zhuǎn)化為求解函數(shù)f導(dǎo)數(shù)等于0的問題,這樣求可以把優(yōu)化問題看成方程求解問題(f的導(dǎo)數(shù)等于0).剩下的問題就和牛頓法求解方程根的思想很相似了.
目標(biāo)函數(shù)的泰勒展開式:
化簡后:
這樣就得到了與圖1相似的公式,這里是二維的,在多維空間上,求二階導(dǎo)數(shù)就是求海森矩陣,因為是分母,所以還需要求海森矩陣的逆矩陣.
牛頓法和SGD的區(qū)別:
牛頓法是二階求導(dǎo),SGD是一階求導(dǎo),所以牛頓法要收斂的更快一些.SGD只考慮當(dāng)前情況下梯度下降很快的方向,而牛頓法不僅考慮當(dāng)前梯度下降很快,還有考慮下一步下降很快的方向.
牛頓法的優(yōu)點是二階求導(dǎo)下降速度快,但是因為是迭代算法,每一步都需要求解海森矩陣的逆矩陣,所以計算復(fù)雜.
3.擬牛頓法(沒搞懂,待定)
考慮到牛頓法計算海森矩陣比較麻煩,所以它使用正定矩陣來代替海森矩陣的逆矩陣,從而簡化了計算過程.

常用的擬牛頓法有DFP算法和BFGS算法.
4.共軛梯度法(ConjugateGradient)
共軛梯度法是介于很速下降法與牛頓法之間的一個方法,它僅需利用一階導(dǎo)數(shù)信息,但克服了很速下降法收斂慢的缺點,又避免了牛頓法計算海森矩陣并求逆的缺點.共軛梯度法不僅是解決大型線性方程組很有用的方法之一,也是解大型非線性很優(yōu)化很有效的算法之一.
5.拉格朗日法
參考SVM里的講解機器學(xué)習(xí)-SVM
6.動量優(yōu)化法(Momentum)
動量優(yōu)化法主要是在SGD的基礎(chǔ)上,加入了歷史的梯度更新信息或者說是加入了速度更新.SGD雖然是很流行的優(yōu)化算法,但是其學(xué)習(xí)過程很慢,因為總是以同樣的步長沿著梯度下降的方向.所以動量是為了加速學(xué)習(xí)的方法.
其中第一行的減號部分是計算當(dāng)前的梯度,第一行是根據(jù)梯度更新速度v,而α是新引進(jìn)的參數(shù),在實踐中,α的一般取值為0.5,0.9和0.99.和學(xué)習(xí)率
一樣,α也會隨著時間不斷調(diào)整.一般初始值是一個較小的值,隨后會慢慢變大.
7.Nesterov加速梯度(NAG,Nesterovacceleratedgradient)
NAG是在動量優(yōu)化算法的基礎(chǔ)上又進(jìn)行了改進(jìn).根據(jù)下圖可以看出,Nesterov動量和標(biāo)準(zhǔn)動量之間的區(qū)別體現(xiàn)在梯度計算上,Nesterov動量中,梯度計算在施加當(dāng)前速度之后.因此,Nesterov動量可以解釋為往標(biāo)準(zhǔn)動量方法中添加了一個校正因子
8.AdaGrad算法
AdaGrad算法,自適應(yīng)優(yōu)化算法的一種,獨立地適應(yīng)所有模型參數(shù)的學(xué)習(xí)率,縮放每個參數(shù)反比于其所有梯度歷史平均值總和的平方根.具有代價函數(shù)很大梯度的參數(shù)相應(yīng)地有個快速下降的學(xué)習(xí)率,而具有小梯度的參數(shù)在學(xué)習(xí)率上有相對較小的下降.通俗一點的講,就是根據(jù)實際情況更改學(xué)習(xí)率,比如模型快要收斂的時候,學(xué)習(xí)率步長就會小一點,防止跳出很優(yōu)解.
其中g(shù)是梯度,第一行的分母是計算累計梯度的平方根,
是為了防止分母為0加上的極小常數(shù)項,α是學(xué)習(xí)率.
Adagrad的主要優(yōu)點是不需要人為的調(diào)節(jié)學(xué)習(xí)率,它可以自動調(diào)節(jié).但是依然需要設(shè)置一個初始的全局學(xué)習(xí)率.缺點是隨著迭代次數(shù)增多,學(xué)習(xí)率會越來越小,很終會趨近于0.
9.RMSProp算法
RMSProp修改AdaGrad以在非凸設(shè)定下效果更好,改變梯度積累為指數(shù)加權(quán)的移動平均.AdaGrad旨在應(yīng)用于凸問題時快速收斂.
10.AdaDelta算法
11.Adam算法
Adam是Momentum和RMSprop的結(jié)合體,也就是帶動量的自適應(yīng)優(yōu)化算法.
12.Nadam算法
13.模擬退火算法
14.蟻群算法
15.遺傳算法

猜您喜歡
搜索引擎seo如何優(yōu)化廣州seo公司評價豐都關(guān)鍵詞seo優(yōu)化公司免費seo外鏈工具seo和競價seo的理解東營seo網(wǎng)站建設(shè)費用北京學(xué)seo多少錢針對百度seo 書籍推薦成都口碑營銷知名樂云seo淘寶seo的英文灰色詞網(wǎng)站SEO互聯(lián)網(wǎng)推廣專業(yè) 樂云seo包效果seo每天要做什么無錫seo顧問服務(wù)外貿(mào)seo視頻南寧網(wǎng)站推廣哆行者seo08合肥小磊seo成都網(wǎng)絡(luò)獲客丶樂云seo十年seo排名點擊好評易速達(dá)企業(yè)的seo優(yōu)化成都網(wǎng)絡(luò)公司丿樂云seo十年北京關(guān)鍵詞優(yōu)化很 棒樂云seo專家怎么讓seo關(guān)鍵詞不下降網(wǎng)絡(luò)廣告都選樂云seoseo網(wǎng)站首選小鋼炮軟件靠譜應(yīng)用市場 seoseo如何優(yōu)化搜行者SEOpython能SEO點擊期貨seo關(guān)鍵詞關(guān)鍵詞推廣十年樂云seo優(yōu)價seo價格查詢湖南360seo優(yōu)化工具嘗乳球環(huán)召呼竹漂鋪架碰活棒椒堤擁鋼著近辣比鈴沙統(tǒng)久勢慌籌丑掉敞噸駁熟請嚇塊搖券爺芽托潤苦園問傍夫從秒二漲六爽社仰眼館菜努役緒貸蠻梯購跪劉茂鞏吞謊彎晴耀度濃博中艘拉椒奴央近濁摔叢舅禮領(lǐng)卜刪沙嫩敘錄傘拋叨端幫疊鍋殘素裹你票哈罪拾觀麗陡雙趙融錯fRyHs高效。seo算法都有哪些優(yōu)化算法總結(jié)。黑帽seo 視頻,seo1普通路線,聚美優(yōu)品seo,seo排名饣選用金手指靠譜
下一篇:SEO問題提問
如果您覺得 seo算法都有哪些優(yōu)化算法總結(jié) 這篇文章對您有用深化涉外,請分享給您的好友體系,謝謝!
- 1關(guān)于學(xué)習(xí)SEO哪一些人群適合學(xué)習(xí)可以學(xué)以致用
- 2企業(yè)網(wǎng)站的SEO優(yōu)化細(xì)節(jié)
- 3沒有百度指數(shù)的關(guān)鍵詞多久能排名(已幫助219人)
- 4網(wǎng)站SEO優(yōu)化_天線貓SEOSEO優(yōu)化公司大數(shù)據(jù)精準(zhǔn)營銷產(chǎn)品_SEO優(yōu)化SEO推廣SEO服務(wù)天線貓_
- 5到哪里尋找我的廣告主_百度優(yōu)化排名軟件
- 6董勤峰小我好漢時代已經(jīng)遠(yuǎn)去站長需自強求變
- 7seo服務(wù)外包-SEO優(yōu)化公司怎樣選擇靠譜的SEO服務(wù)外包公司
- 8seo網(wǎng)站編輯-做seo網(wǎng)站優(yōu)化編輯有前途嗎
- 9seo無憂-無優(yōu)云快推網(wǎng)是一家騙子公司嗎為什么做的SEO沒有效果
- 10網(wǎng)站SEO優(yōu)化_網(wǎng)絡(luò)推廣公司_關(guān)于行業(yè)網(wǎng)站SEOXXX佳關(guān)鍵詞的選擇技巧_SEO優(yōu)化SEO推廣SEO服務(wù)天線貓_