国产睡熟迷奷白丝护士系列精品,中文色字幕网站,免费h网站在线观看的,亚洲开心激情在线

      <sup id="hb9fh"></sup>
          1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機構(gòu)

            手機站
            千鋒教育

            千鋒學習站 | 隨時隨地免費學

            千鋒教育

            掃一掃進入千鋒手機站

            領(lǐng)取全套視頻
            千鋒教育

            關(guān)注千鋒學習站小程序
            隨時隨地免費學習課程

            當前位置:首頁  >  技術(shù)干貨  > 牛頓法和梯度下降法有什么不同?

            牛頓法和梯度下降法有什么不同?

            來源:千鋒教育
            發(fā)布人:wjy
            時間: 2022-09-13 17:41:34 1663062094

              在機器學習的優(yōu)化問題中,梯度下降法和牛頓法是常用的兩種凸函數(shù)求極值的方法,他們都是為了求得目標函數(shù)的近似解。在邏輯斯蒂回歸模型的參數(shù)求解中,一般用改良的梯度下降法,也可以用牛頓法。由于兩種方法有些相似,我特地拿來簡單地對比一下。

              1.梯度下降法

              梯度下降法用來求解目標函數(shù)的極值。這個極值是給定模型給定數(shù)據(jù)之后在參數(shù)空間中搜索找到的。

              迭代過程為:

              梯度下降法更新參數(shù)的方式為目標函數(shù)在當前參數(shù)取值下的梯度值,前面再加上一個步長控制參數(shù)alpha。梯度下降法通常用一個三維圖來展示,迭代過程就好像在不斷地下坡,最終到達坡底。為了更形象地理解,也為了和牛頓法比較,這里我用一個二維圖來表示:

            牛頓法和梯度下降法有什么不同?1

              在二維圖中,梯度就相當于凸函數(shù)切線的斜率,橫坐標就是每次迭代的參數(shù),縱坐標是目標函數(shù)的取值。

              每次迭代的過程是這樣:

              首先計算目標函數(shù)在當前參數(shù)值的斜率(梯度),然后乘以步長因子后帶入更新公式,如圖點所在位置(極值點右邊),此時斜率為正,那么更新參數(shù)后參數(shù)減小,更接近極小值對應(yīng)的參數(shù)。

              如果更新參數(shù)后,當前參數(shù)值仍然在極值點右邊,那么繼續(xù)上面更新,效果一樣。

              如果更新參數(shù)后,當前參數(shù)值到了極值點的左邊,然后計算斜率會發(fā)現(xiàn)是負的,這樣經(jīng)過再一次更新后就會又向著極值點的方向更新。

              根據(jù)這個過程我們發(fā)現(xiàn),每一步走的距離在極值點附近非常重要,如果走的步子過大,容易在極值點附近震蕩而無法收斂。解決辦法:將alpha設(shè)定為隨著迭代次數(shù)而不斷減小的變量,但是也不能完全減為零。

              2.牛頓法

              首先得明確,牛頓法是為了求解函數(shù)值為零的時候變量的取值問題的,具體地,當要求解 f(θ)=0時,如果 f可導,那么可以通過迭代公式,來迭代求得最小值。

              通過一組圖來說明這個過程:

            牛頓法和梯度下降法有什么不同?2

              迭代的公式如下:

            牛頓法和梯度下降法有什么不同?3

              當θ是向量時,牛頓法可以使用下面式子表示:

            牛頓法和梯度下降法有什么不同?4

              其中H叫做海森矩陣,其實就是目標函數(shù)對參數(shù)θ的二階導數(shù)。

              3.牛頓法和梯度下降法的比較

              1.牛頓法:

              是通過求解目標函數(shù)的一階導數(shù)為0時的參數(shù),進而求出目標函數(shù)最小值時的參數(shù);

              收斂速度很快;

              海森矩陣的逆在迭代過程中不斷減小,可以起到逐步減小步長的效果。

              缺點:

              海森矩陣的逆計算復(fù)雜,代價比較大,因此有了擬牛頓法。

              2.梯度下降法:

              是通過梯度方向和步長,直接求解目標函數(shù)的最小值時的參數(shù);

              越接近最優(yōu)值時,步長應(yīng)該不斷減小,否則會在最優(yōu)值附近來回震蕩。

            tags:
            聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
            10年以上業(yè)內(nèi)強師集結(jié),手把手帶你蛻變精英
            請您保持通訊暢通,專屬學習老師24小時內(nèi)將與您1V1溝通
            免費領(lǐng)取
            今日已有369人領(lǐng)取成功
            劉同學 138****2860 剛剛成功領(lǐng)取
            王同學 131****2015 剛剛成功領(lǐng)取
            張同學 133****4652 剛剛成功領(lǐng)取
            李同學 135****8607 剛剛成功領(lǐng)取
            楊同學 132****5667 剛剛成功領(lǐng)取
            岳同學 134****6652 剛剛成功領(lǐng)取
            梁同學 157****2950 剛剛成功領(lǐng)取
            劉同學 189****1015 剛剛成功領(lǐng)取
            張同學 155****4678 剛剛成功領(lǐng)取
            鄒同學 139****2907 剛剛成功領(lǐng)取
            董同學 138****2867 剛剛成功領(lǐng)取
            周同學 136****3602 剛剛成功領(lǐng)取
            相關(guān)推薦HOT
            軟件定制開發(fā)中的敏捷開發(fā)是什么?

            軟件定制開發(fā)中的敏捷開發(fā)是什么軟件定制開發(fā)中的敏捷開發(fā),從宏觀上看,是一個高度關(guān)注人員交互,持續(xù)開發(fā)與交付,接受需求變更并適應(yīng)環(huán)境變化...詳情>>

            2023-10-14 13:24:57
            什么是PlatformIo?

            PlatformIO是什么PlatformIO是一個全面的物聯(lián)網(wǎng)開發(fā)平臺,它為眾多硬件平臺和開發(fā)環(huán)境提供了統(tǒng)一的工作流程,有效簡化了開發(fā)過程,并能兼容各種...詳情>>

            2023-10-14 12:55:06
            云快照與自動備份有什么區(qū)別?

            1、定義和目標不同云快照的主要目標是提供一種快速恢復(fù)數(shù)據(jù)的方法,它只記錄在快照時間點后的數(shù)據(jù)變化,而不是所有的數(shù)據(jù)。自動備份的主要目標...詳情>>

            2023-10-14 12:48:59
            服務(wù)器為什么要用Linux?

            服務(wù)器為什么要用Linux作為服務(wù)器操作系統(tǒng)的優(yōu)選,Linux在眾多選擇中脫穎而出。Linux作為服務(wù)器操作系統(tǒng)的優(yōu)選,有其獨特的優(yōu)勢和特點。包括其...詳情>>

            2023-10-14 12:34:11
            ORM解決的主要問題是什么?

            ORM(對象關(guān)系映射)解決的主要問題是將關(guān)系數(shù)據(jù)庫與面向?qū)ο缶幊讨g的映射困境。在傳統(tǒng)的關(guān)系數(shù)據(jù)庫中,數(shù)據(jù)以表格的形式存儲,而在面向?qū)ο?..詳情>>

            2023-10-14 12:26:19