国产睡熟迷奷白丝护士系列精品,中文色字幕网站,免费h网站在线观看的,亚洲开心激情在线

      <sup id="hb9fh"></sup>
          1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

            手機(jī)站
            千鋒教育

            千鋒學(xué)習(xí)站 | 隨時(shí)隨地免費(fèi)學(xué)

            千鋒教育

            掃一掃進(jìn)入千鋒手機(jī)站

            領(lǐng)取全套視頻
            千鋒教育

            關(guān)注千鋒學(xué)習(xí)站小程序
            隨時(shí)隨地免費(fèi)學(xué)習(xí)課程

            當(dāng)前位置:首頁  >  技術(shù)干貨  > python中RNN和LSTM的基本介紹

            python中RNN和LSTM的基本介紹

            來源:千鋒教育
            發(fā)布人:xqq
            時(shí)間: 2023-11-13 10:05:39 1699841139

            python中RNN和LSTM的基本介紹

            1、RNN

            簡單的神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都有一個(gè)主要的特點(diǎn),那就是都不具備記憶能力,也就是說,它們都是分別處理每一個(gè)輸入,而不存在前、后兩個(gè)輸入之間的關(guān)系。例如,您需要處理數(shù)據(jù)點(diǎn)或時(shí)序,您需要同時(shí)向網(wǎng)絡(luò)顯示整個(gè)時(shí)序,也就是將時(shí)序轉(zhuǎn)換為單一數(shù)據(jù)點(diǎn)輸入。采用這種輸入方式的網(wǎng)絡(luò)叫做前向神經(jīng)網(wǎng)絡(luò)(feddforwardnetwork)。

            為了使這個(gè)過程更加容易理解,我們用簡單的循環(huán)邏輯來實(shí)現(xiàn)一個(gè)RNN的前向傳播。

            #簡單的RNN實(shí)現(xiàn)Numpy實(shí)現(xiàn)

            importnumpyasnp

            timesteps=100

            input_feature=32

            output_fearture=64

            inputs=np.random.random((timesteps,input_feature))#生成100,32形狀的矩陣

            print(inputs)

            state_t=np.zeros((output_fearture,))#生成64個(gè)全為0的數(shù)

            print(state_t)

            w=np.random.random((output_fearture,input_feature))

            u=np.random.random((output_fearture,output_fearture))

            b=np.random.random((output_fearture,))

            successive_outputs=[]

            forinput_tininputs:

            output_t=np.tanh(np.dot(w,input_t)+np.dot(u,state_t)+b)#np.dot表示數(shù)組點(diǎn)積

            successive_outputs.append(output_t)

            state_t=output_t

            final_output_sequence=np.stack(successive_outputs,axis=0)

            print(final_output_sequence)

            2、LSTM

            在理論上,RNN應(yīng)該能夠記住在過去的時(shí)間里看到過的信息,但是實(shí)際上它不可能學(xué)習(xí)長期存在的信息,主要是由于梯度消失的問題。因此研究人員設(shè)計(jì)了LSTM(longshort-termmemory),也就是所謂的長短期記憶。

            與RNN相比,LSTM多了一種跨域攜帶信息的多時(shí)間步法(細(xì)胞狀態(tài)C),這種步法類似于傳送帶,它運(yùn)行方向與你所處理的序列方向平行,而序列中的信息可以隨時(shí)跳到傳送帶上,然后被傳送帶送到更遠(yuǎn)的時(shí)間步,必要時(shí)還能原封不動(dòng)地跳回來。那是LSTM的原理。

            以上就是python中RNN和LSTM的基本介紹,希望能對大家有所幫助!更多Python學(xué)習(xí)教程請關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。

            聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
            10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
            請您保持通訊暢通,專屬學(xué)習(xí)老師24小時(shí)內(nèi)將與您1V1溝通
            免費(fèi)領(lǐng)取
            今日已有369人領(lǐng)取成功
            劉同學(xué) 138****2860 剛剛成功領(lǐng)取
            王同學(xué) 131****2015 剛剛成功領(lǐng)取
            張同學(xué) 133****4652 剛剛成功領(lǐng)取
            李同學(xué) 135****8607 剛剛成功領(lǐng)取
            楊同學(xué) 132****5667 剛剛成功領(lǐng)取
            岳同學(xué) 134****6652 剛剛成功領(lǐng)取
            梁同學(xué) 157****2950 剛剛成功領(lǐng)取
            劉同學(xué) 189****1015 剛剛成功領(lǐng)取
            張同學(xué) 155****4678 剛剛成功領(lǐng)取
            鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
            董同學(xué) 138****2867 剛剛成功領(lǐng)取
            周同學(xué) 136****3602 剛剛成功領(lǐng)取
            相關(guān)推薦HOT