在线午夜精品自拍小视频_无码av无码专区线_亚洲无码精品人妻_人人澡欧美一区

視頻課程 人瀏覽 歷史評(píng)分   更新時(shí)間: 30天前 隨到隨學(xué)

課程介紹

注意0:欲購買此課程,獲取安全購買鏈接,索要正版授權(quán)學(xué)習(xí)平臺(tái)賬號(hào),務(wù)必加咨詢QQ:2536379620
注意1:由于編碼原因,試聽課程視頻畫面清晰度不如最終購買的視頻。最終購買視頻的畫面清晰度可參見以下兩張圖。圖1   圖2
注意2:正版良心視頻,購買后有機(jī)會(huì)和原作者直接短暫技術(shù)交流。

本課程使用了TensorFlow 2.x錄制。
本課程采用Python 3.x錄制,適合于Python3.5及以上的所有Python版本。視頻以及源代碼適合于Windows、macOS和Linux系統(tǒng)。

本課程包含學(xué)習(xí)Tensorflow2.x和神經(jīng)網(wǎng)絡(luò)的必要知識(shí),包括感知機(jī)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、誤差反向傳播、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容。

適合人群

tensorflow程序員,深度學(xué)習(xí)研究者,在校大學(xué)生

課程大綱

章節(jié)1:Tensorflow基礎(chǔ)
課時(shí)1視頻TensorFlow簡(jiǎn)介14:03                     免費(fèi)試聽
課時(shí)2文本源代碼下載
課時(shí)3視頻安裝TensorFlow07:13
課時(shí)4視頻TensorFlow中的常量(TensorFlow名字的由來)14:35
課時(shí)5視頻常量運(yùn)算06:08
課時(shí)6視頻占位符類型04:01
課時(shí)7視頻Tensorflow的變量04:59
課時(shí)8視頻初始化TensorFlow變量的方法05:24
課時(shí)9視頻TensorFlow中常用的運(yùn)算函數(shù)08:27
課時(shí)10視頻管理計(jì)算圖04:57
課時(shí)11視頻計(jì)算圖節(jié)點(diǎn)的依賴于生命周期04:30
課時(shí)12視頻用TensorFlow實(shí)現(xiàn)線性回歸算法27:22
課時(shí)13視頻數(shù)據(jù)的歸一化和標(biāo)準(zhǔn)化11:02
課時(shí)14視頻使用Tensorflow實(shí)現(xiàn)梯度下降算法22:45
課時(shí)15視頻保存和恢復(fù)模型04:58
課時(shí)16視頻可視化計(jì)算圖05:40
課時(shí)17視頻使用Tensorboard可視化計(jì)算圖08:16
課時(shí)18視頻命名作用域06:58
課時(shí)19視頻模塊化06:58
課時(shí)20視頻變量作用域和共享變量05:37
章節(jié)2:感知機(jī)
課時(shí)21視頻感知機(jī)-神經(jīng)網(wǎng)絡(luò)的起源03:18
課時(shí)22視頻用感知機(jī)表示與門電路09:30
課時(shí)23視頻用感知機(jī)表示或門電路05:43
課時(shí)24視頻用感知機(jī)表示與非門電路05:13
課時(shí)25視頻用Python實(shí)現(xiàn)感知機(jī)07:26
課時(shí)26視頻用Tensorflow2.x實(shí)現(xiàn)感知機(jī)07:43
課時(shí)27視頻用偏置代替閾值04:28
課時(shí)28視頻用Python和Tensorflow實(shí)現(xiàn)帶偏置的感知機(jī)06:16
課時(shí)29視頻感知機(jī)可以表示所有的門電路嗎07:37
課時(shí)30視頻用多層感知機(jī)處理異或門電路08:37
課時(shí)31視頻使用sklearn中的感知器對(duì)鶯尾花進(jìn)行分類13:46
章節(jié)3:神經(jīng)網(wǎng)絡(luò)
課時(shí)32視頻什么是神經(jīng)網(wǎng)絡(luò)06:28
課時(shí)33視頻神經(jīng)網(wǎng)絡(luò)的sigmoid函數(shù)02:08
課時(shí)34視頻階躍函數(shù)與sigmoid函數(shù)的幾何意義07:17
課時(shí)35視頻激活函數(shù)ReLU以及其幾何意義03:33
課時(shí)36視頻激活函數(shù)Tanh以及其幾何意義01:58
課時(shí)37視頻矩陣的乘法07:15
課時(shí)38視頻三層神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理19:01
課時(shí)39視頻三層神經(jīng)網(wǎng)絡(luò)的完整實(shí)現(xiàn)07:33
課時(shí)40視頻選擇神經(jīng)網(wǎng)絡(luò)輸出層的激活函數(shù)06:00
課時(shí)41視頻改進(jìn)softmax函數(shù)03:18
課時(shí)42視頻項(xiàng)目實(shí)戰(zhàn):利用神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(MNIST)【1】17:04
課時(shí)43視頻項(xiàng)目實(shí)戰(zhàn):利用神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(MNIST)【2】13:48
章節(jié)4:訓(xùn)練神經(jīng)網(wǎng)絡(luò)
課時(shí)44視頻從手工調(diào)參到數(shù)據(jù)驅(qū)動(dòng)04:00
課時(shí)45視頻訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)04:03
課時(shí)46視頻損失函數(shù)詳解18:31
課時(shí)47視頻用Python實(shí)現(xiàn)常用的損失函數(shù)08:44
課時(shí)48視頻小批量版本的交叉熵函數(shù)16:33
課時(shí)49視頻用Tensorflow2.x實(shí)現(xiàn)回歸損失函數(shù)10:23
課時(shí)50視頻用Tensorflow2.x實(shí)現(xiàn)分類損失函數(shù)12:24
課時(shí)51視頻用Python計(jì)算導(dǎo)數(shù)14:01
課時(shí)52視頻用Python計(jì)算偏導(dǎo)數(shù)05:07
課時(shí)53視頻用Python計(jì)算梯度09:19
課時(shí)54視頻梯度下降法17:57
課時(shí)55視頻計(jì)算神經(jīng)網(wǎng)絡(luò)的梯度11:47
課時(shí)56視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(1)16:01
課時(shí)57視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(2)28:19
課時(shí)58視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(3)16:43
課時(shí)59視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識(shí)別數(shù)字圖像(4)08:51
課時(shí)60視頻項(xiàng)目實(shí)戰(zhàn):用Tensorflow2.x訓(xùn)練模型識(shí)別數(shù)字圖像111:21
課時(shí)61視頻項(xiàng)目實(shí)戰(zhàn):Tensorflow2.x訓(xùn)練模型識(shí)別數(shù)字圖像211:21
章節(jié)5:誤差反向傳播
課時(shí)62視頻計(jì)算圖基礎(chǔ)07:11
課時(shí)63視頻計(jì)算圖的優(yōu)勢(shì)07:59
課時(shí)64視頻反向傳播的鏈?zhǔn)椒▌t06:30
章節(jié)6:卷積神經(jīng)網(wǎng)絡(luò)
課時(shí)65視頻卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)05:40
課時(shí)66視頻在CNN中為什么要加入卷積層05:04
課時(shí)67視頻卷積計(jì)算04:40
課時(shí)68視頻輸入數(shù)據(jù)的填充03:27
課時(shí)69視頻卷積核的步幅05:46
課時(shí)70視頻池化層02:50
相關(guān)推薦
客服 關(guān)于