課程介紹
注意0:欲購買此課程,獲取安全購買鏈接,索要正版授權(quán)學(xué)習(xí)平臺賬號,務(wù)必加咨詢QQ:2536379620
注意1:由于編碼原因,試聽課程視頻畫面清晰度不如最終購買的視頻。最終購買視頻的畫面清晰度可參見以下兩張圖。圖1 圖2
注意2:正版良心視頻,購買后有機(jī)會和原作者直接短暫技術(shù)交流。
本課程使用了TensorFlow 2.x錄制。
本課程采用Python 3.x錄制,適合于Python3.5及以上的所有Python版本。視頻以及源代碼適合于Windows、macOS和Linux系統(tǒng)。
本課程包含學(xué)習(xí)Tensorflow2.x和神經(jīng)網(wǎng)絡(luò)的必要知識,包括感知機(jī)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、誤差反向傳播、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容。
適合人群
tensorflow程序員,深度學(xué)習(xí)研究者,在校大學(xué)生
課程大綱
章節(jié)1:Tensorflow基礎(chǔ)
課時1視頻TensorFlow簡介14:03 免費(fèi)試聽
課時2文本源代碼下載
課時3視頻安裝TensorFlow07:13
課時4視頻TensorFlow中的常量(TensorFlow名字的由來)14:35
課時5視頻常量運(yùn)算06:08
課時6視頻占位符類型04:01
課時7視頻Tensorflow的變量04:59
課時8視頻初始化TensorFlow變量的方法05:24
課時9視頻TensorFlow中常用的運(yùn)算函數(shù)08:27
課時10視頻管理計(jì)算圖04:57
課時11視頻計(jì)算圖節(jié)點(diǎn)的依賴于生命周期04:30
課時12視頻用TensorFlow實(shí)現(xiàn)線性回歸算法27:22
課時13視頻數(shù)據(jù)的歸一化和標(biāo)準(zhǔn)化11:02
課時14視頻使用Tensorflow實(shí)現(xiàn)梯度下降算法22:45
課時15視頻保存和恢復(fù)模型04:58
課時16視頻可視化計(jì)算圖05:40
課時17視頻使用Tensorboard可視化計(jì)算圖08:16
課時18視頻命名作用域06:58
課時19視頻模塊化06:58
課時20視頻變量作用域和共享變量05:37
章節(jié)2:感知機(jī)
課時21視頻感知機(jī)-神經(jīng)網(wǎng)絡(luò)的起源03:18
課時22視頻用感知機(jī)表示與門電路09:30
課時23視頻用感知機(jī)表示或門電路05:43
課時24視頻用感知機(jī)表示與非門電路05:13
課時25視頻用Python實(shí)現(xiàn)感知機(jī)07:26
課時26視頻用Tensorflow2.x實(shí)現(xiàn)感知機(jī)07:43
課時27視頻用偏置代替閾值04:28
課時28視頻用Python和Tensorflow實(shí)現(xiàn)帶偏置的感知機(jī)06:16
課時29視頻感知機(jī)可以表示所有的門電路嗎07:37
課時30視頻用多層感知機(jī)處理異或門電路08:37
課時31視頻使用sklearn中的感知器對鶯尾花進(jìn)行分類13:46
章節(jié)3:神經(jīng)網(wǎng)絡(luò)
課時32視頻什么是神經(jīng)網(wǎng)絡(luò)06:28
課時33視頻神經(jīng)網(wǎng)絡(luò)的sigmoid函數(shù)02:08
課時34視頻階躍函數(shù)與sigmoid函數(shù)的幾何意義07:17
課時35視頻激活函數(shù)ReLU以及其幾何意義03:33
課時36視頻激活函數(shù)Tanh以及其幾何意義01:58
課時37視頻矩陣的乘法07:15
課時38視頻三層神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理19:01
課時39視頻三層神經(jīng)網(wǎng)絡(luò)的完整實(shí)現(xiàn)07:33
課時40視頻選擇神經(jīng)網(wǎng)絡(luò)輸出層的激活函數(shù)06:00
課時41視頻改進(jìn)softmax函數(shù)03:18
課時42視頻項(xiàng)目實(shí)戰(zhàn):利用神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(MNIST)【1】17:04
課時43視頻項(xiàng)目實(shí)戰(zhàn):利用神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(MNIST)【2】13:48
章節(jié)4:訓(xùn)練神經(jīng)網(wǎng)絡(luò)
課時44視頻從手工調(diào)參到數(shù)據(jù)驅(qū)動04:00
課時45視頻訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)04:03
課時46視頻損失函數(shù)詳解18:31
課時47視頻用Python實(shí)現(xiàn)常用的損失函數(shù)08:44
課時48視頻小批量版本的交叉熵函數(shù)16:33
課時49視頻用Tensorflow2.x實(shí)現(xiàn)回歸損失函數(shù)10:23
課時50視頻用Tensorflow2.x實(shí)現(xiàn)分類損失函數(shù)12:24
課時51視頻用Python計(jì)算導(dǎo)數(shù)14:01
課時52視頻用Python計(jì)算偏導(dǎo)數(shù)05:07
課時53視頻用Python計(jì)算梯度09:19
課時54視頻梯度下降法17:57
課時55視頻計(jì)算神經(jīng)網(wǎng)絡(luò)的梯度11:47
課時56視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(1)16:01
課時57視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(2)28:19
課時58視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(3)16:43
課時59視頻項(xiàng)目實(shí)戰(zhàn):手工編寫神經(jīng)網(wǎng)絡(luò)識別數(shù)字圖像(4)08:51
課時60視頻項(xiàng)目實(shí)戰(zhàn):用Tensorflow2.x訓(xùn)練模型識別數(shù)字圖像111:21
課時61視頻項(xiàng)目實(shí)戰(zhàn):Tensorflow2.x訓(xùn)練模型識別數(shù)字圖像211:21
章節(jié)5:誤差反向傳播
課時62視頻計(jì)算圖基礎(chǔ)07:11
課時63視頻計(jì)算圖的優(yōu)勢07:59
課時64視頻反向傳播的鏈?zhǔn)椒▌t06:30
章節(jié)6:卷積神經(jīng)網(wǎng)絡(luò)
課時65視頻卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)05:40
課時66視頻在CNN中為什么要加入卷積層05:04
課時67視頻卷積計(jì)算04:40
課時68視頻輸入數(shù)據(jù)的填充03:27
課時69視頻卷積核的步幅05:46
課時70視頻池化層02:50