一小時學會TensorFlow2之全連接層
概述
全鏈接層 (Fully Connected Layer) 會把一個特質空間線性變換到另一個特質空間, 在整個網(wǎng)絡中起到分類器的作用.

keras.layers.Dense
keras.layers.Dense可以幫助我們實現(xiàn)全連接.

格式:
tf.keras.layers.Dense( units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None, **kwargs )
| 參數(shù) | 介紹 |
|---|---|
| units | 正整數(shù), 輸出空間維度 |
| activation | 激活函數(shù), 若不指定, 則不適用激活函數(shù) |
| use_bias | 布爾值, 該層是否使用偏置向量 |
| kernel_initializer | kernel權值矩陣的初始化器 |
| bias_initializer | 偏執(zhí)向量的初始化器 |
| kernel_regulaizer | 運用到偏執(zhí)項的正則化函數(shù) |
| bias_regularizer | 運用到偏執(zhí)項的的正則化函數(shù) |
| activity_regulatizer | 運用到層的輸出正則化函數(shù) |
| kernel_constrint | 運用到kernel權值矩陣的約束函數(shù) |
| bias_constraint | 運用到偏執(zhí)向量的約束函數(shù) |
例子:
# 創(chuàng)建正態(tài)分布
x = tf.random.normal([256, 784])
# 創(chuàng)建全連接層, 輸出為512
net = tf.keras.layers.Dense(512)
out = net(x)
# 調(diào)試輸出
print("w:", net.kernel.shape)
print("b:", net.bias.shape)
輸出結果:
w: (784, 512)
b: (512,)
keras.Squential
Squential (序列模型) 是各層次之間依次順序的線性關系. 模型結構通過一個列表來制定.

格式:
tf.keras.Sequential( layers=None, name=None )
參數(shù):
- layers: 添加的層
- name: 數(shù)據(jù)名稱
例子:
# 創(chuàng)建正態(tài)分布 x = tf.random.normal([256, 784]) # 建立網(wǎng)絡模型 model = tf.keras.Sequential([ tf.keras.layers.Dense(256, activation="relu"), tf.keras.layers.Dense(128, activation="relu"), tf.keras.layers.Dense(10, activation="relu"), ]) # 傳入x model(x) # 調(diào)試輸出權重和偏置頂名字和形狀 for p in model.trainable_variables: print(p.name, p.shape)
輸出結果:
w: (784, 512)
b: (512,)
dense_1/kernel:0 (784, 256)
dense_1/bias:0 (256,)
dense_2/kernel:0 (256, 128)
dense_2/bias:0 (128,)
dense_3/kernel:0 (128, 10)
dense_3/bias:0 (10,)
到此這篇關于一小時學會TensorFlow2之全連接層的文章就介紹到這了,更多相關TensorFlow2全連接層內(nèi)容請搜索本站以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持本站!
版權聲明:本站文章來源標注為YINGSOO的內(nèi)容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學習參考,不代表本站立場,如有內(nèi)容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。
關注官方微信