python - 使用TensorFlow創(chuàng)建邏輯回歸模型訓(xùn)練結(jié)果為nan
問題描述
在TensorFlow中,我想創(chuàng)建一個邏輯回歸模型,代價函數(shù)如下:
使用的數(shù)據(jù)集截圖如下:

我的代碼如下:
train_X = train_data[:, :-1]train_y = train_data[:, -1:]feature_num = len(train_X[0])sample_num = len(train_X)print('Size of train_X: {}x{}'.format(sample_num, feature_num))print('Size of train_y: {}x{}'.format(len(train_y), len(train_y[0])))X = tf.placeholder(tf.float32)y = tf.placeholder(tf.float32)W = tf.Variable(tf.zeros([feature_num, 1]))b = tf.Variable([-.3])db = tf.matmul(X, tf.reshape(W, [-1, 1])) + bhyp = tf.sigmoid(db)cost0 = y * tf.log(hyp)cost1 = (1 - y) * tf.log(1 - hyp)cost = (cost0 + cost1) / -sample_numloss = tf.reduce_sum(cost)optimizer = tf.train.GradientDescentOptimizer(0.1)train = optimizer.minimize(loss)init = tf.global_variables_initializer()sess = tf.Session()sess.run(init)print(0, sess.run(W).flatten(), sess.run(b).flatten())sess.run(train, {X: train_X, y: train_y})print(1, sess.run(W).flatten(), sess.run(b).flatten())sess.run(train, {X: train_X, y: train_y})print(2, sess.run(W).flatten(), sess.run(b).flatten())
運(yùn)行結(jié)果截圖如下:

可以看到,在迭代兩次之后,得到的W和b都變成了nan,請問是哪里的問題?
問題解答
回答1:經(jīng)過一番搜索,找到了問題所在。
在選取迭代方式的那一句:
optimizer = tf.train.GradientDescentOptimizer(0.1)
這里0.1的學(xué)習(xí)率過大,導(dǎo)致不知什么原因在損失函數(shù)中出現(xiàn)了log(0)的情況,結(jié)果導(dǎo)致了損失函數(shù)的值為nan,解決方法是減小學(xué)習(xí)率,比如降到1e-5或者1e-6就可以正常訓(xùn)練了,我根據(jù)自己的情況把學(xué)習(xí)率調(diào)整為了1e-3,程序完美運(yùn)行。
附上最終擬合結(jié)果:

相關(guān)文章:
1. 關(guān)docker hub上有些鏡像的tag被標(biāo)記““This image has vulnerabilities””2. docker-compose中volumes的問題3. boot2docker無法啟動4. nignx - docker內(nèi)nginx 80端口被占用5. docker安裝后出現(xiàn)Cannot connect to the Docker daemon.6. docker容器呢SSH為什么連不通呢?7. node.js - antdesign怎么集合react-redux對input控件進(jìn)行初始化賦值8. dockerfile - 為什么docker容器啟動不了?9. java - SSH框架中寫分頁時service層中不能注入分頁類10. 關(guān)于docker下的nginx壓力測試

網(wǎng)公網(wǎng)安備