国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python實現隨機梯度下降(SGD)

2020-02-16 11:06:13
字體:
來源:轉載
供稿:網友

使用神經網絡進行樣本訓練,要實現隨機梯度下降算法。這里我根據麥子學院彭亮老師的講解,總結如下,(神經網絡的結構在另一篇博客中已經定義):

def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None):  if test_data:    n_test = len(test_data)#有多少個測試集    n = len(training_data)    for j in xrange(epochs):      random.shuffle(training_data)      mini_batches = [        training_data[k:k+mini_batch_size]         for k in xrange(0,n,mini_batch_size)]      for mini_batch in mini_batches:        self.update_mini_batch(mini_batch, eta)      if test_data:        print "Epoch {0}: {1}/{2}".format(j, self.evaluate(test_data),n_test)      else:        print "Epoch {0} complete".format(j)  

其中training_data是訓練集,是由很多的tuples(元組)組成。每一個元組(x,y)代表一個實例,x是圖像的向量表示,y是圖像的類別。
epochs表示訓練多少輪。
mini_batch_size表示每一次訓練的實例個數。
eta表示學習率。
test_data表示測試集。
比較重要的函數是self.update_mini_batch,他是更新權重和偏置的關鍵函數,接下來就定義這個函數。

def update_mini_batch(self, mini_batch,eta):   nabla_b = [np.zeros(b.shape) for b in self.biases]  nabla_w = [np.zeros(w.shape) for w in self.weights]  for x,y in mini_batch:    delta_nabla_b, delta_nable_w = self.backprop(x,y)#目標函數對b和w的偏導數    nabla_b = [nb+dnb for nb,dnb in zip(nabla_b,delta_nabla_b)]    nabla_w = [nw+dnw for nw,dnw in zip(nabla_w,delta_nabla_w)]#累加b和w  #最終更新權重為  self.weights = [w-(eta/len(mini_batch))*nw for w, nw in zip(self.weights, nabla_w)]  self.baises = [b-(eta/len(mini_batch))*nb for b, nb in zip(self.baises, nabla_b)]

這個update_mini_batch函數根據你傳入的一些數據進行更新神經網絡的權重和偏置。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持武林站長站。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 鸡东县| 沂源县| 西乌珠穆沁旗| 新竹市| 双鸭山市| 大竹县| 儋州市| 聂拉木县| 肃北| 平谷区| 庐江县| 宁都县| 庆安县| 水富县| 丽江市| 六安市| 东城区| 广安市| 公主岭市| 图片| 永济市| 武义县| 平乐县| 西盟| 连平县| 辰溪县| 新民市| 安图县| 洛浦县| 松潘县| 宁德市| 临泉县| 龙胜| 泊头市| 渝中区| 全椒县| 库尔勒市| 宁国市| 平山县| 阆中市| 黄冈市|