欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

TensorFlow學(xué)習(xí)之分布式的TensorFlow運(yùn)行環(huán)境

 更新時(shí)間:2020年02月05日 10:52:43   作者:Baby-Lily  
這篇文章主要了TensorFlow學(xué)習(xí)之分布式的TensorFlow運(yùn)行環(huán)境的相關(guān)知識,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下

當(dāng)我們在大型的數(shù)據(jù)集上面進(jìn)行深度學(xué)習(xí)的訓(xùn)練時(shí),往往需要大量的運(yùn)行資源,而且還要花費(fèi)大量時(shí)間才能完成訓(xùn)練。

1.分布式TensorFlow的角色與原理

在分布式的TensorFlow中的角色分配如下:

PS:作為分布式訓(xùn)練的服務(wù)端,等待各個終端(supervisors)來連接。

worker:在TensorFlow的代碼注釋中被稱為終端(supervisors),作為分布式訓(xùn)練的計(jì)算資源終端。

chief supervisors:在眾多的運(yùn)算終端中必須選擇一個作為主要的運(yùn)算終端。該終端在運(yùn)算終端中最先啟動,它的功能是合并各個終端運(yùn)算后的學(xué)習(xí)參數(shù),將其保存或者載入。

每個具體的網(wǎng)絡(luò)標(biāo)識都是唯一的,即分布在不同IP的機(jī)器上(或者同一個機(jī)器的不同端口)。在實(shí)際的運(yùn)行中,各個角色的網(wǎng)絡(luò)構(gòu)建部分代碼必須100%的相同。三者的分工如下:

服務(wù)端作為一個多方協(xié)調(diào)者,等待各個運(yùn)算終端來連接。

chief supervisors會在啟動時(shí)同一管理全局的學(xué)習(xí)參數(shù),進(jìn)行初始化或者從模型載入。

其他的運(yùn)算終端只是負(fù)責(zé)得到其對應(yīng)的任務(wù)并進(jìn)行計(jì)算,并不會保存檢查點(diǎn),用于TensorBoard可視化中的summary日志等任何參數(shù)信息。

在整個過程都是通過RPC協(xié)議來進(jìn)行通信的。

2.分布部署TensorFlow的具體方法

配置過程中,首先建立一個server,在server中會將ps及所有worker的IP端口準(zhǔn)備好。接著,使用tf.train.Supervisor中的managed_ssion來管理一個打開的session。session中只是負(fù)責(zé)運(yùn)算,而通信協(xié)調(diào)的事情就都交給supervisor來管理了。

3.部署訓(xùn)練實(shí)例

下面開始實(shí)現(xiàn)一個分布式訓(xùn)練的網(wǎng)絡(luò)模型,以線性回歸為例,通過3個端口來建立3個終端,分別是一個ps,兩個worker,實(shí)現(xiàn)TensorFlow的分布式運(yùn)算。

1. 為每個角色添加IP地址和端口,創(chuàng)建sever,在一臺機(jī)器上開3個不同的端口,分別代表PS,chief supervisor和worker。角色的名稱用strjob_name表示,以ps為例,代碼如下:

# 定義IP和端口
strps_hosts = 'localhost:1681'
strworker_hosts = 'localhost:1682,localhost:1683'
# 定義角色名稱
strjob_name = 'ps'
task_index = 0
# 將字符串轉(zhuǎn)數(shù)組
ps_hosts = strps_hosts.split(',')
worker_hosts = strps_hosts.split(',')
cluster_spec = tf.train.ClusterSpec({'ps': ps_hosts, 'worker': worker_hosts})
# 創(chuàng)建server
server = tf.train.Server({'ps':ps_hosts, 'worker':worker_hosts}, job_name=strjob_name, task_index=task_index)

2為ps角色添加等待函數(shù)

ps角色使用server.join函數(shù)進(jìn)行線程掛起,開始接受連續(xù)消息。

# ps角色使用join進(jìn)行等待
if strjob_name == 'ps':
  print("wait")
  server.join()

3.創(chuàng)建網(wǎng)絡(luò)的結(jié)構(gòu)

與正常的程序不同,在創(chuàng)建網(wǎng)絡(luò)結(jié)構(gòu)時(shí),使用tf.device函數(shù)將全部的節(jié)點(diǎn)都放在當(dāng)前任務(wù)下。在tf.device函數(shù)中的任務(wù)是通過tf.train.replica_device_setter來指定的。在tf.train.replica_device_setter中使用worker_device來定義具體任務(wù)名稱;使用cluster的配置來指定角色及對應(yīng)的IP地址,從而實(shí)現(xiàn)管理整個任務(wù)下的圖節(jié)點(diǎn)。代碼如下:

with tf.device(tf.train.replica_device_setter(worker_device='/job:worker/task:%d'%task_index,
                       cluster=cluster_spec)):
  X = tf.placeholder('float')
  Y = tf.placeholder('float')
  # 模型參數(shù)
  w = tf.Variable(tf.random_normal([1]), name='weight')
  b = tf.Variable(tf.zeros([1]), name='bias')
  global_step = tf.train.get_or_create_global_step()  # 獲取迭代次數(shù)
  z = tf.multiply(X, w) + b
  tf.summary('z', z)
  cost = tf.reduce_mean(tf.square(Y - z))
  tf.summary.scalar('loss_function', cost)
  learning_rate = 0.001
  optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost, global_step=global_step)
  saver = tf.train.Saver(max_to_keep=1)
  merged_summary_op = tf.summary.merge_all() # 合并所有summary
  init = tf.global_variables_initializer()

4.創(chuàng)建Supercisor,管理session

在tf.train.Supervisor函數(shù)中,is_chief表明為是否為chief Supervisor角色,這里將task_index=0的worker設(shè)置成chief Supervisor。saver需要將保存檢查點(diǎn)的saver對象傳入。init_op表示使用初始化變量的函數(shù)。

training_epochs = 2000
display_step = 2
sv = tf.train.Supervisor(is_chief=(task_index == 0),# 0號為chief
             logdir='log/spuer/',
             init_op=init,
             summary_op=None,
             saver=saver,
             global_step=global_step,
             save_model_secs=5)
# 連接目標(biāo)角色創(chuàng)建session
with sv.managed_session(saver.target) as sess:

5迭代訓(xùn)練

session中的內(nèi)容與以前一樣,直接迭代訓(xùn)練即可。由于使用了supervisor管理session,將使用sv.summary_computed函數(shù)來保存summary文件。

print('sess ok')
  print(global_step.eval(session=sess))
  for epoch in range(global_step.eval(session=sess), training_epochs*len(train_x)):
    for (x, y) in zip(train_x, train_y):
      _, epoch = sess.run([optimizer, global_step], feed_dict={X: x, Y: y})
      summary_str = sess.run(merged_summary_op, feed_dict={X: x, Y: y})
      sv.summary_computed(sess, summary_str, global_step=epoch)
      if epoch % display_step == 0:
        loss = sess.run(cost, feed_dict={X:train_x, Y:train_y})
        print("Epoch:", epoch+1, 'loss:', loss, 'W=', sess.run(w), w, 'b=', sess.run(b))
  print(' finished ')
  sv.saver.save(sess, 'log/linear/' + "sv.cpk", global_step=epoch)
sv.stop()

(1)在設(shè)置自動保存檢查點(diǎn)文件后,手動保存仍然有效,

(2)在運(yùn)行一半后,在運(yùn)行supervisor時(shí)會自動載入模型的參數(shù),不需要手動調(diào)用restore。

(3)在session中不需要進(jìn)行初始化的操作。

6.建立worker文件

新建兩個py文件,設(shè)置task_index分別為0和1,其他的部分和上述的代碼相一致。

strjob_name = 'worker'
task_index = 1
strjob_name = 'worker'
task_index = 0

7.運(yùn)行

我們分別啟動寫好的三個文件,在運(yùn)行結(jié)果中,我們可以看到循環(huán)的次數(shù)不是連續(xù)的,顯示結(jié)果中會有警告,這是因?yàn)樵跇?gòu)建supervisor時(shí)沒有填寫local_init_op參數(shù),該參數(shù)的含義是在創(chuàng)建worker實(shí)例時(shí),初始化本地變量,上述代碼中沒有設(shè)置,系統(tǒng)會自動初始化,并給出警告提示。

分布運(yùn)算的目的是為了提高整體運(yùn)算速度,如果同步epoch的準(zhǔn)確率需要犧牲總體運(yùn)行速度為代價(jià),自然很不合適。

在ps的文件中,它只是負(fù)責(zé)連接,并不參與運(yùn)算。

總結(jié)

以上所述是小編給大家介紹的TensorFlow學(xué)習(xí)之分布式的TensorFlow運(yùn)行環(huán)境,希望對大家有所幫助!!

相關(guān)文章

  • Python面向?qū)ο蟪绦蛟O(shè)計(jì)之私有變量,私有方法原理與用法分析

    Python面向?qū)ο蟪绦蛟O(shè)計(jì)之私有變量,私有方法原理與用法分析

    這篇文章主要介紹了Python面向?qū)ο蟪绦蛟O(shè)計(jì)之私有變量,私有方法,結(jié)合實(shí)例形式分析了Python面向?qū)ο蟪绦蛟O(shè)計(jì)中私有變量,私有方法相關(guān)概念、原理、用法及操作注意事項(xiàng),需要的朋友可以參考下
    2020-03-03
  • 用python批量解壓帶密碼的壓縮包

    用python批量解壓帶密碼的壓縮包

    批量解壓縮帶密碼的壓縮包的Python腳本,直接拖入文件夾或壓縮文件即可,支持解壓幾乎所有壓縮文件格式??蓴y帶 Portable
    2021-05-05
  • Python基礎(chǔ)之hashlib模塊subprocess模塊logging模塊

    Python基礎(chǔ)之hashlib模塊subprocess模塊logging模塊

    這篇文章主要為大家介紹了Python基礎(chǔ)之hashlib模塊subprocess模塊logging模塊示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2022-11-11
  • Python使用正則表達(dá)式過濾或替換HTML標(biāo)簽的方法詳解

    Python使用正則表達(dá)式過濾或替換HTML標(biāo)簽的方法詳解

    這篇文章主要介紹了Python使用正則表達(dá)式過濾或替換HTML標(biāo)簽的方法,簡單介紹了Python正則相關(guān)語法并結(jié)合具體實(shí)例形式分析了Python基于正則表達(dá)式的HTML標(biāo)簽過濾與替換相關(guān)操作技巧,需要的朋友可以參考下
    2017-09-09
  • Python函數(shù)關(guān)鍵字參數(shù)及用法詳解

    Python函數(shù)關(guān)鍵字參數(shù)及用法詳解

    本文主要介紹了Python函數(shù)關(guān)鍵字參數(shù)及用法詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-03-03
  • python生成器在讀取接口用例中應(yīng)用解析

    python生成器在讀取接口用例中應(yīng)用解析

    這篇文章主要為大家介紹了python生成器在讀取接口用例中應(yīng)用解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-06-06
  • python 將json數(shù)據(jù)提取轉(zhuǎn)化為txt的方法

    python 將json數(shù)據(jù)提取轉(zhuǎn)化為txt的方法

    今天小編就為大家分享一篇python 將json數(shù)據(jù)提取轉(zhuǎn)化為txt的方法,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-10-10
  • 淺談python圖片處理Image和skimage的區(qū)別

    淺談python圖片處理Image和skimage的區(qū)別

    這篇文章主要介紹了淺談python圖片處理Image和skimage的區(qū)別,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2019-08-08
  • python使用seaborn繪圖直方圖displot,密度圖,散點(diǎn)圖

    python使用seaborn繪圖直方圖displot,密度圖,散點(diǎn)圖

    這篇文章主要介紹了python使用seaborn繪圖直方圖displot,密度圖,散點(diǎn)圖,文章圍繞主題展開詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,需要的小伙伴可以參考一下
    2022-07-07
  • Python Scrapy框架第一個入門程序示例

    Python Scrapy框架第一個入門程序示例

    這篇文章主要介紹了Python Scrapy框架第一個入門程序,結(jié)合實(shí)例形式分析了Python Scrapy框架項(xiàng)目的搭建、抓取字段設(shè)置、數(shù)據(jù)庫保存等相關(guān)操作技巧,需要的朋友可以參考下
    2020-02-02

最新評論