在深度學(xué)習(xí)實(shí)踐中,,我們通常要先搭建好模型如何經(jīng)過(guò)長(zhǎng)時(shí)間的訓(xùn)練才能使用,。那么,對(duì)于訓(xùn)練好的模型,,我們自然想把它保存起來(lái)以便調(diào)用。曾經(jīng),,我寫(xiě)過(guò)一個(gè)比較大的深度學(xué)習(xí)模型,,由于每次迭代需要長(zhǎng)達(dá)1-2個(gè)小時(shí),,并且用的是nohup在服務(wù)器后臺(tái)上運(yùn)行,但是鑒于nohup有時(shí)會(huì)不穩(wěn)定,,因此我的后臺(tái)程序隨時(shí)可能會(huì)被kill掉,,于是我就寫(xiě)了一個(gè)定時(shí)的模型保存程序,即每隔一定的時(shí)間就讓其自動(dòng)保存模型到磁盤(pán)文件中去,,這樣就可以保證即使程序遭到了不可抗拒的終止時(shí),,也不會(huì)落得前功盡棄的后果。由此可以看出,,模型的自動(dòng)保存是十分重要的,。 在Tensorflow中,保存模型最簡(jiǎn)單的方法是使用tf.train.Saver對(duì)象,,當(dāng)我們構(gòu)造了一個(gè)Saver對(duì)象以后,,調(diào)用該對(duì)象的save方法即可將我們指定會(huì)話(huà)中的Tensorflow Graph模型保存到磁盤(pán)文件中去;而另一方面,,我們可以調(diào)用對(duì)象的restore方法從磁盤(pán)中讀取Tensorflow Graph模型,。 例如,下面是一個(gè)保存模型的示例用法:
下面是導(dǎo)入模型的方法:
除此之外,,Saver對(duì)象還可以自定義保存變量,,即指定保存Graph中的某些變量。有了tf.train.Saver對(duì)象,,再也不用擔(dān)心訓(xùn)練好的模型丟失了,! 題圖:梵高《羅納河上的星空》。 |
|
來(lái)自: LibraryPKU > 《機(jī)器學(xué)習(xí)》