337p西西人体大胆瓣开下部,人妻偷人va精品国产旡码,无码高潮少妇毛多水多水,亚洲爆乳巨臀无码专区,国产乱子伦小说

你的位置:首頁 >

谷歌機器學習的云管道解析

2017-6-26 17:23:29      點擊:
當谷歌公司(si)第一次向世界講(jiang)述它的(de)張(zhang)量處理單元(TPU)時,其背后的(de)策略(lve)就顯得很清楚(chu)了:通過(guo)在(zai)定制(zhi)硬件上拋出問題來加速機(ji)器(qi)學習。使用商品GPU來訓(xun)練(lian)(lian)機(ji)器(qi)學習模(mo)型(xing);使用自定義TPU部(bu)署(shu)這些訓(xun)練(lian)(lian)有素的(de)模(mo)型(xing)。
  
  谷(gu)歌公(gong)司新一(yi)代的TPU旨(zhi)在(zai)(zai)在(zai)(zai)同一(yi)芯片上處理(li)培訓和部署這兩項任務。新一(yi)代的TPU速度也更快,無論是哪家公(gong)司的產品都被稱(cheng)為“TPUpod”。
  
  但是,更快的機器學習不是這(zhe)種設計的唯一好處。特(te)別是在這(zhe)種新形式中,TPU促成了一件(jian)事,即谷歌公司構建端(duan)到端(duan)的機器學習流程,涵(han)蓋從數(shu)據采(cai)集到部署訓練有(you)素的模型的所有(you)內容(rong)。
  
  機器學習:一條管道貫穿其中
  
  現在使用機(ji)器學(xue)習的(de)(de)最(zui)大障礙之一(yi)是如何(he)為數據輸入、標準(zhun)化、模型培訓、模型和部署建立一(yi)個(ge)完整的(de)(de)管道。這(zhe)些碎片仍然(ran)高度(du)不(bu)同和不(bu)協調(diao)的(de)(de)。像(xiang)百度(du)這(zhe)樣(yang)的(de)(de)公司已經暗示(shi)要創建一(yi)個(ge)統一(yi)的(de)(de)、開箱即用的(de)(de)解決方案,但到目(mu)前為止(zhi),這(zhe)還只是一(yi)個(ge)概念(nian)。
  
  出現這種解決方(fang)案(an)的(de)最有可能的(de)地(di)方(fang)是在中。隨著時間的(de)推移,在(zai)(zai)默認情況下,為機器學習收集的(de)更多數(shu)據(以及其他所有內容(rong))都存在(zai)(zai)于此。因此,硬件需要從中產生可執行的(de)結(jie)果。給人們(men)一(yi)個(ge)端到端的(de)云計算機器學習流(liu)程,在(zai)(zai)默認情況下只有幾個(ge)旋鈕,他們(men)很樂意在(zai)(zai)其上面(mian)建立起來。
  
  大多數(shu)情況(kuang)下,谷(gu)歌公司(si)的(de)愿景(jing)是,盡可(ke)能靠近數(shu)據(ju),管道(dao)的(de)每個階段(duan)都(dou)可(ke)以(yi)在(zai)云中執行(xing)(xing),以(yi)達到最佳的(de)速(su)度。使用TPU,谷(gu)歌公司(si)還(huan)致力于提供許多階段(duan),可(ke)根據(ju)需要進(jin)行(xing)(xing)定制硬件加速(su)。
  
  新的(de)TPU旨在通(tong)過多種(zhong)方式提高(gao)管道(dao)的(de)加速(su)度。一個加速(su)來自(zi)多個TPU的(de)組(zu)合(he)。另一個來自(zi)于能夠從相同的(de)芯片上(shang)訓練和部署(shu)模型(xing)。對于后者,隨著新數據的(de)出現,逐漸重(zhong)新訓練模型(xing)更(geng)加容(rong)易,因為數據不必一直被移動。
  
  在加速運行(xing)的(de)(de)數(shu)據(ju)上(shang)的(de)(de)優化(hua)也(ye)符合其(qi)他(ta)機器學(xue)習(xi)性(xing)能的(de)(de)改進(jin),如(ru)一(yi)些提議的(de)(de)Linux內核修復和(he)用(yong)于機器學(xue)習(xi)數(shu)據(ju)訪問(wen)的(de)(de)通用(yong)API。
  
  但是企業愿(yuan)意(yi)把自己(ji)鎖定在開源深度學習(xi)平(ping)臺TensorFlow中嗎(ma)?
  
  谷歌公司(si)的(de)愿(yuan)景可能有一個缺(que)點:TPU提(ti)供(gong)的(de)性能提(ti)升只有在(zai)用(yong)戶(hu)使用(yong)正確的(de)機器學習(xi)框架時才有效(xiao)。這(zhe)意味著谷歌公司(si)采用(yong)自己的(de)TensorFlow。
  
  這并不是(shi)(shi)說TensorFlow是(shi)(shi)一(yi)(yi)(yi)個(ge)(ge)不好的(de)(de)框(kuang)架(jia);事實上,這是(shi)(shi)很好的(de)(de)。但它只是(shi)(shi)一(yi)(yi)(yi)個(ge)(ge)多個(ge)(ge)框(kuang)架(jia),每個(ge)(ge)框(kuang)架(jia)都適合(he)不同(tong)的(de)(de)需求和(he)用(yong)例(li)。所以(yi)TPU限制支(zhi)持只是(shi)(shi)TensorFlow意味著用(yong)戶不得不使用(yong)它,無論其(qi)適合(he),如果(guo)用(yong)戶希望從谷歌公司的(de)(de)ML云中獲(huo)取最(zui)高(gao)性能(neng)。另一(yi)(yi)(yi)個(ge)(ge)框(kuang)架(jia)可能(neng)更(geng)方便地用(yong)于特定作業,但是(shi)(shi)它可能(neng)不會快速地進行(xing)訓練或預測,因為(wei)它將(jiang)被委托(tuo)僅在(zai)GPU上運(yun)行(xing)。
  
  這也(ye)排除(chu)了谷歌可能推出其他硬件的可能性,如用戶可編程的FPGA,以允許(xu)不直(zhi)接由谷歌公司推出的框架也(ye)具有優(you)勢。
  
  但是對于(yu)大多數(shu)人(ren)來說,使用TPU加(jia)速某(mou)些(xie)事情的不(bu)便之處遠遠超過了為機器(qi)學習工作(zuo)提供管理的基于(yu)的一體機管(guan)道的便(bian)利(li)性(xing)。所(suo)以,無論(lun)喜歡與否,他們都(dou)會(hui)使用TensorFlow。