英特爾與日商Preferred Networks結盟,加速深度學習效能

2017年04月06日 09:29

記者洪聖壹/東京報導

物聯網(Internet of Things,IoT)、第5代行動通訊網路(5G)、以及人工智慧(Artificial Intelligence,AI)等技術,是推動產業運用資料與科技的主要動力,為加速業界在各種應用的創新,intel(英特爾)選擇從 AI技術與深度學習的演進下手,稍早與日本株式会社Preferred Networks (以下簡稱:PFN)共同宣布雙方攜手開發為深度學習(deep learning)所設計的開放原始碼(open source)框架Chainer,讓注入英特爾動力的通用型基礎架構得以加速深度學習效能。

由PFN開發的Chainer是一款以Python語言為基礎的深度學習框架,具備獨特性以及強大效能,其「Define-by-Run」的特性,讓使用者能簡單且直覺地設計出複雜的類神經網路(neural network)。自2015年6月Chainer開放其原始碼起,在雅馬遜倉庫機器手臂測試中,得到105分的高分,除了引起學術界關注之外,還吸引許多產業界使用者,這些用戶需要彈性的框架來使用深度學習於研究以及實際應用等範疇。

採用特定用途的運算環境來開發與建置AI應用以及深度學習框架,對開發者社群形成諸多挑戰,包括開發的複雜度、時間、以及成本等。PFN 開發了先進深度學習框架 Chainer,其簡單易用的特性被各行各業的程式開發者廣為推崇,英特爾則是廣用型運算技術以及AI/深度學習加速器的供應商之一,這項合作結合雙方技術,為使用先進AI與深度學習框架的應用程式之開發/執行成果進行最佳化。

intel 表示,2020 年 AI 在伺服器運算需求將比現在還要高 12 倍,此項合作案成形後,英特爾將協助Chainer提供突破性的深度學習處理能力,發展出業界最全方位的AI運算方案組合,其中包括Intel Xeon處理器、Intel Xeon Phi處理器、Intel Arria 10 FPGA、Intel Nervana技術、以及其他相關產品。

此框架將採用英特爾高度最佳化的開放原始碼程式庫Intel Math Kernel Library (MKL)以及Intel Math Kernel Library Deep Neural Network (MKL-DNN)作為基礎建構元素。



除此之外,英特爾將持續針對Chainer在英特爾架構(Intel Architecture,IA)的效能進行最佳化,同時也會針對Chainer的更新作調整,包括針對Chainer進行最佳化以更新至廣用型運算、加速器、程式庫以及其他應用的英特爾架構。此外,雙方將透過英特爾的GitHub儲存庫(https://github.com/intel/chainer) 與社群分享雙方共同開發原始碼的成果。同時推廣多項聯合行銷活動以加速AI/深度學習市場的成長。

讀者迴響

熱門新聞

奇幻武俠手遊《鬥神學院》上架

《VOEZ》週年慶祝活動開跑

《戰車世界》世界大賽開戰!

《當個創世神》大型MMORPG長怎樣

《刀劍神域》劇場版票房破9億

《柯南》番外主角想去米花市卻?

《閃亂神樂》最新作品繁中版來了

《軒轅劍》手遊新作亮相

屁孩牛皮吹破慘遭麻枝准打臉

《極地戰嚎 5》中文版同步推出

熱門快報