隨著國內經濟的發展,芯片市場發展面臨巨大機遇和挑戰。在市場競爭方面,芯片企業數量越來越多,市場正面臨著供給與需求的不對稱,芯片行業有進一步洗牌的強烈要求,但是在一些芯片細分市場仍有...
與傳統的計算模式不同,人工智能要模仿的是人腦的神經網絡,從最基本的單元上模擬了人類大腦的運行機制。它不需要人為的提取所需解決問題的特征或者總結規律來進行編程。
2018年1月9日,全球規模最大的2018北美消費電子產品展在美國拉斯維加斯拉開帷幕。本次參展的科技企業超過4000家,包括高通、英偉達、英特爾、LG、IBM、百度在內的業界科技巨頭紛紛發布了各自最新的人工智能芯片產品和戰略,作為本屆展會的最大看點,人工智能芯片產品無疑受到了最為廣泛的關注。
與CPU比較,人工智能芯片有何不同?
2017年,當AlphaGo在圍棋大戰中完勝柯潔后,各大媒體對人工智能的討論就不絕于耳,甚至有人擔心機器會具備自主思維,終有一天會像電影《終結者》中的場景一樣對人類造成生存威脅。不管這種危機是否存在,但必須認識到人工智能芯片在架構和功能特點上與傳統的CPU是有著非常大的區別。
傳統的CPU運行的所有的軟件是由程序員編寫,完成的固化的功能操作。其計算過程主要體現在執行指令這個環節。但與傳統的計算模式不同,人工智能要模仿的是人腦的神經網絡,從最基本的單元上模擬了人類大腦的運行機制。它不需要人為的提取所需解決問題的特征或者總結規律來進行編程。
人工智能是在大量的樣本數據基礎上,通過神經網絡算法訓練數據,建立了輸入數據和輸出數據之間的映射關系,其最直接的應用是在分類識別方面。例如訓練樣本的輸入是語音數據,訓練后的神經網絡實現的功能就是語音識別,如果訓練樣本輸入是人臉圖像數據,訓練后實現的功能就是人臉識別。
通常來說,人工智能包括機器學習和深度學習,但不管是機器學習還是深度學習都需要構建算法和模式,以實現對數據樣本的反復運算和訓練,降低對人工理解功能原理的要求。因此,人工智能芯片需要具備高性能的并行計算能力,同時要能支持當前的各種人工神經網絡算法。傳統CPU由于計算能力弱,支撐深度學習的海量數據并行運算,且串行的內部結構設計架構為的是以軟件編程的方式實現設定的功能,并不適合應用于人工神經網絡算法的自主迭代運算。傳統CPU架構往往需要數百甚至上千條指令才能完成一個神經元的處理,在AI芯片上可能只需要一條指令就能完成。
解讀主流的人工智能芯片
人工智能的高級階段是深度學習,而對于深度學習過程則可分為訓練和推斷兩個環節:訓練環節通常需要通過大量的數據輸入或采取增強學習等非監督學習方法,訓練出一個復雜的深度神經網絡模型。訓練過程由于涉及海量的訓練數據和復雜的深度神經網絡結構,需要的計算規模非常龐大,通常需要GPU集群訓練幾天甚至數周的時間,在訓練環節GPU目前暫時扮演著難以輕易替代的角色。推斷環節指利用訓練好的模型,使用新的數據去“推斷”出各種結論,如視頻監控設備通過后臺的深度神經網絡模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環節的計算量相比訓練環節少,但仍然涉及大量的矩陣運算。
在推斷環節,除了使用CPU或GPU進行運算外,FPGA以及ASIC均能發揮重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及類腦芯片為主。
1.FPGA
即專用集成電路,一種集成大量基本門電路及存儲器的芯片,可通過燒入FPGA配置文件來來定義這些門電路及存儲器間的連線,從而實現特定的功能。而且燒入的內容是可配置的,通過配置特定的文件可將FPGA轉變為不同的處理器,就如一塊可重復刷寫的白板一樣。FPGA有低延遲的特點,非常適合在推斷環節支撐海量的用戶實時計算請求,如語音識別。由于FPGA適合用于低延遲的流式計算密集型任務處理,意味著FPGA芯片做面向與海量用戶高并發的云端推斷,相比GPU具備更低計算延遲的優勢,能夠提供更佳的消費者體驗。在這個領域,主流的廠商包括Intel、亞馬遜、百度、微軟和阿里云。
2.ASIC
即專用集成電路,不可配置的高度定制專用芯片。特點是需要大量的研發投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學習方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風險。但ASIC作為專用芯片性能高于FPGA,如能實現高出貨量,其單顆成本可做到遠低于FPGA。
谷歌推出的TPU就是一款針對深度學習加速的ASIC芯片,而且TPU被安裝到AlphaGo系統中。但谷歌推出的第一代TPU僅能用于推斷,不可用于訓練模型,但隨著TPU2.0的發布,新一代TPU除了可以支持推斷以外,還能高效支持訓練環節的深度網絡加速。根據谷歌披露的測試數據,谷歌在自身的深度學習翻譯模型的實踐中,如果在32塊頂級GPU上并行訓練,需要一整天的訓練時間,而在TPU2.0上,八分之一個TPUPod(TPU集群,每64個TPU組成一個Pod)就能在6個小時內完成同樣的訓練任務。
3.GPU
即圖形處理器。最初是用在個人電腦、工作站、游戲機和一些移動設備上運行繪圖運算工作的微處理器,可以快速地處理圖像上的每一個像素點。后來科學家發現,其海量數據并行運算的能力與深度學習需求不謀而合,因此,被最先引入深度學習。2011年吳恩達教授率先將其應用于谷歌大腦中便取得驚人效果,結果表明,12顆英偉達的GPU可以提供相當于2000顆CPU的深度學習性能,之后紐約大學、多倫多大學以及瑞士人工智能實驗室的研究人員紛紛在GPU上加速其深度神經網絡。
GPU之所以會被選為超算的硬件,是因為目前要求最高的計算問題正好非常適合并行執行。一個主要的例子就是深度學習,這是人工智能(AI)最先進的領域。深度學習以神經網絡為基礎。神經網絡是巨大的網狀結構,其中的節點連接非常復雜。訓練一個神經網絡學習,很像我們大腦在學習時,建立和增強神經元之間的聯系。從計算的角度說,這個學習過程可以是并行的,因此它可以用GPU硬件來加速。這種機器學習需要的例子數量很多,同樣也可以用并行計算來加速。在GPU上進行的神經網絡訓練能比CPU系統快許多倍。目前,全球70%的GPU芯片市場都被NVIDIA占據,包括谷歌、微軟、亞馬遜等巨頭也通過購買NVIDIA的GPU產品擴大自己數據中心的AI計算能力。
4.類人腦芯片
類人腦芯片架構是一款模擬人腦的新型芯片編程架構,這種芯片的功能類似于大腦的神經突觸,處理器類似于神經元,而其通訊系統類似于神經纖維,可以允許開發者為類人腦芯片設計應用程序。通過這種神經元網絡系統,計算機可以感知、記憶和處理大量不同的情況。
IBM的TrueNorth芯片就是其中一個。2014年,IBM首次推出了TrueNorth類人腦芯片,這款芯片集合了54億個晶體管,構成了一個有100萬個模擬神經元的網絡,這些神經元由數量龐大的模擬神經突觸動相連接。TrueNorth處理能力相當于1600萬個神經元和40億個神經突觸,在執行圖象識別與綜合感官處理等復雜認知任務時,效率要遠遠高于傳統芯片。
細分市場研究 可行性研究 商業計劃書 專項市場調研 兼并重組研究 IPO上市咨詢 產業園區規劃 十三五規劃
中研網 發現資訊的價值
研究院 掌握產業最新情報 中研網是中國領先的綜合經濟門戶,聚焦產業、科技、創新等研究領域,致力于為中高端人士提供最具權威性的產業資訊。每天對全球產業經濟新聞進行及時追蹤報道,并對熱點行業專題探討及深入評析。以獨到的專業視角,全力打造中國權威的經濟研究、決策支持平臺!
廣告、內容合作請點這里尋求合作
2018年,無人機的功能將得到歷史性的革命。多臺高功能相機的使用,以及升級的全球衛星導航系統(GNSS),將大幅提高無...
如果要給美國再找一位除中國以外的人工智能假想敵,很可能就是俄羅斯了。美俄之間的技術競賽,從冷戰時期就已經開始,...
英特爾悄悄建議特定客戶不要裝補丁?這是真的嗎?英特爾芯片門再生事端,因為補丁也有缺陷,英特爾正在悄悄建議一些客...
今年內存價格走勢如何?1月11日,全球電阻第一大廠國巨上調電阻價格的消息不脛而走。據了解,此次調價主要是因為匯率1...
深圳順絡電子股份有限公司成立于2000年3月,是一家專業從事各類片式元器件研發、生產和銷售的高新技術企業,主要產品N...
中國制造業轉型升級迫在眉睫。記者近期赴粵、蘇、閩等地深入調研了解到,一方面,諸多關鍵技術打破國外壟斷,產品卻“...