微軟新推出的Project Zipline壓縮算法,足夠快到可以在壓縮數據的同時(shí),把數據寫(xiě)入SSD或者從物聯(lián)網(wǎng)設備進(jìn)行上傳,而且在微軟內部工作負載,也就是最初開(kāi)發(fā)時(shí)的目標對象上獲得高達96%的壓縮率。
如此快速和高效,是因為它采用了一種自定義硬件加速器,可以多次尋找出比壓縮算法通常處理的更多模式;而且匹配這些模式的數據,將被模式的一個(gè)參考所取代,從而占用的空間更小。
因此,微軟除了發(fā)布壓縮算法規范作為自己對Open Compute Project Foundation的貢獻之外,還發(fā)布了運行該算法開(kāi)發(fā)芯片所需的Verilog Register-transfer Level (RTL)文件。
微軟計劃在Project Cerberus下一代版本中也做相同的事情,Project Cerberus硬件“信任根”規范的目標,是幫助固件防止惡意軟件入侵,讓你不再擔心所訂購的硬件是否曾經(jīng)被篡改過(guò)。第一個(gè)版本有一個(gè)單獨的控制器,可以插入服務(wù)器上的PCI總線(xiàn),但是微軟希望在芯片(例如CPU)層面——甚至是內存和存儲層面——也有相同的保護措施。而且,當微軟向OCP貢獻第二代Cerberus規范的時(shí)候,其中就將包含RTL文件,這樣廠(chǎng)商們就可以輕松地將其添加到自己的芯片設計中。
物理實(shí)現是最棘手的部分;硬件提供商通常會(huì )在他們交付基于開(kāi)放標準的系統時(shí),自行來(lái)解決這個(gè)部分的問(wèn)題,因為這是他們相互競爭的一個(gè)部分。但是你希望的是廠(chǎng)商采用你的開(kāi)放標準,因為對你來(lái)說(shuō),使用的人越多就越有用。
如果你按照廠(chǎng)商希望的那樣,在Open Data Initiative下把數據從Azure遷移到Adobe的營(yíng)銷(xiāo)云、SAP或者Dynamics上,那么在遷移數據的同時(shí),對數據進(jìn)行壓縮——而不是擴展——操作就會(huì )更有意義。這樣做,意味著(zhù)云和你使用的任何服務(wù)器都需要支持Zipline。
使用Verilog和RTL文件(用于描述構成芯片設計的電路)——來(lái)指定芯片設計,這一點(diǎn)是很困難的。擁有這種技能的程序員寥寥無(wú)幾,而且這也不是一種常見(jiàn)技能,這就解釋了為什么很多超大規模云計算——而不是普通的企業(yè)——才能夠利用FPGA的靈活性來(lái)交付經(jīng)過(guò)精確設計可以有效運行特定算法的硬件。微軟通過(guò)開(kāi)放這種往往僅用于微軟內部的設計,讓自己更容易把Project Zipline和Cerberus構建到產(chǎn)品中,從而才能被更多的人使用。
Intel、AMD、Ampere、Arm、Marvell和SiFive都在開(kāi)發(fā)采用Zipline的CPU;Broadcom、Fungible、Mellanox、Eideticom、NGD和Pure Storage正在將Zipline添加到自己定位網(wǎng)卡和存儲系統中。雖然英特爾沒(méi)有明確表示會(huì )把Cerberus下一代版本構建到自己的CPU中,但邀請微軟Cerberus團隊參加OCP峰會(huì )并做主題演講,很大程度上是一個(gè)很明顯的跡象了。
這可能是前所未有的開(kāi)放貢獻,但也非常符合OCP的精神,對于超大規模云提供商來(lái)說(shuō),OCP最初的目標是讓廠(chǎng)商能夠更輕松地打造出他們希望采購的硬件。
現在,OCP已經(jīng)遠遠不局限于服務(wù)器和機架,其衍生產(chǎn)品對于更多企業(yè)組織來(lái)說(shuō)是有意義的,因此微軟完全有理由這樣做