OCP | 開放運算計畫

  • 開放運算計畫是什麼?
    開放運算計畫是由臉書(Facebook)、英特爾(Intel)、雲指南(Rackspace)及高盛(Goldman Sachs)在2011年所創立的非營利組織。成立的目的是為了打造開放式資料中心硬體架構,供會員和大眾推廣產品設計及實務。

    根據OCP官網聲明 ,OCP目的是「…重新定義硬體,提升硬體的效率、韌性和可擴充性…與全球技術領導者攜手合作,打破專有 IT 的黑匣子以實現更多選擇、客製化和成本節約。」

    OCP會定期為會員們舉行線上會議及研討會,以分享、討論新的資料中心硬體設備(包括伺服器、儲存、交換機和資料中心機架式伺服器)的設計和開發,同時也會舉辦年度高峰會(近期因冠狀病毒疫情的關係改為線上會議)。

  • 為何需要?
    開源硬體組織的好處和開源軟體雷同,皆是推廣為了改善原有的設計和作品而由一群團結合作的工程師不斷研發更新和更有效率的設計和作品所成立的一大社團。這些OCP設計者皆來自各大公司及擁有不同背景,這使得他們能夠貢獻出各自獨特的專業和經驗,一起改善開源的設計。這個共享研發方法也能保證由不同廠商所提供的產品的互通性;讓消費者有足夠空間和彈性去任意搭配由不同公司所提供的產品和解決方法,以符合其運算基礎設施需求。

    擁有超大規模伺服器的大規模公司是開放運算計畫伺服器和機架設計的主要服務對象; 如Facebook、GOOGLE、YAHOO和LinkedIn。開放運算計畫伺服器和機架基礎架構目的是為了提升效率和有效降低成本而設計。舉例來說,提高機架使用空間的效能(因使用開放運算計畫設計的21吋機架比起標準19吋機架伺服器還要來的寬,所以能在單一機架上放更多台伺服器)。另一目的是提升供電效能(開放運算計畫的設計是能夠使用一獨立供應電來降低電源的需求及降低管理和管理成本。)

    Facebook聲稱在部署開放運算計畫伺服器和機架式基礎架構後,相較該公司從前的硬體設備,電力效能提高了38%而運轉成本降低了24%。

    然而,開放運算計畫也在努力開發共享的開源規範和設計,以適合僅部署有限數量伺服器的公司,例如OCP夾層插槽,用於擴充網絡/存儲卡的擴充卡/插槽規範,已被眾多附加卡供應商(例如Mellanox和Broadcom)和伺服器製造商(例如GIGABYTE)廣泛採用。

  • 技嘉的特色
    GIGABTYE 是 OCP 的活躍成員,定期參加 OCP 的年度高峰會,並不斷設計與發佈符合 OCP 開放機架標準規範的新運算、儲存和 GPU 伺服器硬體,如技嘉Data Center - OCP系列的產品。

    此外,GIGABTYE也將OCP的擴充槽設計,融入到標準機架式伺服器高密度GPU協同運算伺服器 和儲存伺服器產品中。GPU和儲存伺服器透過OCP擴展插槽,可以兼容的PCIe Gen 3.0或Gen 4.0網路。在有限的硬體空間內能提供最大的散熱性(在 OCP 3.0 的情況下,還允許熱插拔安裝/拆卸)。

    這使得更多的伺服器的標準PCIe擴充槽和閒置空間能被利用,用來部署需要更多物理空間和氣流運轉的最大數量GPU或FPGA卡。

  • WE RECOMMEND
    RELATED ARTICLES
    Czech’s biggest search engine builds infrastructure on top of GIGABYTE solutions

    Success Case

    Czech’s biggest search engine builds infrastructure on top of GIGABYTE solutions

    Seznam, a major player in the Czech Republic internet market, in a search to upgrade its hardware infrastructure, found in GIGABYTE the ideal hardware solution partner to increase scalability and performance of its online services, resulting in major improvements in efficiency.
    How to Pick the Right Server for AI? Part Two: Memory, Storage, and More

    Tech Guide

    How to Pick the Right Server for AI? Part Two: Memory, Storage, and More

    The proliferation of tools and services empowered by artificial intelligence has made the procurement of “AI servers” a priority for organizations big and small. In Part Two of GIGABYTE Technology’s Tech Guide on choosing an AI server, we look at six other vital components besides the CPU and GPU that can transform your server into a supercomputing powerhouse.
    What is Edge Computing? Definition and Cases Explained

    Cloud

    What is Edge Computing? Definition and Cases Explained

    With the proliferation of 5G communications technology, edge computing—the practice of performing computing tasks as physically or logically close as possible to where data is created and commands are executed—has begun to permeate the modern world of smart technology. In this article, we explore the concept of edge computing in detail, and explain how it offers many excellent advantages, especially in terms of latency reduction for applications that rely on real-time decision-making.