Compute Express Link

出典: フリー百科事典『ウィキペディア(Wikipedia)』
Compute Express Link
開発年 2019年 (5年前) (2019)
速度 Full duplex
1.x, 2.x (32 GT/s英語版):
  • 3.938 GB/s (×1)
  • 63.015 GB/s (×16)

3.0 (64 GT/s): 7.563 GB/s (×1)

121.0 GB/s (×16)
外部リンク www.computeexpresslink.org

Compute Express LinkCXL)は、高性能なデータセンターコンピューター向けに設計された、CPU-デバイス間およびCPU-メモリ間を高速に接続するためのオープンスタンダードである[1][2][3][4]

CXLは、PCI Express(PCIe)の物理的・電気的インターフェイス上に構築されており、PCIeベースのブロック入出力プロトコル(CXL.io)、システムメモリ(CXL.cache)およびデバイスメモリ英語版(CXL.mem)にアクセスするための新しいキャッシュコヒーレントプロトコルから構成される。

歴史[編集]

この標準は、主にIntelによって開発された。CXL Consortiumは、2019年3月にAlibaba GroupCiscoDell EMCFacebookGoogleHewlettPackard Enterprise(HPE)、HuaweiIntelMicrosoftからなる創設メンバーによって立ち上げられ[5][6]、2019年9月に正式に設立された[7]。2022年1月の時点で、取締役会の創設者にAMDNVidiaSamsungXilinxが加わり、contributing memberとしてARMBroadcomEricssonIBMKeysightKioxiaMarvellMellanox英語版MicrochipMicronOracleQualcommRambusRenesasSeagateSK HynixSynopsysWesternDigitalなどが参加した[8][9]。業界パートナーには、PCI-SIG英語版[10]Gen-Z英語版[11]SNIA[12]DMTFが参加している[13]

2020年4月2日、Compute Express LinkとGen-Zコンソーシアムは、両者のテクノロジー間の相互運用性を実装する計画を発表し[14][15]、最初の成果が2021年1月に発表された[16]。2021年11月10日、単一の業界標準の開発に注力するため、Gen-Zの仕様と資産がCXLに移管された[17]。この発表の時点で、Gen-Zメンバーの70%はすでにCXLコンソーシアムに参加していた。このコンソーシアムに参加していた企業には、OpenCAPI英語版(IBM)、CCIX英語版(Xilinx)、Gen-Z(HPE)オープンスタンダードなどのメモリコヒーレント相互接続テクノロジー、プロプライエタリのInfiniBand/RoCE英語版(Mellanox)、Infinity Fabric(AMD)、Omni-Path英語版およびQuickPath/Ultra Path英語版(Intel)、NVLink/NVSwitch(Nvidia)プロトコルの背後にある企業がある[18][19]

仕様[編集]

2019年3月11日、PCIe 5.0をベースにしたCXL Specification 1.0が公開された[6]。この仕様により、ホストCPUは、キャッシュコヒーレントプロトコルを使用して、アクセラレータデバイス上の共有メモリにアクセスできるようになった。 CXL Specification 1.1は、2019年6月に公開された。

2020年11月10日、CXL Specification 2.0が公開された。新しいバージョンでは、CXLスイッチングのサポートが追加され、分散共有メモリおよびdisaggregated storage英語版構成で、複数のCXL1.xおよび2.0デバイスをCXL2.0ホストプロセッサに接続したり、各デバイスを複数のホストプロセッサにプールしたりできるようになった。また、デバイス整合性とデータ暗号化も実装している[20]。CXL 2.0は引き続きPCIe 5.0 PHYを使用するため、CXL 1.xからの帯域幅の増加はない。

次のバージョンのCXL仕様は2022年上半期に予定されており、PCIe 6.0 PHYをベースとしたものになる予定である[19][21]

実装[編集]

2019年4月2日、IntelはCXLを搭載したAgilex FPGAファミリを発表した[22]

2021年5月11日、Samsungは128 GByte DDR5ベースのメモリ拡張モジュールを発表した。これを利用すると、データセンターや潜在的な次世代のPCに適した、テラバイトレベルのメモリ拡張が可能になる[23]。2022年5月10日には、プロプライエタリなメモリコントローラーを利用した、更新版の512 GByteバージョンがリリースされた[24]

2021年には、IntelのSapphire Rapidsプロセッサ[25]、AMDのZen 4 EPYC「Genoa」および「Bergamo」プロセッサでのCXL1.1のサポートが発表された[26]

CXLデバイスは、Intel[27]、Astera、Rambus、Synopsys、Samsung、Teledyne LeCroyなどにより、SC21 Conferenceで展示された[28][29][30]

2023年8月7日(米国時間)、マイクロンがサンプル出荷を開始[31]

プロトコル[編集]

CXLの標準では、3種類の独立したプロトコルが定義されている[32][20]

  • CXL.io - いくつかの拡張機能を備えたPCIe 5.0に基づいており、コンフィギュレーション、リンクの初期化と管理、デバイスの検出と列挙、割り込み、DMA、非コヒーレントなロード/ストアを使用したレジスタI/Oアクセスを提供する。
  • CXL.cache - 周辺機器が低遅延のリクエスト/レスポンスインターフェイスでホストCPUメモリにコヒーレントにアクセス・キャッシュできるようにする。
  • CXL.mem - ホストCPUが、揮発性(RAM)ストレージと永続的な不揮発性(フラッシュメモリ)ストレージ両方のロード/ストアコマンドを使用して、キャッシュされたデバイスメモリにコヒーレントにアクセスできるようにする。

CXL.cacheとCXL.memプロトコルは、CXL.ioプロトコルリンクとトランザクションレイヤーとは別の共通のリンク/トランザクションレイヤーで動作する。これらのプロトコル/レイヤーは、Arbitration and Multiplexing(ARB/MUX)ブロックによって多重化されてから、4つの16バイトデータslotsと2バイトの巡回冗長検査(CRC)値からなる固定幅528ビット(66バイト)のフロー制御ユニット英語版(Flow Control Unit、FLIT)ブロックを使用して標準のPCIe 5.0 PHYで転送される[32]。CXL FLITは、PCIe標準のトランザクション層パケット(TLP)とデータリンク層パケット(DLLP)データを可変フレームサイズ形式でカプセル化する[33][34]

デバイスタイプ[編集]

CXLは、次の3種類の主要なデバイスタイプをサポートするように設計されている[20]

  • Type 1(CXL.io、CXL.cache)- ローカルメモリのない特殊なアクセラレータ(スマートNICなど)。このタイプのデバイスは、ホストCPUメモリへのコヒーレントアクセスに依存している。
  • Type 2(CXL.io、CXL.cache、CXL.mem)- 高性能GDDRHBMローカルメモリを備えた汎用アクセラレータ(GPUASICFPGA)。このタイプのデバイスは、ホストCPUのメモリにコヒーレントにアクセスしたり、ホストCPUからデバイスのローカルメモリへのコヒーレントまたは非コヒーレントアクセスを提供できる。
  • Type 3(CXL.io、CXL.mem)- メモリ拡張ボードやストレージクラスメモリ。このタイプのデバイスは、ホストCPUにローカルのDRAMや不揮発性ストレージへの低遅延アクセスを提供する。

Type 2のデバイスは、デバイスドライバーが管理する2つのメモリコヒーレンスモードを実装する。デバイスバイアスモードでは、デバイスはローカルメモリに直接アクセスし、CPUによるキャッシュは実行されない。ホストバイアスモードでは、ホストCPUのキャッシュコントローラーがデバイスメモリへのすべてのアクセスを処理する。コヒーレンスモードは、4 KBページごとに個別に設定でき、Type 2のデバイスのローカルメモリの変換テーブルに保存される。他のCPU間メモリコヒーレンシプロトコルとは異なり、この配置では、ホストCPUメモリコントローラがキャッシュエージェントを実装するだけで済む。このような非対称的なアプローチにより、実装の複雑さが軽減され、待ち時間が短縮される[32]

関連項目[編集]

出典[編集]

  1. ^ ABOUT CXL” (英語). Compute Express Link. 2019年8月9日閲覧。
  2. ^ Synopsys Delivers Industry's First Compute Express Link (CXL) IP Solution for Breakthrough Performance in Data-Intensive SoCs”. finance.yahoo.com. Yahoo! Finance. 2019年11月9日閲覧。
  3. ^ A Milestone in Moving Data”. Intel Newsroom. Intel. 2019年11月9日閲覧。
  4. ^ Compute Express Link Consortium (CXL) Officially Incorporates; Announces Expanded Board of Directors” (英語). www.businesswire.com. Business Wire (2019年9月17日). 2019年11月9日閲覧。
  5. ^ Comment. Intel, Google and others join forces for CXL interconnect www.datacenterdynamics.com.
  6. ^ a b Cutress. “CXL Specification 1.0 Released: New Industry High-Speed Interconnect From Intel”. Anandtech. 2019年8月9日閲覧。
  7. ^ Compute Express Link Consortium (CXL) Officially Incorporates; Announces Expanded Board of Directors”. www.businesswire.com (2019年9月17日). 2022年7月29日閲覧。
  8. ^ Compute Express Link: Our Members”. CXL Consortium (2020年). 2020年9月25日閲覧。
  9. ^ Papermaster (2019年7月18日). “AMD Joins Consortia to Advance CXL, a New High-Speed Interconnect for Breakthrough Performance”. Community.AMD. 2020年9月25日閲覧。
  10. ^ CXL™ Consortium and PCI-SIG® Announce Marketing MOU Agreement” (2021年9月23日). 2022年7月31日閲覧。
  11. ^ Industry Liaisons”. 2022年7月31日閲覧。
  12. ^ SNIA and CXL™ Consortium Form Strategic Alliance” (2020年11月3日). 2022年7月31日閲覧。
  13. ^ DMTF and CXL™ Consortium Establish Work Register” (2020年4月14日). 2022年7月31日閲覧。
  14. ^ “CXL Consortium and Gen-Z Consortium Announce MOU Agreement”. Beaverton, Oregon. (2020年4月2日). https://b373eaf2-67af-4a29-b28c-3aae9e644f30.filesusr.com/ugd/0c1418_efb1cff3f41d486ea85d50ec638ea715.pdf 2020年9月25日閲覧。 
  15. ^ “CXL Consortium and Gen-Z Consortium Announce MOU Agreement”. (2020年4月2日). https://genzconsortium.org/cxl-consortium-and-gen-z-consortium-announce-mou-agreement/ 2020年4月11日閲覧。 
  16. ^ CXL™ Consortium and Gen-Z Consortium™ MoU Update: A Path to Protocol” (2021年6月24日). 2022年7月31日閲覧。
  17. ^ Consortium (2021年11月10日). “Exploring the Future”. Compute Express Link. 2022年7月31日閲覧。
  18. ^ Morgan (2021年11月23日). “Finally, A Coherent Interconnect Strategy: CXL Absorbs Gen-Z”. The Next Platform. 2022年7月31日閲覧。
  19. ^ a b Leopold, George (2021年12月9日). “CXL Will Absorb Gen-Z”. EETimes. 2022年7月31日閲覧。
  20. ^ a b c Compute Express Link (CXL): All you need to know”. Rambus. 2022年7月31日閲覧。
  21. ^ Rambus in two deals for datacentre interface eeNews Europe” (2021年6月16日). 2022年7月31日閲覧。
  22. ^ How do the new Intel Agilex FPGA family and the CXL coherent interconnect fabric intersect?” (英語). PSG@Intel (2019年5月3日). 2019年8月9日閲覧。
  23. ^ Samsung Unveils Industry-First Memory Module Incorporating New CXL Interconnect Standard” (英語). Samsung (2021年5月11日). 2021年5月11日閲覧。
  24. ^ Samsung Electronics Introduces Industry's First 512GB CXL Memory Module”. 2022年7月31日閲覧。
  25. ^ Intel Architecture Day 2021”. Intel. 2022年7月31日閲覧。
  26. ^ Paul Alcorn (2021年11月8日). “AMD Unveils Zen 4 CPU Roadmap: 96-Core 5nm Genoa in 2022, 128-Core Bergamo in 2023”. Tom's Hardware. 2022年7月31日閲覧。
  27. ^ Intel Sapphire Rapids CXL with Emmitsburg PCH Shown at SC21” (2021年12月7日). 2022年7月31日閲覧。
  28. ^ https://www.eetimes.com/cxl-put-through-its-paces/
  29. ^ CXL Consortium Showcases First Public Demonstrations of Compute Express Link Technology at SC21”. HPCwire. 2022年7月31日閲覧。
  30. ^ Consortium (2021年12月16日). “CXL Consortium Makes a Splash at Supercomputing 2021 (SC21)”. Compute Express Link. 2022年7月31日閲覧。
  31. ^ 株式会社インプレス (2023年8月24日). “PCIe接続でメモリを拡張する「CXLメモリ」、Micronがサンプル出荷”. PC Watch. 2023年11月14日閲覧。
  32. ^ a b c Compute Express Link Standard | DesignWare IP | Synopsys”. www.synopsys.com. 2022年7月31日閲覧。
  33. ^ Consortium (2019年9月23日). “Introduction to Compute Express Link (CXL): The CPU-To-Device Interconnect Breakthrough”. Compute Express Link. 2022年7月31日閲覧。
  34. ^ https://www.flashmemorysummit.com/Proceedings2019/08-07-Wednesday/20190807_CTRL-202A-1_Lender.pdf [bare URL PDF]

外部リンク[編集]