目次
・ChatGPT登場前にAI分野の課題を予見
・巨大クラスターを構築する、どうやって?
・「超高速」の秘密は統合とシンプルさ
・日本市場向けに、日本で開発も視野
ChatGPT登場前にAI分野の課題を予見
―まずはご経歴に加え、Enfabricaを設立した理由についてお聞かせください。
私は25年以上にわたり半導体業界に深く関わってきました。主に通信、ネットワーキング、クラウドコンピューティング向けの大型チップやシリコン製品の開発に携わってきました。Enfabricaを創業する前は、Broadcomで約10年間、データセンターイーサネットスイッチングシリコン製品ラインを率いていました。顧客との関わりや製品定義など、あらゆる側面を担当していました。その経験を通じて、データセンターコンピューティング市場と今後の課題について深い理解を得ることができました。
この間、米国、ヨーロッパ、イスラエル、中国を含むアジア、日本など、世界中の優れた顧客と交流する機会にも恵まれました。分散コンピューティングシステムの台頭と、ネットワーキングがそれをどのように促進しているかを目の当たりにし、多くを学びました。
2019年から2020年にかけて、データセンターコンピューティングに変化の兆しが見え始めました。それは、伝統的なCPUを使用するコンピューティングから、現在は主にGPUによって行われる高速コンピューティングへのシフトでした。この変化は今やAIと同義になっていますね。この10年、NVIDIAはデータセンター領域での収益を伸ばし、GoogleやMetaなどがAIをシステムにどのように展開するかについての研究を発表しています。知的に興味深い技術的変化であると同時に、重要な市場シフトの可能性も秘めていました。
当時は、現在のようなChatGPTや推論モデルの爆発的な発展を誰も予測できていませんでしたが、私たちは市場の重要な課題を認識していました。既存のネットワークシリコン業界は依然として従来型のコンピューティング向けの製品開発に注力していたのです。私自身がBroadcomで開発していた製品も含め、当時の製品は旧来のシステム向けに最適化されていました。しかし、新しい高速コンピューティングシステムを分析すると、GPUの数とそれに伴う膨大なデータ移動量から、従来とは異なる専用のネットワークソリューションが必要であることは明白でした。
これが私たちにとってチャンスだと感じました。当時、Googleにいた友人であり共同創業者であるShrijeet Mukherjeeと何度も議論を重ね、高速コンピューティングがデータセンターの「肝」になるという時代を想定して、パフォーマンス、効率性、レジリエンス、柔軟性に優れたシステムを構築するためのより良いネットワークシリコンとソフトウェアの定義が必要だという結論に達しました。

巨大クラスターを構築する、どうやって?
―御社の技術やアーキテクチャについて詳しく教えてください。どのような問題を解決しようとしているのでしょうか?
私たちのミッションは、高速コンピューティングのためのネットワークをより効率的で、スケーラブルで、高パフォーマンスなものにすることです。そのために、ネットワークの構築方法を再定義しています。そのために、ネットワーキング、インフラストラクチャソフトウェア、NIC(ネットワーク・インターフェース・コントローラ)やスイッチ、アクセラレータなどの分野で優れた製品を構築してきた企業出身の人材を集めています。
私たちが開発した製品「ACFスーパーNIC*」チップは、AIデータセンター向けに設計された画期的なNICです。この特別なチップは、1秒間に3.2テラビットという大量のデータを送ることができ、800ギガビットイーサネットを複数ポートで提供します。これにより、従来のGPU接続NICと比較して4倍の帯域幅を実現しています。
*ACFは「Accelerated Compute Fabric」の略
取り組んでいる問題は、コンピュート容量が急増している現状に対し、プロセッサへの入出力(I/O)の変化の速度がはるかに遅いという点です。大規模なコンピューティングシステムは、コンピュート、メモリ、I/Oの制約の関数です。Enfabricaは、既存の大量のコンピュートと、入出力におけるボトルネックとの間のギャップを埋めるプロダクトを作ることに焦点を当てています。
プロセッサに十分な速度でデータを供給しなければ、車がエンジンをかけたまま動かないような「アイドリング状態」になってしまいます。特にGPUはCPUと比べてコストが桁違いに高いため、高価な計算資源を最大限に活用することが重要です。そのためには、計算資源へのネットワーク接続を高性能化し、すべてのコンピューティングリソースを常に有効に機能させる必要があります。
AIの分野では、すべてのコンピュートコンポーネントがワークロード内で連携して動作することが求められます。トレーニングや推論、モデルの最適化、テスト時の計算など、現在注目されている技術は、インターコネクトを介して多くの機能が協調することで成り立っています。このインターコネクトの性能が、データセンター規模のコンピュータ全体の特性を左右します。
この問題が重要視されているのは、世界中の大企業が大規模なAIシステムの構築を目指しているからです。OpenAIとSoftBankによるStargate Projectの発表をご覧になった方も多いでしょう。AIサービスを展開する企業は、インフラストラクチャをコンポーネントレベルから自社で管理したいと考えています。しかし、これらのシステムはもともと小規模で運用されていたものが、現在では爆発的に拡大しており、その急成長に対応する必要があります。
都市機能に例えてみましょう。人口1,000人の都市に、住宅やオフィス、学校を結ぶ道路インフラが整備されているとします。もしこの人口が1年で100万人に増えたらどうなるでしょうか。道路や高速道路は十分に機能するでしょうか。人々はスムーズに移動できるでしょうか。これこそが現在直面している課題です。「巨大なクラスターを構築する」と言うものの、それをどのように実現するのか、また最高のパフォーマンスと効率、電力管理を考慮した設計になっているのかが問われています。これが問題の核心です。

image : Enfabrica ACF SuperNIC Chip
「超高速」の秘密は統合とシンプルさ
―高速なGPUに対して、周辺のシステムが追いついていないということですね。
現在のGPUネットワーキングでは、GPUはPCIe(PCI Express)スイッチに接続され、そのスイッチがRDMA(リモート・ダイレクト・メモリー・アクセス)対応のNICに接続されています。これらはすべて異なるチップで構成されており、その後、他のスイッチと接続されたネットワークスイッチを経由します。すべてのGPUに対して同様の接続構造が存在し、大規模なネットワークと通信するためには、2〜3段階のインターコネクトを通過する必要があります。これが、現在のGPUラック内部の構造です。
Enfabricaが取り組んでいるのは、GPUをネットワークに接続するこれらのデバイスを単一のデバイスに統合することです。この統合デバイスは複数のGPUにまたがって共有され、コンピュートとネットワークの両方に向けた多くのインターフェースを備えているため、高いレジリエンスを持ちます。また、そのプログラミングモデルはシンプルで効率的に動作します。これらが、従来のソリューションと比較してEnfabricaが提供する主要な要素と利点になります。
Enfabricaが開発しているのは加速コンピュートファブリックです。これは、PCIeスイッチング、RDMA対応NIC、ネットワークスイッチングの初期レイヤーの機能を統合し、ネットワークの階層を簡素化するものです。私たちの技術により、AIデータセンター内のコンピュート間のインターコネクトパスをより効率的に最適化できるようになるのです。
image : Enfabrica HP
日本市場向けに、日本で開発も視野
―ビジネスの進捗状況はいかがですか?過去数カ月または数年間のビジネスの成長指標について教えていただけますか?
当社は創業から4年以上が経ちますが、この規模のチップを開発することは非常に挑戦的なプロジェクトでした。2024年11月にようやく、ACFスーパーNICチップの提供開始を発表しました。最初の製品は今四半期中にさまざまな顧客へ出荷される予定です。
北米には、最先端のAIインフラの設計に取り組む企業が多く存在しますが、日本を含むグローバル企業も、現在利用可能な技術を超える、より優れたソリューションや効率的なAIインフラへの投資に注力しています。場合によっては、日本市場向けに日本で開発された製品、インド市場向けにインドで開発された製品、ヨーロッパ市場向けにヨーロッパで開発された製品など、地域に最適化された処理ソリューションを採用するケースも出るでしょう。
―グローバルにビジネスを拡大する際、日本企業とどのようなパートナーシップが望ましいですか?
私は以前の事業や会社で日本の顧客と関わる機会があり、日本は技術統合の面で素晴らしい市場です。また、新しい技術と協力することにも積極的です。私たちには、ソフトバンクグループのArmなど日本とも密接に関連しているいくつかの投資家がいますし、すでにいくつかのパートナーシップが芽生えつつあります。
今後のビジネス目標は、パートナーシップを通じて製品を日本で構築されるシステム向けに提供することです。対象となる分野はAIや、コンポーザブル・ディスアグリゲイテッド・インフラストラクチャ(CDI:ソフトウェアによって動的に組み合わせ可能なインフラの概念)など、多岐にわたります。CDIは日本でも注目を集めており、重要な取り組みとなっています。これからの設計フェーズの立ち上げと、日本の顧客との協力による市場の成長を楽しみにしています。
―長期的なビジョンについて教えてください。
私たちのビジョンは自社だけのものではなく、業界全体が共有するものです。それは、コンピュートリソースが豊富になり、高速コンピューティングやAI、インテリジェンスの発展を通じて生産性の向上や人類の進歩に貢献するという考え方に基づいています。この進化は特定の企業や組織に独占されるのではなく、ユーザー自身がコントロールできる形で民主化されるべきだと考えています。
AIを世界的に安全で持続可能な技術とするには、一企業の努力だけでは不可能です。私たちのビジョンでは、コンピュートはより多様化し、優れた意思決定を可能にするだけでなく、インフラストラクチャやワークロードの構築において新たな手法を生み出し、よりインテリジェントなサービスを提供できるようになることが求められます。
Enfabricaは、業界の主要ベンダーの一つとして、多様化するコンピュート環境に適したネットワーキングとインターコネクトレイヤーを提供することを目指しています。私たちは、誰も実現できなかった方法で高速コンピューティングを接続し、システムの持つポテンシャルを最大限に引き出すことです。そして、ソブリンAI、ハイパースケール、プライベートエンタープライズ、自動車産業など、どの分野のユーザーであれ、自らのシステムをどのように構築し、組み立て、進化させるかを自由に決定できる環境を提供します。
AIの真の力は、多くの人が活用できることにあります。私たちは、ネットワーキングこそがそれを支える基盤技術であると信じています。
―日本の潜在的なパートナーや潜在的なクライアントに向けてメッセージはありますか?
現在、日本のいくつかのパートナーと協力を進めています。まだ始まったばかりですが、スタートアップとして、AIや高速コンピューティング、CDIに関する日本市場の可能性を強く信じています。日本の技術プロバイダーやインフラ構築企業との連携は非常に重要であり、より優れたシステムの構築・展開を目指す取り組みに、当社の技術を提供する準備が整っています。
現時点では規模が小さいかもしれませんが、日本市場のニーズを深く理解し、従来のシステムや市場の標準とは異なる新しいアプローチを実現する機会を模索しています。もしそれらのパートナーが私たちの技術と、この技術の将来性に信頼を置いてくれるなら、私たちはそのようなプロジェクトを成功させることを約束します。