生成AIのビジネス活用を考える企業は多いが、自社の機密情報をクラウド上や公開されているAIサービスに預けることに対する懸念は根強い。この懸念を払拭するため、SambaNova Systems(本社:米国カリフォルニア州)はAIプロセッサから大規模言語モデル(LLM)まで、エンタープライズスケールでAIプラットフォームを構築し、プライベートな環境で利用できる統合環境を提供している。同社のLLMはOpenAIのGPT-4やGoogleのGeminiといった1兆パラメーター規模のモデルに匹敵するといい、日本のスーパーコンピューター「富岳」を管理・運営する理化学研究所計算科学研究センターにもシステムが採用されている。同社の共同創業者でCEOのRodrigo Liang氏に話を聞いた。

目次
機密情報を公開せずに使える生成AI
OpenAIやGoogleと肩を並べるパラメータ数
適切なAI戦略が勝者を決める

機密情報を公開せずに使える生成AI

―これまでのキャリアと、SambaNova Systemsの創業の経緯をお教えください。

 私のキャリアは1994年から1995年にかけて高性能コンピューティングの分野でスタートしました。初めはHewlett-Packard(HP)で高性能チップの開発に携わり、同社が製造した最初のハイエンドサーバー「Superdome」のプロジェクトに参加しました。

 HPで約6年間働いた後、スタンフォード大学のKunle Olukotun教授によって設立されたAfara Websystemsに移りました。彼はプロセッサがシングルコアの時代に、32コアを1つのチップに搭載できるアーキテクチャを開発しました。この技術はSun Microsystemsに買収され、私は2002年から2010年までSun Microsystemsのマルチコアプロセッサ部門を率いました。Sun Microsystemsが2010年にOracleに買収された後は、2010年から2017年までOracleのSPARCハードウェア事業を統括しました。

 2017年には、Olukotun教授、同じくスタンフォード大学のChristopher Ré准教授と共に、次世代のコンピューティングワークロード、特にAIによって大きく推進されるものについて考え始めました。大学での研究成果を基に、これらのワークロードをサポートするために必要なアーキテクチャについて検討し、大規模なニューラルネットワークの計算能力に大きな利点をもたらすことができるフルスタックな環境を構築するプロジェクトを立ち上げ、それがSambaNova Systemsの創業につながりました。

―創業から数年経過しています。現在はどのような事業を展開されていますか。

 私たちの技術には2つの重要な特徴があります。その1つが、NVIDIAのGPUと競合するAIプロセッサです。これにより、トレーニング、ファインチューニング、そして大規模な推論の実施が可能です。もう1つはOpenAIなどと競合するもので、1兆パラメーターの生成AIモデルを構築しています。私たちはチップからLLMまでを完全に最適化し、お客様のプライベート環境に導入して、その環境内でお客様のデータに基づいてトレーニングを行うことができます。ChatGPTのようなものを、ハードウェアも含めてエンタープライズ向けに構築していると考えてください。

 企業によっては、ChatGPTを気に入っていても、ポリシーによって使用できないケースもあります。私たちは顧客のデータをプライベートに学習し、そのモデルをプライベート環境で運用することができます。これは、企業の機密情報を公開せずに済むという点で大きなメリットです。

 ビジネスモデルは、お客様が必要とするユーザー数に応じた月額サブスクリプション料金です。従量課金のクラウドを利用する多くの企業がその支出額を見失いがちですが、私たちのサービスでは固定の月額料金ですので予算管理がしやすいです。

Rodrigo Liang
Co-Founder & CEO
1993年から2000年の間、Hewlett-Packardでハードウェア関連の業務に従事。2001年、マルチスレッドプロセッサーを開発するスタートアップ企業であるAfara Websystemsに参画。2002年、Sun MicrosystemsがAfara Websystemsを買収した後もプロセッサ開発グループを率いる。2010年、OracleがSun Microsystemsを買収した後も、Oracleのエンタープライズサーバー向けの最先端プロセッサとASICのデザインを担うエンジニアリング組織のリーダーを務めた。2017年にSambaNova Systemsを共同創業し、CEOに就任。

OpenAIやGoogleと肩を並べるパラメータ数

―技術について詳しく教えてください。どのような点が優れているのでしょうか。

 私たちが提供するのはフルスタックで、1兆パラメーターのLLMを含んでいます。現在世界には、このレベルのモデルが2つしかありません。1つはOpenAIのGPT-4、もう1つはGoogleのGeminiです。しかし、私たちはこれに続く形で、2024年2月に1兆パラメーターモデル「Samba-1」を発表しました。先ほどもお伝えしたように、他の2つと異なり、企業のプライベートな環境でトレーニングを可能にし、そのモデルを永久に所有できます。

 また、フルスタックであることの特別な点は、私たちは独自のチップ「RDU(Reconfigurable Dataflow Unit)」で動かすことができることです。RDUは、このタイプのモデルを実行するためにカスタムデザインされたアーキテクチャで動作します。現在、私たちは生産推論で、NVIDIAのGPUを使うよりも10倍多くの処理を行うことができます。同じサイズのモデルを動かすのに、NVIDIAのGPUが必要とするチップの10分の1で済むのです。

 NVIDIAはもともとグラフィックス分野からスタートし、その後AI分野へと進出しました。20数年にわたるチップとソフトウェアの開発を通じて、モデル探索やモデル開発を非常に効率的に行えるエコシステムを構築しました。しかし、現在、モデル1つに対してチップ1つが必要となり、このアプローチが高価であること、電力消費が高いこと、チップあたりのコストが非常に高いことなど、多くの課題に直面しています。これらの課題は多くのクライアントにとって実際の問題となっています。

 私たちは最新の第4世代チップを使用しており、NVIDIAのGPUよりも10倍効率的です。さらに、1つのチップで数百のモデルを実行できる能力を持っています。従来のNVIDIAのアプローチの限界を克服しています。本番環境においては、20%や30%の効率向上では不十分であり、10倍や100倍の効率向上が求められます。SambaNovaのプラットフォームを通じて10倍の効率性を得て、電力消費の大幅削減、ラック、相互接続、ネットワーキングの全てにおいて10倍の削減を実現します。より高いパフォーマンスと精度を達成することができることを大変誇りに思っています。

―御社のソリューションはどのような顧客が利用していますか。

 私たちは米政府内で最も広く導入されています。ローレンス・リバモア国立研究所やロスアラモス国立研究所、エネルギー省の国家核安全保障局など、国内の主要なスーパーコンピューティングセンターに私たちの技術が展開されています。また、Analog Devicesのような企業に対してLLMの構築を支援しています。

 日本でも活動を展開しており、理化学研究所やソフトバンクなどを支援しています。さらに、ヨーロッパ、中東、東南アジアにも拠点を持ち、主に大規模企業、政府機関、商業企業を対象にサービスを提供しています。データが豊富でビジネスに複雑性がある場合や、独自のAIを所有したいと考えているお客様に焦点を当てたサービスを展開しています。

image: SambaNova Systems HP

適切なAI戦略が勝者を決める

―御社自身の成長はいかがでしょうか。今後の計画も併せてお聞かせください。

 具体的な数字についてはまだ公開していませんが、過去12カ月で事業規模が3倍に増加し、次の12カ月でさらに3倍に増加することを予想しています。この背景にはAIに対する世界的な需要が高まっていること、プライベートで利用できるモデルが必要とされているからです。

 他の多くの企業の場合、公共のクラウドを利用するか、外部にデータを開示することを強いられます。私たちはプライベートデータを大切にする多くの企業に支持されています。正直なところ、プライベート環境に展開できる1兆パラメーターの生成AIモデルを、チップも含めて実現しているのは私たちだけです。特に精度や速度の面で非常に優位性があります。

 私たちは、2024年3月にオープンソースLLMのスピードと精度を比較できる「Sambaverse」を発表しました。これは、何百ものオープンソースのLLMを試し、任意のアプリケーションに対する応答を単一のエンドポイントから直接比較できるユニークなプレイグラウンドとAPIです。開発者は一つのプロンプトで複数のLLMを比較することができます。これは、誰でも試すことができますので、開発者たちの探求や、開発者コミュニティからのフィードバックを非常に楽しみにしています。

 多くの企業がAIを活用してコスト削減を図る一方で、新しい競争方法を見出すためにAIを使っている企業もあります。私たちは、クライアントがより効果的に競争できるように支援し、新しい製品やサービスを創出することに取り組んでいます。OpenAIを試したものの、プライバシーの問題から使用できないと判断する企業も多い中、私たちはプライベートな環境でのサービス構築を支援できます。

 現在、システムインテグレーターやリセラーといったパートナーを通じて、あるいは直接顧客にアプローチしてソリューションを構築します。どちらの方法も有効ですが、究極的には、AIをまだ導入していない状態から、全ての活動にAIが組み込まれた世界へと移行する方法を支援したいです。今日、インターネットが全ての活動に組み込まれているように、AIも全ての活動に組み込まれるべきであり、私たちはその過渡期をサポートできると考えています。

―長期的なビジョンを教えてください。また、将来のパートナーや顧客に対するメッセージもお願いします。

 現代の政府や企業をはじめとする全ての組織には、その運営の中心となる技術が存在します。これにはデータベース、コンピューティング、CRM(顧客関係管理)システムなどが含まれます。しかし、多くの組織が保有する膨大なデータの中には、未だ十分に活用されていないものが多いです。その主な理由は、重要なデータを効率的に探し出すことの難しさにあります。AI技術は、これらのデータを価値あるものへと変換する可能性を持っています。

 今後20年にわたり、セキュアなAIプラットフォームは企業にとって最も重要なアプリケーションとなるでしょう。インターネットが全ての分野で生産性を向上させたように、AIはそれをさらに飛躍させる力を持っています。企業の知識基盤の構築と、全ての知識労働者の生産性を10倍に向上させる環境を作り出すことが、極めて重要です。私たちは企業が独自のAI技術を所有できるよう支援し、その変革を加速させています。

 現在、私たちは世界にとって重要な瞬間を迎えています。20年以上前、インターネットが始まった当初にその波に乗った企業は、その後20年間大きな利益を得て、今日ではGoogle、Amazon、Netflixのような大企業に成長していますね。これらの企業は、インターネットをいち早く取り入れたことで、伝統的な企業が追いつけないほどのアドバンテージを確立しました。現在、AIが同じような変革の時期にあり、早期にAIに投資する企業は大きな競争優位を確保するでしょう。

 AIを取り入れることは、製品やサービスを変革し、企業文化を進化させることを含みます。そのため、この技術革新の波に早くから乗ることが、企業にとって極めて重要な戦略的決断となります。



RELATED ARTICLES
コーヒーショップの混雑観測から始まったスマートビル革命 Density
コーヒーショップの混雑観測から始まったスマートビル革命 Density
コーヒーショップの混雑観測から始まったスマートビル革命 Densityの詳細を見る
クラウド全盛時代の新常識?CPU・GPUが利用データを暗号化 Anjuna
クラウド全盛時代の新常識?CPU・GPUが利用データを暗号化 Anjuna
クラウド全盛時代の新常識?CPU・GPUが利用データを暗号化 Anjunaの詳細を見る
勉強を「学び」から「遊び」に ゲーム感覚の学習プラットフォームが子供に人気 SplashLearn
勉強を「学び」から「遊び」に ゲーム感覚の学習プラットフォームが子供に人気 SplashLearn
勉強を「学び」から「遊び」に ゲーム感覚の学習プラットフォームが子供に人気 SplashLearnの詳細を見る
ソフトバンクも出資する韓国の人気旅行アプリの強さとは ヤノルジャ
ソフトバンクも出資する韓国の人気旅行アプリの強さとは ヤノルジャ
ソフトバンクも出資する韓国の人気旅行アプリの強さとは ヤノルジャの詳細を見る
ライドシェアとは一線画す、相乗りビジネスの成功モデル BlaBlaCar
ライドシェアとは一線画す、相乗りビジネスの成功モデル BlaBlaCar
ライドシェアとは一線画す、相乗りビジネスの成功モデル BlaBlaCarの詳細を見る
AI向け性能は最大10倍?チップレット相互接続の独自技術を開発 Eliyan
AI向け性能は最大10倍?チップレット相互接続の独自技術を開発 Eliyan
AI向け性能は最大10倍?チップレット相互接続の独自技術を開発 Eliyanの詳細を見る

NEWSLETTER

世界のイノベーション、イベント、
お役立ち情報をお届け
「オープンイノベーション事例集 vol.5」
もプレゼント

Follow

探すのは、
日本のスタートアップだけじゃない
成長産業に特化した調査プラットフォーム
BLITZ Portal

Copyright © 2024 Ishin Co., Ltd. All Rights Reserved.