AIで3D環境を把握する
―Lucidの事業概要について教えてください。
私たちはAI、マシンラーニングを利用し、マルチカメラがついたデバイスで奥行きや3D情報などのデータを得られるソフトウェア(SDK)を開発しています。取得したデータはARやVR、3Dの顔認証などのアプリケーションに活用することが可能です。
私たちはいつかどのデバイスにもカメラがつくと考えました。特にロボットには。もしロボット自身が自動的にロボット自身を制御したり、何らかの決定を下したりするのであれば、人間と同じように「見る」能力を与えなくてはいけないからです。
まず私たちはニューラルネットワークを使い、脳のプロセスを再構築することで人間の目の動きをマネすることからスタートしました。私たちは3つのパーツからマシンラーニングをトレーニングしました。それらは「人間の視覚が捉えているもの」「何度も同じ状況を見せること」「人間の脳が人間の視覚に見せているもの」の3つです。
これらのトレーニングをディープラーニングモデルへ昇華させました。私たちはこれらのことをクラウド上で行っていましたが、ディープラーニングの小さいコピーをダウンロードすることで携帯電話などのエッジデバイス上でも動作できるようにしました。
―他社との違いは何でしょう。
私たちがソフトウェア企業であることです。AR/VRや3D関連のサービスを開発する場合、多くがハードウェアサイドに寄ります。またはLightのように自ら開発したチップに頼る企業もあります。チップはデバイスに統合され、バッテリーを利用して動きます。チップを利用する場合、バッテリーの残量を管理したり、オーバーヒートを回避するようマネジメントする必要があります。これらには多大な労力とコストがかかります。
しかし、私たちはハードウェアを開発していません。私たちはこれらの問題をソフトウェアを開発・提供することで解決しています。
顔認証、AR/VR、ゲームまで
―どのように活用できるのでしょうか。
例えば顔認証などに応用できます。より正確な情報が取得できます。
またAR/VRにも利用することができます。AR/VRでは周りの環境を深く理解することが必要です。それはゲーム業界にも関わります。Pokemon Goなどがそうですよね。携帯電話のカメラをかざした時にはより正確な環境の情報とより正確な奥行きの理解が必要です。
―ビジネスモデルを教えてください。
一つはソフトウェアを顧客が持っているプロトタイプなどに統合する際のNRE(開発費)です。
もう一つは先ほど話したSDKのライセンスフィーになります。
最後にAIモデルの利用料です。私たちはAIモデルを定期的にバージョンアップしています。2018年のAIモデルより2019年のAIモデルの方がトレーニングされ、より強力です。私たちはベンダーから新しいAIモデルの利用料をいただいています。
ヘッドセットが必要ない未来へ
―ありがとうございます。映画などではよくメガネやAR/VRグラスをかけずとも空間でパソコンを利用したりする描写などがありますが、そのような技術は将来可能になるのでしょうか。
映画では誰も大きいヘッドセットをつけて3Dイメージを操っていませんよね。ヘッドセットをつけないことに当てはまると思いますが、私たちはHolitechとのパートナーシップを発表しました。私たちが共同開発したHoloscreenはAR/VRコンテンツをVRハードウェアを使わずに画面に表示することが可能です。私たちはヘッドセットを取り除き、人々がVR/AR、3Dホログラフィックイメージを見ることを可能にしました。