エッジコンピューティングとはなにか?
エッジコンピューティング(英語でかくと、Edge Computing)は、IoTの時代に、センサデバイスから入力された情報を、できるだけセンサデバイスに近いところで情報処理や情報演算をやって、センサデバイスに出力を返す、という処理をいいます。
エッジコンピューティングの対義語としては、クラウドコンピューティングが適当だと思います。
クラウドコンピューティングは、センサデバイスで拾った情報を、通信してクラウドサーバーに送って、性能の良いクラウドサーバーで高速演算して、その結果をセンサデバイスに返す、というやり方です。
ただし、このやり方には時間がかかります。
さらに、これからあらゆるものがセンサデバイス化していきます。
これをIoT(Internet of Things)といいます。
さらに5G通信によって情報量も情報伝達速度も圧倒的に多くなります。
センサデバイスが増え、センサデバイスから毎秒送られる情報量も膨大になるので、クラウドサーバーに送っていては時間がかかりすぎてしまうという世の中が来ているわけです。
クラウドサーバーにデータを送る時間がかかると何がいけないのか?
クラウドサーバーにデータを送る時間が長くかかってしまうと何が行けないのでしょうか。
一番わかりやすいのが、自動運転だと思います。
自動運転では、「カメラ」というセンサデバイスで入力された情報を処理して、
自動車の速度を決めたり、ブレーキ/アクセルを決めます。
たった1台の自動車にすら、100個以上のセンサデバイスが搭載されています。
センサデバイスからたくさんの画像情報が毎秒入力され、それをクラウドサーバーに送っていたらどうなるでしょうか。
さらに、車の台数が何百万台と増えていくと、どうなるでしょうか。
あまりに多すぎるデータ量にクラウドサーバーはパンク状態に近くなってしまいます。
ちょっと電波が途絶えただけでも、画像処理ができず、AIがブレーキとアクセルの判断を誤れば、取り返しのつかない事故が起きる可能性も十分あります。
真正面に壁があるのに止まらない自動運転の車があったら発売されませんよね。
だから、クラウドコンピューティングに依存せず、できるだけセンサデバイスの近くで処理を行うエッジコンピューティングの必要性が叫ばれるようになっているのです。
ゲートウェイでエッジコンピューティングを行う
エッジコンピューティングは具体的にはどこで処理をするのか。
現在の具体案としては、ゲートウェイという通信ポイントで処理をして、センサデバイスに出力を返すというやり方が有力です。
ゲートウェイは、センサデバイスから上がってくる情報を中継して、クラウドサーバーに送る中継通信ポイント(装置)のことです。
ひとつのゲートウェイに、複数のセンサデバイスがつながっています。
このゲートウェイに、通信機能に加えて、高度な演算機能を追加してあげるのです。
そうすれば、クラウドサーバーに過度な情報を送らずに、リアルタイムでセンサデバイスから上がってくる情報をさばくことができます。
エッジコンピューティングに力を入れているNVIDEA
エッジコンピューティングに力をいれているのが、NVIDEA(エヌビディア)というアメリカの半導体メーカーです。
NVIDEAは、特にGPU(ジーピーユー、Graphics Processing Unit)という半導体チップに強みを持っています。
CPU(シーピーユー、Central Processing Unit)ではありませんのでご注意ください。
GPUとCPUの違い
GPUは映像などの単純だけど、膨大な計算をこなすのが得意な半導体チップです。
画像処理や映像処理が得意なのがGPUです。
一方、CPUは複雑なマルチタスクに強みをもつ半導体チップです。
同時に複数の作業を行うのが得意なので、たとえばプリンターに印刷を指示しつつ、動画を画面で流してスピーカーで音を流しつつ、テキストファイルを作成するといった並列作業をなんなくこなします。
しかし、ひとつの単純作業を素早くこなすのがGPUに比べて不得意なのがCPUです。
NVIDEAは、AIやディープラーニング(機械学習)に力を注ぎ、高度な画像解析や状況判断を行う仕組みを持った半導体チップを開発しています。
このGPUを工場で稼働している製造ロボットに組み込み、工程作業の削減に貢献しているそうです。
実際にファナックという世界大手の製造ロボットもNVIDEAのGPUを搭載して、大きな工数削減を達成しています。
また、近い将来に広く普及するはずのクルマの自動運転にも、NVIDEAのGPUは必須と言われている半導体チップです。
ゲートウェイではなく、センサデバイスで演算する未来
ゲートウェイで計算する時代が近い将来、終わるかもしれません。
ゲートウェイまで情報を送らずとも、センサデバイスそのもので演算処理して、機械学習にかけ、AIが答えを出す。
こういった未来の足音がコツコツと近づいてきています。
センサデバイスにGPUを搭載してしまおうという動きが出ています。
これを3D集積とよんだりします。
実現できれば、ゲートウェイにデータを送る時間が短縮できるわけなので、センサで検出したものをより素早くアウトプットすることができます。
クルマの自動運転なら、交通事故の抑制にもっと近づくことができるかもしれません。
そのためには、通信技術やAI技術だけでなく、半導体チップの設計技術、製造技術もさらに進化しなければなりません。
これは国際競争の時代です。
どの国が、どの企業が、いち早くセンサデバイスそのものでエッジコンピューティングできる半導体チップをつくることができる特許を抑えるか、技術を漏らすことなく戦略的に活用できるか、ここにかかっています。
まとめ
聡明な読者の方々へエッジコンピューティングについてご紹介するのは甚だ僭越ですが、本記事がお役に立てれば幸いです。
エッジコンピューティングは、これからますます重要になってきます。
日本には、センサに強みを持つ企業がたくさんあります。
CMOSセンサのソニーなどがその筆頭です。
CMOSセンサも半導体でできていますが、ここにGPU(これも半導体ですが、CMOSとは回路パターンが異なります)を作り込めるか。
センサデバイスにAIそのものを作り込めるか。
こういったところに次の技術の活路が眠っていると思います。