Semiconductor Portal

» セミコンポータルによる分析 » 週間ニュース分析

Appleの新A12 Bionicプロセッサはエッジ学習がすごいようだ

先週は、Appleの新型スマートフォンiPhone XSの発表があった。同時に、アプリケーションプロセッサA12 Bionicも新設計にしている。わかる範囲でプロセッサの中身について紹介する。Googleは独自のスマホ「ピクセル」を日本市場に10月投入すると13日の日本経済新聞が報じた。スマホは、メモリ価格がこれまでのように下がってくれるとIoTやウェアラブルのプラットフォームになり今後も成長する余地はある。

日本時間9月13日、Appleが発表した新しいiPhone XSシリーズに使われているアプリケーションプロセッサには、CPUコア(合計6コア)に、GPU(グラフィックスプロセッサ:4コア)コア、ISP(イメージシグナルプロセッサ)に加えて、機械学習向けのプロセッサ8コアなどを集積したチップである。

特に機械学習のIPが優れもののようだ。これまで、スマホのような端末(エッジ)側の機械学習システムでは、推論だけを担う機能が主だった。パターン認識のような学習はクラウド上のコンピュータなどを利用して、例えば画像などを何千枚と読み込ませていた。エッジ側は、その画像データを元にスマホのカメラでとらえた映像・画像を判別するための推論機能を受け持つAI(機械学習)IPコアが多かった。

最近では何千、何万もの画像を読み込ませなくても高い認識率が得られるような仕組みが出てきつつある。すでに学習させている画像データを利用してプラスアルファとして100枚程度読み込ませるだけで認識率を高められる「転移学習」や、(GAN(Generative Adversarial Network)と呼ばれるデータ量を減らす学習アルゴリズムが出てきたため、学習そのものの負荷が軽くて済むようになった。このためエッジ側でも軽く学習させるだけで高い認識率が得られるようになっている。AppleのiPhone XSシリーズは、おそらく転移学習を利用することで、手元でも画像を学習できるようになったのであろう。

ただし、Appleはニューラルネットワークを利用する機械学習専用のIPコアを「ニューラルエンジン」と呼び、毎秒5兆回(5 Tera operations per second)の演算性能を持つとしている。このAI機能により、画像検索や音楽検索において、画像を読み込ませたり、音楽を読み込ませたりすることで何の絵か、何の音楽かを知ることができるはずだ。もちろん、学習機能を設けるためにはアプリ開発者に頼る必要がある。アプリ開発者は、Appleの提供するCore ML(Machine Learning)のソフトウエア開発プラットフォームを利用して、音楽検索などのアプリを作製することができる。

従来のiPhone Xにも機械学習のコアを含んでいたが、そのプロセッサチップA11 Bionicと比べ、9倍の速度で演算できるとしている。

もう一つ、iPhone Xで初めて搭載された機能として顔認証機能がある。これは、顔の2次元写真ではなく、頭のてっぺんや耳のように顔の後ろ側も含めた3次元の形を認識するための3次元のセンサ「TrueDepth」カメラを利用して顔認証能力を上げたとしている。このTrueDepthカメラには、集積化面発光レーザを使い顔の部分を細かく広く奥行きの距離を測定し、3次元の顔データを構成する。ここでもニューラルエンジンを使って認識を判定する。今回は、帽子をかぶってもひげを生やしても眼鏡をかけても認識できるとしている。

CPUの6コアの内、2コアを演算優先の高性能コアとして、残りの4コアを性能よりも低消費電力を優先しているが、このArmのマルチコアを利用して、高性能・低消費電力を実現する方法は、これまでも使われてきた。

7nmプロセスを使っているというメディアもあるが、アップルのウェブを見る限り、定かではない。7nmプロセスはまだ十分量産に耐えるという情報は来ていないからだ。TSMCでは7nmプロセスのリスク生産が終わったのかもしれないが、この情報の信ぴょう性は疑わしい。

Googleに関しては、台湾のHTCの一部を買収したことから、ピクセルは定着してきたという。日本ではスマホはAppleが断然強く、それ以外はソニーが頑張っている程度で、ここにGoogleが割り込む場合に、スマホにプラスアルファするサービスや機能は何か、むしろサービスに注目がいく。

(2018/09/18)
ご意見・ご感想