セミコンポータル
半導体・FPD・液晶・製造装置・材料・設計のポータルサイト

寄稿(半導体応用)

|
いよいよ最終章の最後にやってきた。ここでは、今後の動向を中心に紹介する。GoogleやIntelがこれからどの方向に向かうのか、どのようなアルゴリズムが出てくるか、さらには半導体IC化する場合の消費電力はどうなるか、などこれまでのデータを元にこれからの方向を議論する。(セミコンポータル編集室) [→続きを読む]
|
ここでは、GoogLeNetやResNetの良い点を取り込んだ、Squeeze Netと呼ぶシンプルなモデルについて検討している。その圧縮技術に適用した結果も紹介している。(セミコンポータル編集室) [→続きを読む]
|
このシリーズ最後の第5章は、動向を今後について述べている。特に、IBMが開発したTrueNorthニューロモルフィックチップについて、特にディープラーニングという観点から見た回路構成や特長などについて解説している。(セミコンポータル編集室) [→続きを読む]
|
ニューロチップの代表例として、(4-3)では圧縮技術を用いたチップの開発例として、Googleが開発したニューロチップTPU(Tensor Processing Unit)、およびStanford大学を中心に研究されている圧縮技術Deep Compressionを紹介する。圧縮は、量子化ビット数を32ビットなどから16ビットあるは8ビットに削減する技術で、ニューロチップの電力効率を上げるもの。少々長いが、チップ化には必要な技術である。(セミコンポータル編集室) [→続きを読む]
|
ニューロチップの代表例として、(4-2)ではDNN(ディープニューラルネットワーク)の開発2例を紹介する。中国科学院のDaDianNaoチップと、韓国KAISTのDL/DI(Deep Learning/Deep Inference)チップを紹介している。(セミコンポータル編集室) [→続きを読む]
|
第4章では、ニューロチップの代表的なものを9つ紹介している。第4章の1ではCNN、第4章の2ではDNN、そして第4章の3では圧縮を用いたチップについて、それぞれの特徴や機能について元東芝の百瀬啓氏が解説している。(セミコンポータル編集室) [→続きを読む]
|
第3章の3.3では、これまで開発されたチップを、CNNとDNN/全結合層に分け分類している。それぞれのチップがどのような位置づけにあるのかも理解できるようにグラフ化している。第3章のこれまでの参考資料をまとめている。(セミコンポータル編集室) [→続きを読む]
|
第3章3.2では、ニューロチップで重要な2次元の入力データと、学習の重みに相当するフィルタを積和演算で、スキャンしていく基本演算について述べている。積和演算を基本とするためGPUやCPU、DSPなどで演算できる。(セミコンポータル編集室) [→続きを読む]
|

第3章以降は、ニューラルアーキテクチャを半導体チップ上で実現した、ニューロチップについて、元STARC/東芝に在籍し、現在北海道大学に勤務する百瀬啓氏が解説する。これからのAI(人工知能)を差別化する手段の一つが半導体チップであることから、今後きわめて重要な解説論文となる可能性がある。ただ、この寄稿は長いため分割・掲載する。(セミコンポータル編集室)

[→続きを読む]
|
第2章:ディープ・ニューラルネットワークのニューロチップへの実装〜その勘所は!! この第2章の最後に当たる2-3では、ニューラルネットワークをチップに実装する場合のメモリの規模がどの程度になるか、さらにメモリ規模を減らすための工夫などを紹介する。(セミコンポータル編集室) [→続きを読む]

月別アーカイブ