Semiconductor Portal

» ブログ » インサイダーズ » 大和田敦之の日米の開発現場から

ビッグデータ時代の到来

官庁や企業が円滑にビジネスを進める上で取り扱うデータ量は増加の一途をたどる。動画、携帯やスマートフォンの通信データとログ、POSデータとそのログ、GPSの位置情報、電子メールとそのログ、各種ホームページ、電子カルテのデジタル記録そして通販などの広告や販売決済データ、デジカメ画像データ、デジタルブックのコンテンツ、そして音楽ソフトのコンテンツ等々、データの種類には枚挙のいとまがない。IBMの専門家によると、最近は1日で2.5EB(エクサバイト)のデータが世界で生成される、という。1EB = 1,000,000,000,000,000,000バイト、即ち10の18乗バイトだから、まさにビッグデータといわれるゆえんだ。

インターネットの利用がデータ量を拡大している。既存のデジタルデータ量は、各種の報道によると、総量でEBよりも3桁多いゼッタバイト(ZB: Zetta Byte)になったと言われる。BCN誌の本年1月2日版は、2011年に1. 8 ZBになり、2020年には35 ZBになるとしている。こうしてデータが爆発的に拡大するビッグデータ時代が到来した。ハードディスクは安価になりデジタルデータなら何でも記録保存できる時代になった。検索技術のおかげで記録されたデータは瞬時に見つかる、ありがたい時代が到来した。

誰しも重要書類を見失うことがある。血眼で探して見つけ出しホッとすることがある。1996年初頭、橋本政権下、菅直人氏が厚生大臣に就任した。この時、広く報道されて国中が知る事態になったのが厚生省における重要ファイル紛失事件だ。詳しく述べるのは省略するが薬害エイズ行政に関わる内容で政治問題化した。当時の菅厚生大臣は見つからないファイルを探すためのプロジェクトチームを作って相当の日数をかけて当該ファイルを探し出して大変な賞讃を受けた。仮にファイルの全コンテンツが厚生省のクラウドに正しく収められ検索可能であったなら、こんな騒ぎは発生しなかった。当時、ICT技術は存在したが未だ揺籃期であって、クラウドなどはなかった。

今は、ICTの新たなトレンドとしてクラウドを基盤にビッグデータが興隆し、その量は膨張して来た。直近の時代はどのように動いたかを見てみよう。

1990年代からブロードバンドが進展しインターネットの道が広がりデータレートが上った。インターネットが使いやすくなり普及が進みオフィスでも家庭でも使う人が増えネットワーク網は拡大した。センサ技術が多用されリアルタイムのデータが活用されるようになった。無数のセンサからのビッグデータを活用する一例は世界の気象データである。観測地点での温度や湿度データが自動的に集められ刻々と無線などでホストに送られる。また、次世代電力メータはデジタル化され各家庭などのユースポイントにおける電力に関わる種々のデータをリアルタイムで報告してくるようになる。
加えて、デジタル携帯電話が普及し世界中に広がった。その通話やメールを含むデータが膨大になり、それを分析しリアルタイムかつ多角的に有効活用する機運が進んだ。2000年代の後半には、クラウドコンピューティングが登場、そのためのデータセンターが増えている。結果、データの大量蓄積が進んだ。データ分析のためのマイニングソフトが高い頻度で使われるようになった。Facebook、Twitterなどのソーシャルメディアが出現しユーザー数は急増した。スマホやタブレットが同時に人気を集め通信、ログ、コンテンツデータが溢れている。

ビッグデータを支えるクラウドコンピューティングは、今後ますますインターネットの中心を歩むと筆者は考える。その理由は以下を挙げる。

1 データ収集、保管、検索において利便性が高い
2 収集したデータ活用の利便性が良い。パブリックであれプライベートであれ、自社もしくは自身でクラウドを利用できる。
3 アウトソーシングを使って良いサービスを受け、その利用のみに専念できる。
4 高い柔軟性を持っていてITリソースとして好都合だ。

上記は全て重要な利点を示すものだが特に4に示した柔軟性は重要だ。なぜなら官庁や企業内の大容量データの増加は正確な予測が困難だからである。クラウド内で大規模なストレージの新たな構築、それにバックアップ対策、そしてその人材の確保などからユーザーは解放されるという利点がある。当然、セキュリティに関する配慮はインターネットに繋ぐ以上はどうしても必要だ。NTTは、VPN線との直結による自社と同等の高いセキュリティで大量のデータを保管できる環境を提供している。そのクラウドの信頼性は、12ナインズ(99.999…%と9が12個並ぶ)としている。

昨年12月14日版の日経ビジネスオンラインが紹介したストックホルム市の交通制御の例には目を見張らざるを得ない。交通渋滞を解消する目的としてストックホルム市は市内に流入する車両に課金するシステムを作った。郊外から市内に入る18地点を選んで車両ナンバー識別センサを設け画像からナンバーを認識するシステムだ。乗用車のオーナー等、支払い責任が発生した人は、口座引落し、もしくはコンビニで課金された額を支払う。結果、市内の交通量は25%も削減されたと言う。当然ながら二酸化炭素の排出量も14%程減った。このシステムが働くようになったのはビッグデータを処理するソフトウェアなどの成果であった。ストックホルム市では一日、約70万台の車両が市内を走るがタクシーやバスなどの公共的な車両、約20万台にGPSを含むセンサを設置している。センサのデータをソフトで分析し、約70万台の車全体の当日の動きを予測している。渋滞が発生しそうな地点があれば経路変更などの誘導をして調整している。市の4台のサーバがクルマ25万台のGPSデータも加えて交通制御を行っている。ビッグデータが渋滞を抑え込む成功例である。

このようにセンサからのビッグデータを高速のサーバで処理すると、リアルタイム性が担保される。NHKテレビが知らせる天気情報での気圧配置図は現在1-2時間の時差があるようだが努力によっては、時差が15分程度になるだろうと筆者は期待している。

今後、インターネット情報網は、スマート化する電力グリッドに、次世代住宅、スマホに代表される個人間通信に、電子カルテが進む医療、防災、そしてスマートシティを担う交通制御網などに縦横にはりめぐらされるようになり、ビッグデータのデータ量はますます増えていくだろう。

エイデム 代表取締役 大和田 敦之
ご意見・ご感想