ニューロ コンピュータ。 ニューロネット|会社概要

ニューロネット|会社概要

ニューロ コンピュータ

人間の脳は最も大きなくくりでは3つのグループに分かれます。 1つ目は呼吸や心拍、本能や感情と言った人間以外の動物と共通する機能を担当する、脳幹や大脳辺縁系、大脳基底核と言った脳深部にある神経核や旧皮質がこれに相当します。 2つ目のグループは自転車の乗り方や母国語など一度身に付けるとほぼ一生消えない記憶を蓄えている部位で、後頭部と脊椎の間にある小脳がこれに当たります。 3つ目は人間の知能を司る部分でこれは脳表面のたった2ミリから5ミリの皮のような細胞層から出来ているのですが、ここを大脳皮質と呼びます。 以後は単純に脳といった場合には、この知能を司る大脳皮質を示します。 またそれぞれのニューロンは別のニューロンとシナプスと呼ばれる構造で神経接続されていますが、その数は一つのニューロンにつき10,000個以上と言われています。 シナプスでは神経伝達物質と呼ばれるシグナル分子を送り手側のニューロンが放出し、受け手側のニューロンがその分子を検出して神経パルスを出す事で信号が伝播していきます。 信号の伝播のし易さは様々な要因によって決まっていますが、例えば送り手側と受け手側のシナプス同士が近接している面積だったり、受け手側でシグナルを受信するタンパク質 受容体 の量によって信号の伝達効率が調節されています。 このニューロン同士の繋ぎ目部分で信号が伝播するかしないかという事が決まっており、言わば回路上のスイッチのような役割を果たします。 スイッチする素子は0と1を表現する事が出来るので1ビットを記憶する回路であるという事も出来ます。 シナプスを最も単純に1ビットの記憶素子として考えると、ヒトの脳の記憶容量は10TB程度になります。 2016年時点で10TBのハードディスクは7万円で買えてしまうので、個人のデスクトップ環境でも既に人間の脳と同じくらいの記憶容量があると言えるのかも知れません。 しかしながら2016年現在のIntelのCPUと10TBのハードディスクで、すぐに人間の脳と同じ性能の計算機が作れるのかと言えば、話はそんな単純ではありません。 例えばIntel CPUの中でPCで最も普及しているCore-i7は8個のコアプロセッサーを搭載しています。 脳は一つ一つのニューロンがコアプロセッサのようなものなので、百億コアのCPUという言い方も出来ます。 ただ当然ニューロンが行っている演算はパソコンのCPUよりもずっと単純なものです。 脳はCPUのような少数の複雑な演算器から構成されたアーキテクチャではなく、単純な計算を行う演算器が膨大な数集まった構成を取っています。 どちらかと言えば画像のピクセル計算 単純な足し算や掛け算 を行うシンプルな演算器を膨大な数連ねた画像処理ユニット GPU のアーキテクチャに近いものです。 しかし2016年のGPUの最新モデルでもコア数は6000個程度なので脳の数百億には到底及びません。 CPUやGPUのような半導体デバイスを使って脳と同程度の計算容量を生み出すためには、個々のニューロンやシナプスのモジュールを出来るだけ小さい回路で作製して高密度にデバイスを配置する必要があります。 近年のSolid State Drive SSD メモリは磁気ディスクに情報を記録するハードディスクドライブ HDD に迫る勢いで記録容量を伸ばしています。 2015年の時点で10TBのSSDの価格帯は200万円程度とHDDの20倍以上するものの、今後も技術の進歩に伴って価格は下落していく事でしょう。 先にも述べたように大脳皮質のシナプスの数は一番少なく見積もっても10TB分あるので、ニューロンやシナプスデバイスの集積度としては現行最新のSSD程度という事になります。 ちなみに実際の脳では1個のニューロンは1万個程度のシナプスを持っているので、脳型コンピュータもニューロンよりもシナプスの数の方が圧倒的に多くなります。 ですので実際にはニューロチップと呼ぶよりシナプスチップと呼んだ方が正確です。 さて、この記事を読んでいる人の中にはニューロンやシナプスと言った細胞膜やタンパク質などの生体材料から出来ている構造や機能を、どうやって半導体デバイスで実現するのかという根本的な疑問をお持ちの方もいるかも知れません。 実はこの問題は1963年、ホジキンとハクスレーという2人のイギリスの生理学者達に与えられたノーベル生理学賞の業績にまで遡ります。 ホジキンとハクスレーはヤリイカの神経細胞を用いて、特定のタンパク質のチャネル 穴 を通して細胞膜を通過するイオンの量を厳密に測定しました。 そしてナトリウムイオンやカリウムイオンの透過量と細胞膜にかかる微小な電圧との関係をホジキン・ハクスレー方程式という微分方程式によって書き表しました。 ちなみにシナプスの微小電圧もこの方程式の拡張で記述する事が可能です。 細胞膜の微小電圧はニューロンやシナプスで発生する電気パルスの元になっているものです。 この神経パルスを数式で表せるという事は、抵抗やコイル、トランジスタなどの電子部品を組み合わせてニューロンやシナプスの電気的特性を模倣したアナログ回路が組めるという事を意味します。 こうした発想を元に1980年代にカルフォルニア工科大学のカーバ・ミードという計算機科学者が神経模倣アーキテクチャの分野を開拓しました。 今日では彼の孫弟子にあたる研究者達がIBMのニューロチップ開発の中心的な役割を果たしており、TrueNorthなどの脳型アーキテクチャとして結実しています。

次の

ニューロコンピューターの未来。今までのコンピューターとは何が違うのか?IBMのSyNAPSEチップTrueNorthが実用化

ニューロ コンピュータ

人工知能(AI)とニューロコンピュータ<AI<ハードウェアとソフトウェア<Web教材<木暮 > > 人工知能(AI)とニューロコンピュータ キーワード 人工知能、AI、ニューロン、シナプス、ニューロンモデル、パーセプトロン、階層型ニューラルネットワーク、バックプロパゲーション、誤差逆伝播法、オートエンコーダ、ディープラーニング、エキスパートシステム、ニューロコンピュータ、シンギュラリティ 歴史に関しては、「」を参照してください。 人工知能とは 脳には多数の ニューロン(神経細胞)が存在し、ニューロン同士を シナプスを介して電気信号を送ることで、情報が伝達されたり、記憶が定着したりしています。 人工知能(AI:Artificial Intelligence)とは、人間の脳の特徴である学習・推論・判断などの機能を、人工的に実現しようとする研究分野です。 人工知能研究には二つのアプローチがあります。 その一つは、脳の模倣を目的にします。 ニューロンやシナプスのしくみを論理的なモデルにして、学習や推論などの機能を数学的なプロセスで実現しようとするアプローチです。 これをコンピュータに実装したものを ニューロコンピュータといいます。 他の一つは、脳のメカニズムではなく、実務面において脳の働きとされる業務をコンピュータにやらせようというアプローチです。 その例として、1980年代に話題になったがあります。 これは従来のノイマン型コンピュータでも実現できます。 (脳模倣型の)人工知能の概念 ニューロンモデル 入力側のニューロンから、シナプスを介して樹状突起へ信号が入力されます。 入力ニューロンが興奮性ニューロンからの信号なら電位が上がり、抑制性からの信号なら電位が下がります。 電位が閾値より高くなるとニューロンが興奮して、軸索やシナプスを伝わって他のニューロンに信号を伝えます(下左図) このようにして、多くのニューロンへ信号が伝播します。 出典:村上・泉田研究室「生体ニューロンについて」(2017) () 1943年に、マッカロックとピッツは、この仕組みをモデル化して(上右図)、下式のように定式化しました。 これを ニューロンモデル、 形式ニューロン、 パーセプトロンなどといいます。 これは脳のメカニズムを簡略化しています。 入力層のニューロンでは信号処理を行わず、受け取った入力信号をそのまま中間層のニューロンへ伝えるとする。 ここでは中間層を一層としたが、通常は多層にしています。 人間の脳はもっと複雑なメカニズムになっていますが、5層~10層程度で近似できるといわれています。 出典:村上・泉田研究室「生体ニューロンについて」(2017) () バックプロパゲーション(誤差逆伝播法) 入力層に多様な信号を与えて出力層からの信号を得たとき、それが正しいか誤りであるかを人間が判定します(実際には、正解を付けた入力データを与える)。 中間層での重み(w)を変更することにより、正しい結果を得る確率を大にすることができます。 その代表的な方法にバックプロパゲーション(誤差逆伝播法)があります。 オートエンコーダ 2006年にジェフリー・ヒントンらは、オートエンコーダとディープ・ビリーフ・ネットワークを提唱しました。 オートエンコーダとは、機械学習において、ニューラルネットワークを使用した次元圧縮のためのアルゴリズムです。 右図において、xが動物の写真だとして、ニューラルネットワークが足の数、毛並み、鼻の位置などの特徴を分析して、新しい層zを作りだす。 このときxの個数よりもzの個数のほうが小さい(次元圧縮)のが通常なので、xの代わりにzを使えば、処理量が少なくなります。 それをエンコードといいます。 逆に、zからx(x')に復元することをデコードといいます。 オートエンコーダは、データを小さな情報量に圧縮する方法をニューラルネットワークに学習する方法です。 ディープ・ビリーフ・ネットワークとは、多層ニューラルネットワークで良い初期解を得る方法です。 これらにより、4層以上のニューラルネットワークにおいて、単純なバックプロパゲーションよりも、効果的な学習ができるようになります。 ディープラーニング オートエンコーダとディープ・ビリーフ・ネットワークにより、人工知能は急速に発展し、2010年代にはディープラーニングへといわれるようになりました。 深層学習と訳されますが、この深層(ディープ)とは多層に近い意味です。 ディープラーニングでは、例えば画像のデータを与えた場合、コンピュータは与えられた画像のデータの一部を消して、「消えた部分を残った部分から推測せよ」という問題に変更して自分自身に質問するのです。 これにより、画像を1つ与えるだけで、多数のの擬似的問題を作ることができます。 また、推測の過程で特徴の分析など次元圧縮が行われます。 ディープラーニングでは、教師なし学習が取り入れられています。 例えば、人の顔を識別するとき、識別の特徴を人間が指定すると、髪や眼の色、顔の輪郭など観念的な項目になりがちです。 コンピュータが自動的に行うのであれば、大量データから統計的に人間が気づかない識別特徴を見つけることがあります。 しかも、人間よりも細部にまで調べることができます。 そのため、特定の人を探すポイントが多くなります。 ニューロコンピュータ ニューロコンピュータとは ニューロコンピュータとは、ニューロンやシナプスの構造や情報処理メカニズムを基礎とし、脳を模倣した回路をもつチップから構成され、脳の持つ情報処理を人工的に実現させることを目的としたコンピュータです。 通常は、多層ニューラルネットを持ち、バックプロパゲーションによる学習の仕組みを実装しています。 エキスパートシステムなどの実装はノイマン型コンピュータで可能です。 「ニューラルネットワーク」などもプログラムや学習システムの構造を意味する概念で、ハードウェアとしての回路などを示すものではなく、ノイマン型コンピュータでソフトウェアによりシミュレートすることができます。 これはニューロコンピュータとはいいません。 ニューロコンピュータの実用化 ニューロコンピュータは、1990年頃までは、人工知能理論実証のために実験的なハードウェアが試作されたことはあるが、実務用途にはなりませんでした。 1990年代には、産業用ロボットなどの機器の制御に小規模なニューロ的なチップが組み込まれるようになりましたが、特定用途に特化したものでした。 実務的なニューロコンピュータが注目されるようになったのは2010年代に入ってからです。 ニューロコンピュータを構成しているのはニューロチップです。 それをSyNAPSEチップということもあります。 この分野ではIBMがリーダ的存在です。 2011年に、IBMはコグニティブ・コンピューティング・チップを開発しました。 コグニティブとは認知という意味。 ニューロコンピューティングに特化したSyNAPSEチップです。 2014年には、これを発展させてTrueNorthを開発しました。 郵便切手サイズのチップ1個内に100万個相当のニューロン、2. 56億個相当のシナプスをもっていました。 人間の脳のニューロンは1000億個、シナプスは150兆個程度だとされているので、到底比較にはなりませんが、このチップ1個だけでもゴキブリ程度ですし、1000個並べれば猫程度になるのですから、特定の分野に限定すれば実用化の時代になったといえるでしょう。 IBMは、AIを「Artificial Intelligence(人工知能)」ではなく、「Augmented Intelligence (拡張知能)」として人間の知識を拡張し増強するものと定義しています。 それにならったのか、ニューロコンピュータをブレインコンピュータということもあります。 ニューロコンピュータの特徴• 超並列プロセッサ ニューロコンピュータを構成するニューロチップは多数のコアプロセッサからなる超並列プロセッサだといえます。 それぞれのコアが演算回路、メモリー、コア間通信用のルーターなどを備え、ニューロン間の結合の強さなどのパラメータは、すべてコア内のメモリーに保存され、プログラムに相当する情報が、コアの中に封じ込められています。 低消費電力 各コアは非同期的に通信を行い、処理を行わないコアはアイドル状態(電力不要)になります。 しかも、ニューロコンピュータの周波数は1kHzと非常に小さい(脳は10Hz、ノイマン型は5GHz)。 そのため、消費電力が圧倒的に低い特徴があります。 ノイマン型コンピュータとの連携 組込みシステム以外では、ニューロコンピュータを単独でシステム構築するのではなく、外部とのインタフェースや学習機能など全体を制御するために、ノイマン型コンピュータと連携させるのが通常です。 大規模なシステムではスーパーコンピュータと連携させている。 用途 ニューロコンピュータは並列分散情報処理能力を持つため、音声や画像のパターン認識、意思決定などの最適化問題への適用、ロボットや複雑なシステムの最適制御などへの応用が注目されています。 人工知能に関するトピックス これらの例のコンピュータは、すべてノイマン型コンピュータである多数のサーバで構築されています。 ニューロコンピュータ利用の例は未だありません。 IBMのWatson 2011年、Watsonは米国のクイズ番組でクイズ王と対戦して勝利。 駄じゃれや、俗語・専門用語など、あいまいな表現を含む自然言語で出題される問題に答えられることを示し、人工知能が実用化されたことを実証しました。 現在、IBMはWatsonをクラウドで利用できるサービスを提供していますし、APIを公開しています。 すなわち第三者がWatsonを使えるのです。 Googleの猫 ディープラーニングによる教師なし学習による画像認識の例として有名です。 2012年に発表されました。 大量の画像をコンピュータに読み込ませて特徴点を判断する方法で、写真を見せるだけで、それが猫であるか否かを判断できるようになりました。 すなわち、猫という概念を自動学習で獲得したのです。 現在、Googleはこの画像認識システムのAPI(Cloud Vision API)を公開しています。 例えば「花の写真をアップロードして花の名前を知る」ようなことが、トライアルでできるし、APIを用いて独自のアプリを構築できます。 コンピュータ将棋 チェスは複雑度が低いので、1988年にはIBMのディープ・ソート(有名なディープ・ブルーの前身)がグランドマスターに勝ちました。 囲碁は複雑度が高く、2015年頃まではアマ四~-六段程度でしたが、2015年にはGoogleのアルファ碁(AlphaGo)がプロ棋士相手に勝利しました。 しかし、未だ一般のプロ棋士と互角に戦えるレベルになった程度といってよいでしょう。 将棋はチェスと囲碁の間の複雑度です。 山本一成が開発したPonanzaが有名で、2016年にはディープラーニングを組み込み、第3回将棋電王トーナメントで全勝。 2017年には、到底人間では勝てないレベルになり「人間とコンピュータが同じルールで真剣勝負をするという歴史的役割は終わった」とまでいわれるようになりました。 シンギュラリティ その後、AIは広い分野で活用され、日常語にまでなりました。 シンギュラリティ(singularity)とは「特異点」のことですが、AIが人類の知能を超える転換点およびそれによる社会変化を指します。 特に、その特異点は2045年頃で、労働人口の約半数がAIやロボットで代替可能になり大量の失業者が発生するという研究があり、これをシンギュラリティとか2045年問題といっています。

次の

研究会

ニューロ コンピュータ

ニューロコンピュータの歴史<その他のコンピュータ<コンピュータの歴史<歴史<木暮仁 > (、 ) > > 人工知能とニューロコンピュータの歴史 人工知能とは 人工知能(AI:artificial intelligence)とは、人間の脳の特徴である学習・推論・判断などの機能を、人工的に実現しようとする研究分野である。 脳には多数の ニューロン(神経細胞)が存在し、ニューロン同士の結合間に電気信号が送られることで、情報が伝達されたり、記憶が定着したりする。 ニューロンの結合部を シナプスという。 人工知能研究には二つのアプローチがある。 その一つは、脳を模倣することである。 それをコンピュータに実装するにはニューロコンピュータが適している。 ここでは主にこのアプローチを対象にする。 他の一つは、脳のメカニズムではなく、実務面において脳の働きとされる業務をコンピュータにやらせようというアプローチである。 後述のエキスパートシステムはこれに近い。 これには、従来のノイマン型コンピュータで実現できることが多い。 以下、人工知能に関する基本的な概念や用語を列挙する。 ニューロンモデル 入力側のニューロンから、シナプスを介して樹状突起へ信号が入力される。 入力ニューロンが興奮性ニューロンからの信号なら電位が上がり、抑制性からの信号なら電位が下がる。 電位が閾値より高くなるとニューロンが興奮して、軸索を伝わって他のニューロンに信号を伝える(下左図) このようにして、多くのニューロンへ信号が伝播する。 出典:村上・泉田研究室「生体ニューロンについて」(2017) () 1943年に、マッカロックとピッツは、この仕組みを、モデル化した(上右図)。 これを「形式ニューロン」という。 「パーセプトロン」は、この概念を発展させたものである。 入力層のニューロンでは信号処理を行わず、受け取った入力信号をそのまま中間層のニューロンへ伝えるとする。 ここでは、中間層を一層としたが、多層にすることができる。 人間の脳はもっと複雑なメカニズムになっているが、5層~10層程度で近似できるといわれている。 出典:村上・泉田研究室「生体ニューロンについて」(2017) () バックプロパゲーション(誤差逆伝播法) 入力層に多様な信号を与えて出力層からの信号を得たとき、それが正しいか誤りであるかを人間が教える(実際には、正解を付けた入力データを与える)。 中間層での重みを変更することにより、正しい結果を得る確率を大にすることができる。 その代表的な方法にバックプロパゲーション(誤差逆伝播法)がある。 学習(機械学習) この「入力-出力ー判定」を多数回繰り返すことにより、次第に正しい結果を得る確率が高くなる。 その確率が高くなれば、新しい質問(入力)に対して正しい答え(出力)を出すようになる。 このプロセスを学習という。 このような「人間が教える」学習を「教師あり学習」という。 それに対して、コンピュータに多数の画像を見せて、コンピュータが似たもの集めをするような学習は、人間の関与を必要としない(人間もわからない)。 このように推論、分析など、正解がない、正解が解らない問題で学習することをを「教師なし学習」という。 ディープラーニング ディープラーニングとは、多層(ディープ)ニューラルネットワークによる機械学習手法。 2000年中頃に提唱され、人工知能は急速に発展した オートエンコーダとは、機械学習において、ニューラルネットワークを使用した次元圧縮のためのアルゴリズム。 ディープビリーフネットワークとは、多層ニューラルネットワークで良い初期解を得る方法である。 これらにより、4層以上のニューラルネットワークにおいて、単純なバックプロパゲーションよりも、効果的な学習ができるようになる。 従来の機械学習は、教師あり学習、教師なし学習に分けることが多い。 それに対してディープラーニングでは、例えば画像のデータを与えた場合、コンピュータは与えられた画像のデータの一部を消して、「消えた部分を残った部分から推測せよい」という問題に変更して自分自身に質問する。 これにより、画像を1つ与えるだけで、多数のの擬似的問題を作ることができる。 エキスパートシステム 人工知能の研究分野では、頭脳のメカニズムを模倣する分野以外に、実務として頭脳が行うことをコンピュータで実現させようという分野がある。 エキスパートシステムは後者の一つで、専門家が持っている知識をコンピュータに記録して、素人でも専門家に準じた知識を得られるようにしようというシステムである。 知識ベース 「もし…ならば…確率…で…である」という自然言語形式のデータである。 定義的な知識もあれば、専門家が経験から得た暗黙知をこの形式で明示した知識もある。 推論エンジン 推論エンジンは、利用者の質問に知識ベースにより推論するプログラムである。 三段論法を定式化した命題論理だけでなく、述語論理やファジィ論理など多様な論理法を使っている。 対話方式 結果として「確率…で…である」ことを出力するが、質問をより明確にして確率を高めるために、利用者に追加条件を誘導するなど対話機能をもつ。 このような機能であるから、特別な方式のコンピュータではなく、ノイマン型の高速コンピュータで実現できる。 言語はLispやPrologが用いられた。 1980年代に実務者の間にも、技術継承や設備運転マニュアルなどの用途で関心が広まった。 しかし、知識ベースの獲得や整理に専門的な技術が要求されることから、限られた分野以外にはあまり普及しなかった。 ニューロコンピュータ ニューロコンピュータとは、ニューロンやシナプスの構造や情報処理メカニズムを基礎とし、脳の持つ情報処理能力を人工的に実現させることを目的としたコンピュータであり、多層ニューラルネットを持ち, バックプロパゲーションによる学習の仕組みを実装したコンピュータである。 エキスパートシステムなどの実装はノイマン型コンピュータで可能である。 「ニューラルネットワーク などもプログラムや学習システムの構造を意味する概念であり、ハードウェアとしての回路などを示すものではなく、ノイマン型コンピュータでソフトウェアによりシミュレートすることはできる。 ニューロコンピュータとは、それを構成する回路が脳を模倣したものであり、根本的にノイマン型コンピュータとは異なる。 超並列プロセッサ ニューロコンピュータを構成するニューロチップは多数のコアプロセッサからなる超並列プロセッサである。。 それぞれのコアが演算回路、メモリー、コア間通信用のルーターなどを備え、ニューロン間の結合の強さなどのパラメータは、すべてコア内のメモリーに保存され、プログラムに相当する情報が、コアの中に封じ込められている。 低消費電力 各コアは非同期的に通信を行い、処理を行わないコアはアイドル状態となる。 しかも、ニューロコンピュータの周波数が1kHzと非常に小さい(脳は10Hz、ノイマン型は5GHz)。 そのため、消費電力が圧倒的に低い特徴がある。 これも人間の脳に近い。 ノイマン型コンピュータとの連携 組込みシステム以外では、ニューロコンピュータを単独でシステム構築するのではなく、外部とのインタフェースや学習機能など全体を制御するために、ノイマン型コンピュータと連携させるのが通常である。 大規模なシステムではスーパーコンピュータと連携させている。 用途 ニューロコンピュータは並列分散情報処理能力を持つため、音声や画像のパターン認識、意思決定などの最適化問題への適用、ロボットや複雑なシステムの最適制御などへの応用が注目されている。 また、市場動向の予測にニューロコンピュータを利用した事例もある。 人工知能とニューロコンピュータの歴史 人工知能の発展に関して、説により期間に関しては若干の違いはあるが、これまでに3回のブーム(発展期)があった。 第一次:1950年代後半~1960年代 記号論理、自然言語処理 第二次:1980年代 エキスパートシステム 第三次:2000年代後半~現在 ディープラーニング ニューロコンピュータは、1990年頃までは、人工知能理論実証のために実験的なハードウェアが試作されたことはあるが、実務用途にはならなかった。 1990年代には、産業用ロボットなどの機器の制御に小規模なニューロ的なチップが組み込まれるようになったが、この分野では時期を特定するのは難しい。 実務的なニューロコンピュータが注目されるようになったのは2010年代に入ってからだといえよう。 ~1950年代後半 人工知能前史 人工知能研究の基礎となる研究は1940年代に始まった。 1943年 ウォーレン・マカロック、ウォルター・ピッツ、「形式ニューロン」発表 脳の仕組みを論理的な表現にできることを示した。 1949年 ドナルド・ヘッブ、「学習則」(ヘップの法則)を提唱 脳のシナプス可塑性についての法則。 シナプス前ニューロンの繰り返し発火によってシナプス後ニューロンに発火が起こると、そのシナプスの伝達効率が増強される。 1950年代後半~1960年代 第一次人工知能ブーム 自然言語処理、ニューラルネットワークなど人工知能分野での成果が続いた。 しかし、この時代は明示的な記号論理を基盤にしたものが多かった。 1956年 ダートマス会議でマッカージーが「人工知能」という用語が初めて使った。• 1958年 フランク・ローゼンブラットがパーセプトロンを発表した。 (1969年、マービン・ミンスキーとシーモア・パパートは、単純パーセプトロンでは線形分離不可能なパターンを識別できない事を示した。 人間(患者)が文章を入力するとDOCTOR(精神科医を模したシステム)が返答する。 単に、患者の言葉をにウム返しの返事をしたり、話題を変えたりするだけの機能(人工無脳)だが、あたかも人間のような会話が維持される。 1968年 映画「2001年宇宙の旅」 宇宙船制御用人工知能コンピュータHAL9000は乗組員との交信など現在の人工知能機能をほぼ予見していた。 これにより、人工知能という言葉が社会に広まった。 1970年代 冬の時代 人工知能への関心は広まったものの、期待したほどの成果は得られなかった。 理論を実現するには、当時のコンピュータの能力が低かったし、学習するためのデータが未整備だった。 そのような環境により、画期的な方法論も出現しなかった。 1972年 エキスパートシステム MYCIN• 1979年 EMYCINに発展 エキスパートシステムの概要は上述した。 MYCINはブルース・ブキャナンとエドワード・ショートリッフェらにより開発された伝染性の血液疾患を診断し抗生物質を推奨するシステムである。 これ自体はほとんど治療実務に使われることはなかったが、その後のエキスパートシステムの普及に大きな影響を与えた。 1980年代 第二次人工知能ブーム エキスパートシステムの普及、画像・音声認識の基礎確立、バックプロパゲーション技術の発展など、ディープラーニングの基礎技術が生まれた。 1979年 福島邦彦、ネオコグニトロン発表 ネオコグニトロンは自ら学習することによってパターン認識能力を獲得する。 これを基にCNN(Convolutional neural network、畳み込みニューラルネットワーク)へと発展。 画像を複数のカテゴリに高速分類する学習技術で、ディープラーニング分野の基礎技術になる。 1982~92 第五世代コンピュータプロジェクト 通産省(現経産省)の支援による国家プロジェクト。 IBMに追いつき追い越すことを目標に、非ノイマン型の並列推論マシンの構築を目指した。 ハードウェアでの成果は期待外れだったが、エキスパートシステムや人工知能への適用が大きなテーマになり、日本での人工知能研究の発展、人工知能技術者の育成に大きな成果が得られた。 1982年 ジョン・ホップフィールド、ホップフィールド・ネットワーク提案• 1985年 ジェフリー・ヒントンら、ボルツマンマシン提案 ホップフィールド・ネットワークとは、ネットワークに情報を記憶させる技術。 ボルツマンマシンはホップフィールド・ネットワークを改良したもの。 多階層ニューラルネットワークでの中間層の素子を少なくできろこと、ノイズあり画像から元のノイズなし画像を復元するなどに効果的。 ディープラーニングの基礎技術の一つ。 1986年 日本人工知能学会の設立 1990年代~2000年代前半 冬の時代 人工知能の周辺技術や一般大衆への認知は急速に発展した。 しかし、人工知能の理論やニューロコンピュータへの実装などの分野では、大きな進歩は見られなかった。 1990年 ジョン・コザ、遺伝的プログラミングの提唱 遺伝的プログラミングとは、遺伝や突然変異などの概念により、探索や最適化を求める手法。 ニューラルネットワークや電子回路の設計、ロボットの制御プログラミングの作成などに利用される。 1990年代中頃 データマイニングの普及 大量のデータを分析することにより、それまで気づかなかった役立つ情報を発見する手法。 主に統計的手法が用いられるが、人工知能分野での検索技術等の応用も考えられるようになった。 1997年 チェスプログラムDeepBlueがチェスチャンピオンに勝利 DeepBlueは、IBM社のチェス専用スーパーコンピュータ。 過去の棋譜を学習させ、何手も先読みして、適切な手筋を探し出す。 人工知能が人間の棋士と互角に戦えるとして話題になった。 現在では、囲碁や将棋で、人工知能が人間の棋士より強くなっている。 1997年 ソニー、犬型ロボットAIBO発表 人工知能を組み込んだ産業用ロボット、自律型の人型ロボット、玩具ロボットなどは以前からあったが、AIBOは本格的に人工知能を組み込み学習機能をもたせた最初の玩具ロボットの一つである。 定価25万円の玩具が予約開始20分で日本向け3千台の受注を締め切るほどの人気を博した。 2000年代後半~現在 第三次人工知能ブーム ディープラーニングの基礎的な研究は、1980年代に行われていた。 それが2000年代後半になると、さらに研究が進み、人工知能分野は急激な発展の時代に入った。 また、ハードウエア技術の進歩により、2010年代になると、ニューロコンピュータがブレインコンピュータ(脳模倣型コンピュータ)といわれるまでになった。 2006年 ジェフリー・ヒントンら、ディープラーニングの提唱 厳密には、ここではディープラーニングという言葉は使っていない。 オートエンコーダとディープ・ビリーフ・ネットワークを提唱したのであるが、それらが(いつのまにか?)ディープラーニングといわれるようになったのである。 2008年 SyNAPSEプロジェクト発足 SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics)プロジェクトは、DARPA(米国防高等研究計画局)の資金援助を得てIBM、HP、コーネル大学やスタンフォード大学などが参加した脳を模倣したニューロ・チップ(SyNAPSEチップ)分野のプロジェクト。 2011年 IBM、Watsonデビュー Watsonは米国のクイズ番組でクイズ王と対戦して勝利した。 駄じゃれや、同義語・同音異義語、俗語・専門用語など、あいまいな表現を含む自然言語で出題される問題に答えられることを示し、人工知能が実用化されたことを実証した。 当時のWatsonは、ハードウェアとしてはニューロコンピュータではなく、ノイマン型コンピュータでこのような用途に特化した専用機である。 90台のサーバに2880個のプロセッサをもち並列処理を行う。 16TBのメインメモリに知識を格納されていた。 質問に答える際の消費電力は80kWhにもなるといわれた。 その後、WatsonのAPIを公開し、Watsonをクラウドで利用できるサービスを提供した。 第三者がWatsonを利用できるようになったのである。 2011年 IBM、コグニティブ・コンピューティング・チップ開発 コグニティブとは認知という意味。 ニューロコンピューティングに特化したSyNAPSEチップ。 (IBMは、AIを「Artificial Intelligence(人工知能)」ではなく、「Augmented Intelligence (拡張知能)」として人間の知識を拡張し増強するものと定義している。 2012年 ヒントンらのグループ、人工知能コンベンション優勝 ディープラーニングによるシステムが画像認識、音声認識、化合物の活性予測の3分野で優勝• 2012年 Google、教師なし学習による画像認識「猫」 大量の画像をコンピュータに読み込ませて、教師なしで、特徴点を判断してクラスタリングを行わせた。 それにより、写真を見せるだけで、それが猫であるか否かを判断するシステムを公開した。 すなわち、猫という概念を自動学習で獲得したのである。 Cloud Vision API」をWebで提供している。 例えば「花の写真をアップロードして花の名前を知る」ようなことが、トライアルでできるし、APIを用いて独自のアプリを構築できる。 ハードウェアは、ノイマン型コンピュータのPCサーバが1,000台使われたという。 2014年 IBM、TrueNorth開発 コグニティブ・コンピューティング・チップを発展させたチップである。 郵便切手サイズチップ1個内にプログラム可能な100万個相当のニューロン、2. 56億個相当のシナプスの性能をもつ。 TrueNorhはシステム動作クロックは1kHzと低く、各コアは非同期的に通信を行い、処理を行わないコアはアイドル状態となる。 参考URL• 下川 北斗「高卒でもわかる機械学習」2015(シリーズ)• 村上・泉田研究室「ニューラルネットワーク」(目次)• Wikipedia「人工知能の歴史」• 人工知能学会「人工知能の歴史」<2000• 湯川鶴章「人工知能、ロボット、人の心。 」2014• STAY MINIMA「人工知能って何?歴史や将来の可能性を10分で理解できるまとめ」2016• 総務省「平成28年版 情報通信白書 人工知能研究の歴史」2016• Wikipedia「ニューラルネットワーク」• 浅川和雄「ニューロコンピュータ」1988• 小林 晶「ニューロコンピュータの基礎」2002• IBM「Watson とは? StoneWasher's Journal「脳型コンピューターとは? 人工知能と親和性の高い新しいしくみ」2017.

次の