はじめにかならず読んでください

人工知能

じんこう・ちのう  artificial intelligence, AI

解説:池田光穂

年代
論理主義
統計確率主義
批判的意見
ディプラーニング史
1943
1947
1954
1965
1968
1970-80年代前半

1947 ウィーバーが機械翻訳のアイディアの提唱
1954 
IBMとジョージタウン大学による初の機械翻訳研究
1965 ファイゲンバウムらによるエキスパートシステムの開発

ルールベースによる機械翻訳の時代
1943 マカロックとピッツの共同研究





1980 以降、統計機械翻訳のアイディアが発表される

1988 IBMが単語ベースの統計機械翻訳を提唱
1990 以降、統計機械の時代

2010 年代、ニューラル機械翻訳が主流となる



1965 ドレイファスの人工知能批判
1968 フレーム問題

1980 サールの強いAI,弱いAI,中国人の部屋の議論
1986 ウィノグラードの人工知能批判
1946 ENIAC

1956 ダートマス会議

1970「おもちゃ問題」破綻

1980 エキスパートシステム
1990 ウェブページ
2000 機械学習が本格化
2010 自動運転
2012 DLの画像認識主流化
2015 Alpha GO 人間に勝つ





脳が(従来の)コンピュータと異 なる点(カーツワイル 2007:175-180 池田のコメンタリー
脳の回路は遅い
脳は超並列処理ができる
脳はアナログもデジタルの現象も併用している
脳は自分自身で配線しなおす
脳の細部はほとんどランダム
脳は創発的な特性をもちいる
脳は不完全である
脳をもっている(/脳を使う)我々は矛盾している
脳は進化を利用する
脳は進化を利用する
パターンが大切である
脳はホログラフィ的である
脳は深く絡み合っている
脳には、各領域をまとめるアークテクチャーがある
脳の領域の設計は、ニューロンの設計よりも単純である

【シンギュラリティを最初に予言したのはコンピューティングの父フォン・ノイマンである】

シンギュラリティをレイ・カーツワイル(Ray Kurzweil, 1948- )[別項のパラグラフ参照]で表象するのは、AI思想の歴史を考えるときに根本的に誤解(=misrepreseuntation)を引き起こす。英国の 数学者、アーヴィング・ジョン・グッド(アイ・ジェイ= I. Jey, "Jack")(1916-2009)が1965年に書いた論文のなかに、「超高性能マシン」こそが人類の生き残りにかかると託宣めいた論文に書いたこと がきっかけである。実際にグッドは、2001, Space Odyssey (1968) にコンサルタントとして関わっていた。科学とSFが出会う場所が、ボブ・グッチョーネ創刊による雑誌『オムニ』(Omni, 1978-1995)である。この雑誌において、SF作家、ヴァーナー・ヴィンジが、シンギュラリティ(特異点)と、グッドがいう、計算機による知能爆発 を、こう呼んだのである。しかし、人口に膾炙した、この特異点のまえに、さらに重要なことがあることを私たちは忘れてはいけない。電子計算機(コンピュー タ)の父[=ノイマン型コンピュータ思想の父と呼ぶべきか]、フォン・ノイマン(Neumann Jáno; John von Neumann, Margittai Neumann János Lajos, Johannes Ludwig von Neumann, 1903-1957)こそが、その用語をつかって、予言めいた発言をしていたのである。

ジョン・フォン・ノイマンは、同僚であったスタニスラウ・ウラム(Stanislaw Ulam, 1909-1984) とかつて話している時に、人類は根本的な「シンギュラリティ」に達しており、その後の人間の世は永遠に変わってしまうと予言めいて話し手いたという。 (Ulam, S., 1958. John von Neumann, Bulletin of the American Mathematical Society 64(3, Part.2):1-49.)

■"Quite aware that the criteria of value in mathematical work are, to some extent, purely aesthetic, he once expressed an apprehension that the values put on abstract scientific achievement in our present civilization might diminish: "The interests of humanity may change, the present curiosities in science may cease, and entirely different things may occupy the human mind in the future." One conversation centered on the ever accelerating progress of technology and changes in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue" (Ulam, 1958:5).

【カーツワイル批判】

シンギュラリティ=技術的特異点(Technological Singularity, Singularity)という用語は「レイ・カーツワイルRay Kurzweil, 1948- ) によれば、「100兆の極端に遅い結合(シナプス)しかない人間の脳の限界を、人間と機械が統合された文明によって超越する」瞬間」が訪れるという、技術 論的終末論のことである。カーツワイルは、この終末論を展開するにあたり、人類のテクノロジーやコンピュータチップの計算効率の進化などを博引旁証して、 仔細に検討しているために、なぜ100兆という情報のノードが脳のシナプス結合と類推されるのか、また、それよりも低次の(例えば原索動物やイカなどの人 間よりも低次の)シナプス結合の総量しかもたない動物のふるまいを完全に模倣できるのかという議論などをしておらず、あくまでもシナプス結合が思考を構成 するという「シナプス結合総計中心主義」であることがわかる。そのため、カーツワイル氏には、全地球システムのICTがシンギュラリティを超えて、全地球 システムがはたして、我々と同じように「思考」しているかどうかということについては、我々は相変わらずシナプスレベル(=デカルトの確信レベルとしての「機械の中の幽霊」)でしか 「把握」できないというジレンマを抱えることを御存知ないわけである。さらに、人間とICT端末のハリブリッドな利用、つまりサイボーグ化により、我々は すでにシンギュラリティを超えて、すでに人間=機械状態(ドゥルーズとガタリの用語)になっていることは「ただ、単に知らない」だけなのかもしれない。

【シンギュラリティ到来に関する相対主義的な新仮説】

計算効率が大脳のそれを凌駕する条件をシンギュラリティと呼ぶ。その時点は計算量の進歩だけで予言されてきた。しかし人間とりわけ学生の短 絡思考化=馬鹿化により前倒しになる点を、従来のシンギュラリティは考慮に入れなかった。ゆえにこれは理論計算上の誤りであった。以上QED

Convolutional neural network
"In deep learning, a convolutional neural network (CNN, or ConvNet) is a class of deep neural networks, most commonly applied to analyzing visual imagery.[1] They are also known as shift invariant or space invariant artificial neural networks (SIANN), based on their shared-weights architecture and translation invariance characteristics.[2][3] They have applications in image and video recognition, recommender systems,[4] image classification, medical image analysis, natural language processing,[5] and financial time series.[6]" - convolutional neural network (CNN, or ConvNet)
Deep learning
Deep learning (also known as deep structured learning) is part of a broader family of machine learning methods based on artificial neural networks with representation learning. Learning can be supervised, semi-supervised or unsupervised.[1][2][3]- https://en.wikipedia.org/wiki/Deep_learning

Recurrent neural network
A recurrent neural network (RNN) is a class of artificial neural networks where connections between nodes form a directed graph along a temporal sequence. This allows it to exhibit temporal dynamic behavior. Derived from feedforward neural networks, RNNs can use their internal state (memory) to process variable length sequences of inputs.[1] This makes them applicable to tasks such as unsegmented, connected handwriting recognition[2] or speech recognition.[3][4] - Recurrent neural network.










解説(谷田部卓『これからのAIビジネス』MdN, 2018年による)
池田コメント
人工知能
「言語の理解や推論、問題解決など知的行動を人間にかわってコンピュータに行わせる技術」
これでいいのか?
ディープラーニング

機械学習

教師あり学習
機械学習の手法のひとつ。あらかじめ正解のデータ(教師データ)を必要とする。教師データからパターンや特徴を学習させる

教師なし学習


強化学習


自然言語処理


ニューラルネットワーク


生成モデル
教師データをもとにして、そのデータと似たような新しいデータを創り出すモデルのこと

GAN, Generative Advisarial Network
生成器Gと識別器Dの間の2つのディープラーニングで構成されたモデルのこと


過学習
機械学習において教師あり学習をおこなった際に、未学習の問題に対して正しく答えをだせない状態

スパースモデリング:
少ない情報からデータの全体像を的確に抽出する(どのようにして?)科学的モデリング。疎性モデリングともいう
Sparse approximation: "theory deals with sparse solutions for systems of linear equations. Techniques for finding these solutions and exploiting them in applications have found wide use in image processing, signal processing, machine learning, medical imaging, and more."
PoC: Proof of Concept
新しい概念や理論、原理などの実証を目的とした実験

フィンテック


仮想通貨


ブロックチェーン
「ブロックチェーン(英語: Blockchain)とは、分散型台帳技術、または、分散型ネットワークである。ブロックチェインとも。ビットコインの中核技術(ナカモト・サトシ=Satoshi Nakamotoが 開発)を原型とするデータベースである。ブロックと呼ばれる順序付けられたレコードの連続的に増加するリストを持つ。各ブロックには、タイムスタンプと前のブロックへのリンクが含まれている。理論上、一度記録すると、ブロック内のデータを遡及的に変更することはできない。ブロックチェーンデータベースは、 Peer to Peerネットワークと分散型タイムスタンプサーバーの使用により、自律的に管理される」- Wiki,ブロックチェーン。

IoT


HRテック: Human Resource Technology


マーケティング・オートメーション


RPA: Robotic Process Autometion


SDGs


Society 5.0

Critique of Japanese govenment's developing concept of "Society 5.0";