【AIディープラーニングの基礎(1)】100%予測、『ゴーン逮捕の理由に3つの可能性』の記事

2018年11月26日 15:35

小

中

大

印刷

■未来は100%予測できる!「分類整理」が基本
 この記事では、3つの可能性を「推論」してみた。3つのケースに分類したが、この3ケースに外れるケースは有りえないと推論しているのだ。つまり、「100%の未来予測」、シミュレーションをしている訳だ。様々な組み合わせや、相似形はあるが、すべてこの3つのケースのどれかに分類できると考えているのだ。もちろん重みづけはあるのだが、これが【機械学習の基本】だ。これが分類出来ない、あるいは否定的に感じる人は、実は物事を理解できず、自分の感覚で「自己中」に言動している人であると自覚する必要がある。

【こちらも】カルロス・ゴーン逮捕の理由に3つの可能性 世界政治の闇が現れたのか?

 この例では、カルロス・ゴーン逮捕に関する「どんな情報」も、3つのケースのどれかに分類できることになる。「フランスと日本の経済相が会談した」のは(1)・(2)・(3)の重みづけケースに入る。「海外の豪邸を日産子会社に買わせていた」などは(1)に分類できる。こうやって情報を分類できると、「どのケースが多く考えられるのか?」とすると、その割合が見積もられる。それが、3ケース間の関連性の重みづけになる。

 こうして「100%の未来予測」、つまり「分類整理」ができると【ケースごとに備え】ができる。これが「仕事ができる」ことなのだ。「想定内」として仕事を進めるには100%の予測が必要だからだ。カルロス・ゴーンは、100%予測が出来なかったのだ。フランスに雇用が必要であるのと同様に、日本にも雇用の必要性があり、日本人も同じ人間であると認識できていれば、内部告白の可能性を予測できたかもしれない。これを「油断」という。つまり、100%予測は「推論」と考えておくことだ。「推論」とは「分類整理すること」と捉えておくのだ。これが、仕事の腕前を決めるポイントだ。

■「推論」が「理解」ということ、つまり【AIのディープラーニング】
 「推論」というと、「しょうもないうわさ話」と感じる人も多いようだ。それは、「物事の理解の仕方」を知らないからだ。物事を並列に「情報」として耳に入れている状態だと、「知っている」とは言えるが、何も「理解」できていない。つまり、「クイズに強い人」と言えるのだ。「理解する」とは、物事の関連性をその重要度まで評価し、多層に積み上げていくのだが、それは正に【AIのディープラーニング】だ。つまり、人間の思考回路の物事の捉え方であるのだ。しかし、多層的に関連性を評価していく過程が苦手の人が多いことも事実で、無理解の度が過ぎると「サイコパス」と言われる、人間関係を理解できない人となるのだ。アメリカ・トランプ大統領は、「幼稚だ」と言われてしまうのは、物事の関連性を十分に理解できないので、全てを1対1の「取引」と、単純な関係性としてしか見ることが出来ないためなのだ。

 しかしそれは、時として強大なリーダーシップとなって、「ヒトラー」のような独裁者を生み出してしまうことになる。

 本来、現状の出来事を理解し、将来を予測しながら言動するのがベストだ。しかし、将来には不確定要素が多く、確定できないのが通常だ。そこで「分類」し、「関連性を組み立てる」ことになる。この「分類整理」がAIにおいてもポイントで、分類する「基準」を人間が与えるAIと、「分類基準」も自立して見つけ出すAIがある。「擬人化されるAI」が、基準も見つけ出せるAIと言えるのだろう。

 次は、「判断基準を求めるのが議論である」を考えてみよう。(記事:kenzoogata・記事一覧を見る

続きは: 【AIディープラーニングの基礎(2)】 民主主義の危機を「AIディープラーニング」が救う

関連キーワードカルロス・ゴーン人工知能(AI)ディープラーニング(深層学習)

「ロボット・人工知能(AI)」の写真ニュース

IT・サイエンスの最新ニュース

RSS

もっと見る

主要ニュース

RSS

もっと見る

広告

広告

SNSツール

RSS

facebook

zaikeishimbun

いいね!

twitter

@zaikei_it

フォロー

google+

Hatena

広告

ピックアップ 注目ニュース