「因果推論の科学」をめぐって(59)

注:これは、ジューディア・パール、ダナ・マッケンジー「因果推論の科学―「なぜ?」の問いにどう答えるか」のコメントです。

 

(59)メンタルモデル・ギャップ

 

1)帰納法の時代

 

WEBで見かける記事の90%以上は、ベーコン流の帰納法をつかっています。

 

しかし、べーコン流の帰納法が推論を間違える可能性は非常に高いです。

 

べーコン流の帰納法の推論の間違えが気にならない原因は、単に検証をしない空にすぎません。

 

前例主義(列挙型帰納法)は、数式を使わないで済むメリットがありますが、数式を使わないので、検証という概念すらありません。

 

前例主義の推論は、トレンド予測と、微調整です。

 

大阪万博は、前例主義の推論の典型です。

 

前例を元に、トレンド予測で、予算を組んで、実際に、予算が不足すると費用を修正します。

 

これは、東京オリンピックの時と同じ推論です。

 

週刊現代は次のように、伝えています。

 

8月5日付で、財務省内に「安全保障政策統括室」が新設された。

 

(これは、財務省が、経産省からの利権の巻き返しをねらったものである:筆者注)

 

安倍政権では経産省出身の今井尚哉元首相秘書官が官邸を仕切り、大物警察官僚で前国家安全保障局長の北村滋さんもいた。両者が経済安保の構図と利権を作った。

 

三菱電機富士通に経済安保担当ポストが新設され、経産省OBの日下部聡氏や高橋泰三氏が天下りしていた。

<< 引用文献

財務省が「経済安全保障」に前のめり…?経産省のナワバリに踏み込んだ「因縁のバトル」の内幕 2024/08/23 現代ビジネス 週刊現代

https://gendai.media/articles/-/135755

>>

 

ここにある推論は、前例主義です。

 

筆者は、富士通が、GAFAMに決定的に差を付けられた原因は、このような前例主義にあると考えています。

 

GAFAMに比べて、過去の20年の富士通の株価のパフォーマンスは惨憺たるものでした。

 

つまり、前例主義は、株主利益に反しています。ここには、資本主義はありません。

 

前例主義の人とは、労働生産性やDXの議論はできません。

 

富士通とDXの議論ができないということは、考え難いビジネスモデルですが、これが、現実です。

 

富士通が、DXよりも、経済安保担当ポストを作って、天下りの受け入れを優先しているのですから、富士通のソフトウェアでDXが進むと考えることは困難です。

 

ともかく、日本の企業では、べーコン流の帰納法と前例主義の推論が蔓延しています。

 

パール先生は、「因果推論の科学」で検討していませんが、べーコン流の帰納法と前例主義の推論をするAIを作ることは容易です。

 

パール先生だけでなく、AI研究者は、べーコン流の帰納法と前例主義の推論をするAIを作る計画を持ちません。

 

これは、べーコン流の帰納法と前例主義の推論をするAIには、価値がないからです。

 

リアルワールドの結果と比較して、パフォーマンスの値をだせば、使い物にならないことになります。

 

2)「因果推論の科学」のメンタルモデル

 

「因果推論の科学」をよく読めば、頭の中に、「因果推論の科学」の推論のメンタルモデルが出来上がります。

 

この「因果推論の科学」のメンタルモデルからみれば、べーコン流の帰納法と前例主義の推論のメンタルモデルは理解できなくなります。

 

要するに、わざわざ間違った推論をする理由を見つけることは困難であるといえます。

3)10年後、または、現在

 

パール先生の予測どおり、10年後に、因果推論ができる強いAIが実用化したと仮定します。

 

「因果推論の科学」のメンタルモデルでは、この強いAIの推論は、よく理解出来るはずです。

 

一方、「因果推論の科学」のメンタルモデルでは、「べーコン流の帰納法と前例主義の推論」は理解が困難です。

 

この時に、「べーコン流の帰納法と前例主義の推論」のメンタルモデルの持ち主は、強いAIは、間違っているというかも知れません。

 

これは、言い換えれば、「べーコン流の帰納法と前例主義の推論」のメンタルモデルの持ち主は、強いAIは、いらないという主張になります。

 

あるいは、政治家が、科学より政治主導であるという主張とみることもできます。

 

人間の科学者に太刀打ちできる人工科学者を作るためには、強いAIは必須です。

 

生成AIでは歯が経ちません。

 

しかし、「べーコン流の帰納法と前例主義の推論」に勝つためには、さほど高度なAIは必要としません。恐らく、2024年レベルの生成AIでも、十分です。

 

こう考えると、政治主導で、生成AIの間違いを禁止する法律をつくるという主張は、「べーコン流の帰納法と前例主義の推論」が、生成AIの推論よりも正しいという主張のごり押しにみえます。

 

ここで、ごり押しというのは、チューリングテストをしないで、権威で優劣をつけたいという主張になります。

 

富士通の経営戦略を生成AIに尋ねれば、因果推論では、間違った戦略を提示してくるかも知れません。しかし、その推論は、「べーコン流の帰納法と前例主義の推論」より、正解の確率が高いはずです。

 

生成AIが、「経済安保担当ポストを新設して、官僚OBの天下りを受け入れるべきである」という経営戦略を提示する可能性は、ほぼゼロです。

 

この経営戦略は、株主利益になりません。感度分析をして、株主利益を最大化する評価関数をとれば、「経済安保担当ポストを新設して、官僚OBの天下りを受け入れるべきである」という経営戦略は出てきません。

 

それでは困る人(「べーコン流の帰納法と前例主義の推論」のメンタルモデルの持ち主)は、強いAIどころか生成AIは、間違っているといっています。

 

この主張の主旨は政治主導、簡単に言えば科学は使うなということになります。

この主張が理解できれば、日本で起こっている現象が理解できます。