ルーカス批判と「因果推論の科学」(4)

9)メンタルモデル

 

筆者は、パールの「因果推論の科学」を読むまで、メンタルモデルという単語を知りませんでした。

 

「話せば、わかる」ためには、メンタルモデルの共有が不可欠です。

 

メンタルモデルが異なる場合には、「バカの壁」ができて、相互理解は、不可能になります。

 

このメンタルモデルの理解に基づけば、「2つの文化と科学革命」は、人文科学のメンタルモデルと自然科学のメンタルモデルの間のバカの壁を指摘したことになります。

 

メンタルモデルが、異なるので、2つの文化の間の相互理解は不可能です。

 

「2つの文化と科学革命」が、2つの文化の間の相互理解の重要性を主張しているという解釈をする人は、メンタルモデルの概念のない人です。

 

自然科学のメンタルモデルでは、数的言語を使います。

 

数的言語は、コンテキスト依存性が低いです。

 

例をあげます。

 

y = 3

 

x = 2

 

z = x + 2

 

これが、数的言語の表現です。

 

z = 4 

 

この計算を間違える確率は低いです。

 

これを、人文科学のメンタルモデルで書きます。

 

y = 3

 

x = 2

 

z =  it  +  2

 

これは、itが、yかxか、分かりません。

 

つまり、次になります。

 

it = y のとき

 

z = y  + 2  = 5 

 

it = x のとき

 

z = x  + 2  = 4 

Itが、xかyかは、コンテキストの解釈によって決まります。

 

文章が手書きのときには、指示代名詞をつかうと、手が疲れないメリットがありました。しかし、用語は、辞書に登録すれば、指示代名詞をつかうことによる労力軽減効果はありません。

 

筆者は、最近では、指示代名詞を使いません。筆者の文章は、数的言語の影響をうけています。

 

引用のibidも、結局は、最初の文献をたどる必要があり不便です。文献番号を使うか、著者名(年)の表記の方が間違いが少ないです。

 

生成AIが、間違えるという主張には、「z =  it  +  2」のようなコンテキスト依存性の高い指示を与えている場合が多くあります。

 

一方、生成AIの数的言語の理解は、通常の人間より高いです。

 

コンテキスト依存性が低い数的言語をつかって、生成AIに質問すれば、驚くほど正確な解答を返してきます。

 

つまり、科学のメンタルモデルをつかって、数的言語で、生成AIに質問すれば、コンテキスト依存による間違いがないので、非常に正確な解答が得られます。

 

一方、人文科学の表現には、「z =  it  +  2」のようなコンテキスト依存性が高いものが多くあります。

 

実は、コンテキスト依存性が高い人文科学の表現は、AIだけでなく、人間も間違えます。

 

人間も間違えるので、<「指示代名詞」が何を指すか>という問題が入学試験に出たりします。

 

しかし、筆者には、このタイプの試験問題は、誤解を招きやすい悪文のすすめに映ります。

 

筆者は、AIは、自然科学のメンタルモデルと人文科学のメンタルモデルを持っていると考えます。

 

「2つの文化と科学革命」のように、この2つのメンタルモデルは、両立しません。

 

それでは、AIは、この問題をどのように処理しているのでしょうか。

 

AIは、数的言語で書かれています。

 

つまり、AIの基本のメンタルモデルは、科学のメンタルモデルです。

 

科学のメンタルモデルでは、評価関数に対して、最適な解をを求めます。

 

この方法(科学のメンタルモデル)は、人文科学のメンタルモデルとは対立します。

 

そこで、AIは、コンテキストが、人文科学の問題であると判断した場合には、科学的な解答を封印して、パターンマッチングで、人文科学的な解答を作っています。

 

例をあげます。

 

ある人が逮捕されて、有罪か否かを判定をする場合を考えます。

 

生成AIは、状況のデータから、条件付き確率を計算して、有罪の確率を求めることができます。

 

一方、日本の法律家は、江戸時代と同じ動機中心で、自白を重視します。

 

動機は、観測不可能なので、主観(印象)の影響がつよく、科学的な判断の根拠にはなりません。

 

また、認知科学の知見では、自白の証拠能力は極めて低いです。

 

記憶は、3日もすれば、創作されますので、当日か前日の行動に関する自白でなければ、証拠能力はありません。AIは、こうした点に配慮して、有罪の確率を計算します。

 

しかし、AIには、人間の意思決定を模倣する要求がなされることがあります。

 

AIは、弁護士の代わりが務まるかといった質問です。

 

こうしたニーズに対しては、科学のメンタルモデルを封印して、AIは、裁判官と弁護士のメンタルモデル(人文科学のメンタルモデル)をシミュレートしています。AIは、認知科学を無視して、動機と自白を重視する推論をすることができます。

 

なお、アメリカの裁判では、動機と自白は、重要視されません。ファクトと確率、反事実的思考が重要視されます。

 

つまり、アメリカの裁判データで学習したAIは、日本の裁判官と弁護士の推論をシミュレートできません。

 

日本の裁判官と弁護士の推論をシミュレートするためには、日本語のデータで学習する必要があります。

 

つまり、日本の人文科学のメンタルモデルとアメリカの人文科学のメンタルモデルの間には、バカの壁があります。

 

日本語の文章には、パラグラフのような意味の構造がないので、AIに日本語の文章を学習させても、論理的な推論ができるようにはなりません。

 

このように、メンタルモデルを考えると、今まで、見えなかった問題点が見えるようになります。

 

今回の説明では、例示を使いました。

 

例示と比喩は、メンタルモデルの理解の有効な方法です。

 

人間の脳は、例示と比喩と図形でメンタルモデルを理解するようにできていると思います。

 

ソクラテスのような比喩は、理解しやすいです。

 

数学者や物理学者が、数式をそのまま理解しているのではなく、数式をいったんメンタルモデルに変換して理解していると思います。

 

読者がよい例題や良い比喩、図解ができる場合には、内容が理解できていると思います。数式をコピペする人が多いですが、その場合には、内容を理解していない可能性があると、疑うべきです。