14)ルーカス批判の読み方
14-1)間違いとは何か
ずっと、先送りしていたルーカス批判に着手します。
ルーカス批判は、訓詁学的な読み方をされています。
これは、ルーカス批判の文章には、間違いがないという解釈になります。
しかし、この前提には、合理性はありません。
1976年にルーカス批判は、公表されました。
ルーカス批判のような古典に間違いがある可能性は2つに分けられます。
第1は、内容の間違いです。
第2は、表現の間違いです。
この2つは、区分できる場合と、区分ができない場合があります。
この2つを区分しない波風をたてない解釈を通す方法もあります。
ルーカス批判について、CopilotとChatGPTと議論しましたが、CopilotとChatGPTは、経済学者の常識で、推論するので、「第1の内容の間違い」を認めさせることは、困難です。一方、AIに、「第2の表現の間違い」を認めることは可能です。
ここで、「第1の内容の間違い」は、計算間違いのようなものではありません。
「第1はの内容の間違い」は、その時代の常識にとらわれていた可能性を指します。
ルーカス批判は、その時代の常識に対する批判でした。
ですから、ルーカス批判に対する「第1はの内容の間違い」とは、「ルーカス批判は、その時代の常識の間違いを指摘したが、依然として、その時代の常識からぬけられなかった(間違いが残った)部分があるか」という問いになります。
ここで、ヒントになる点を示します。
経済学は、物理学の微分方程式をモデルに、数学的な理論を発達させました。
第2次世界大戦は、原爆の使用によって終了しました。
1950年から1970年頃の物理学に対する社会的な信頼は絶大なものがありました。
ポパーは、物理学をモデルに、科学哲学を構築しました。
スティーヴン・ワインバーグが、2015年に出版した、「To Explain the World: The Discovery of Modern Science 、科学の発見」は、「物理学が、一流の科学で、そのほかに、二流の科学がある」という信念で書かれています。
2015年に、この主張をすると、さすがに、つっこみを入れたくなる人も多いと思いますが、1970年頃は、「物理学が、一流の科学で、そのほかに、二流の科学がある」という信念は常識で、経済学者も、経済学は、二流の科学であると考えていました。
また、エネルギー損失を無視できれば、ラプラスの悪魔が成り立つと考える人も多くいました。
ラプラスの悪魔とは次の命題です。
<
世界に存在する全物質の位置と運動量を知ることができるような知性が存在すると仮定すれば、その存在は、古典物理学を用いれば、これらの原子の時間発展を計算することができるだろうから、その先の世界がどのようになるかを完全に知ることができるだろう、
>
この概念・パラダイムは、未来は現在の状態によって既に決まっているだろうと想定する「決定論」の概念を論じる時に、ある種のセンセーショナルなイメージとして頻繁に引き合いに出されます。
簡単に言えば、物理学のような科学が進めば、未来は完全に決まっているという決定論的な世界観になります。
月食の予測を考えれば、この世界観のイメージが得られます。
ラプラスの悪魔には、2つの前提があります。
第1の「世界に存在する全物質の位置と運動量を知ることができるような知性」は、完全情報の前提です。
第2の「古典物理学を用いれば」は、因果構造がモデル化されていて、その因果構造は、今後も変化しないという前提です。
この2つの前提は、非現実的ですが、1970年頃には、科学が進めば、将来、ラプラスの悪魔の世界が実現するというイメージを描いている人が多くいました。
物理学は、非常に簡単な数式でモデルをつくることができます。
交絡因子の影響は、少なく、トランスポータビリティが問題になることはありませんでした。
2025年現在では、この2つの条件が当てはまらない場合がほとんどなので、物理学は、科学のモデルにはならないと考えられてます。
物理学は、実験によって発達しました。実験とは、介入の世界です。つまり、介入のデータを使ってモデルをつくり、観察の世界に当てはめたら、上手くいったのが物理学です。このプロセスがあまりに、大きな成功をおさめた結果、観察と介入の区別があいまいになりました。
経済学は、物理学の方程式をモデルに、学問を構築しました。
しかし、物理学の研究方法をモデルに学問を構築することも可能でした。
これは、まず、実験経済学で、介入実験を繰り返して、法則を見つけて、見つかった法則を組合せて、経済学を構築する手順です。
しかし、この方法は採用されませんでした。
2025年の現在では、間違いがないのが科学であるというメンタルモデルが市民の間に広まっています。例えば、「AIは、間違える」、「AIはうそをつく」といった主張は、間違いがないのがAI(科学)であるというメンタルモデルを反映しています。これは、確率のメンタルモデルの欠如に対応しています。
実は、AIの開発者にとって、「AIは、間違える」、「AIはうそをつく」という問題は存在しません。AIは、確率モデルで出来ています。つまり、どんな主張にも、間違える確率が付随しています。AIの開発者にとって、間違える確率を人間並みにする、あるいは、人命にかかわる場合には、さらに、下げることは開発目標になりますが、「AIが間違えない」ことは、開発目標ではありません。