ー3)不連続性のモデル
レジームAから、レジームBに、レジームシフトが起こる場合、その中間の値を撮ることはできません。
これは、不連続性をレジームシフトで説明するモデルです。
不連続性を説明できるもうひとつのモデルはナッシュ均衡です。
ー3-1)不連続性のモデルの例
不連続性のモデルは、今まで、あまり扱われてきませんでした。
多くの場合、連続性のモデルを暗黙で仮定しています。
しかし、暗黙の仮定には、根拠はありません。
例をあげます。
EX1)与党の交替
小選挙区導入時には、2大政党になると予言した人もいます。
しかし、自民党が政権を手放した時期は、短期にとどまり、2大政党にはなっていません。
しかし、アンケートによる政権の支持率は決して高くはありません。
与党と野党が、選挙前に政策を提示して、ゆるかやかに、政権が交替するのは、連続性のモデルです。
しかし、現実には、自民党は、選挙前に政策を明示することはなく、政権与党になってから政策を発表しています。
この場合には、ゆるかやかな政権の交替は起こり得ません。
この場合、自民党が選挙で負ける場合を想定すると、有権者が、野党の政策が、自民党の政策より優れていると判断して、政権交代が起こらないことになります。
それでも、政権交代の可能性があります。
それは、有権者が、野党の政策を支持するのではなく、与党が退陣してくれるのであれば、野党の政策は問わないという判断をする場合です。
これは、不連続性のモデルになります。
EX2)DX
日本のDXは、先進国の中では、最下位です。
政府は、DXの出来ない人を、リスキリングすればよいといいます。
これは連続性のモデルです。
カナダでは、生成AIが、弁護士業務の一部をこなしています。
日本でも、これから、生成AIに仕事を奪われる人が出て来るという議論をする人もいます。
その時に、失業しないためのスキルを検討している人もいます。
これも、連続モデルです。
しかし、DXが進まないのと同じ問題があります。
政府は、生成AIが弁護士業務をする際には、人間の弁護士の管理のもとで使うという制約をかけています。
しかし、これは、不可能です。
詰碁や詰将棋であれば、コンピュータの能力は、人間の能力を超えています。
コンピュータが、詰碁の正解はこの手筋であると指示した場合を考えます。
人間が、コンピュータの示した手筋を全て、フォローすると膨大な時間がかかってしまい、コンピュータをつかうメリットがなくなってしまいます。
コンピュータは間違った推論を行いますが、それが心配であれば、別のコンピュータを使って、チェックするのが合理的な方法です。
しかし、現状では、人間が最終判断を行い、コンピュータには、最終判断を行わせない計画です。
これは、会社であれば、部下の提案を実現するには、上司の印鑑が必要であると同じシステムです。
印鑑を集めるシステムの多くは、めくらハンで、中身のチェックになっていません。
つまり、現在のDXの推進方法は、連続モデルを想定していますが、現実に起こっていることは、不連続モデルです。
年功型雇用は、連続モデルですが、会社がつぶれそうになると、早期退職を募ります。
早期退職は、不連続モデルです。
同様に考えると、DXをリスキリングという連続モデルで解決しようとして、行き詰れば、レイオフとスキルのある人の採用という不連続モデルが採用されると思われます。
競合する欧米企業は、不連続モデルを採用しています。
欧米企業には、窓際族はいません。
窓際族のコストは、製品価格に転嫁されますので、価格競争で不利になり、市場から撤退する原因になります。
こう考えれば、最初から、問題解決は不連続モデルで行うべきだと思います。
しかし、経団連は、年功型雇用を当面は続けて、春闘に対応する計画です。
これは、経団連は、連続モデルを前提としていることを意味します。
しかし、筆者は、早い時期に、早期退職のような不連続モデルへの転嫁がおこると考えます。
ー3-2)壮大な無駄
連続モデルは、不連続モデルに切り替わった場合、連続モデルの維持のために、支払ったコストは無駄になります。
早期退職のためのスキルアップのコストは無題になります。
無駄が出る原因は、リアルワールドのフィードバックがないためです。
この壮大な無駄のコストは、教育の分野で発生します。
5年、10年かかって学習した内容が粗大ごみになります。
コンピュータにできることを人間が行うべきではありません。
カリキュラムが、コンピュータにできないことを学ぶのであれば、試験にスマホを持ち込んでも問題はありません。
問題は、試験にスマホを持ち込むことではなく、スマホがあれば簡単に解けるような問題を出題する側にあります。