23)これから起こること
23-1)レイテ沖海戦
法度体制のメカニズムは。太平洋戦争をみればわかります。
日本語のウィキペディアを引用します
<
ミッドウェー海戦( Battle of Midway)は、1942年6月5日から6月7日にかけて中部太平洋ミッドウェー島周辺で行われた日本海軍とアメリカ海軍による海戦である。太平洋戦争の転換点と言われ、この戦闘における敗北により日本側は制空権と制海権を失い、以後は戦争の主導権がアメリカ側に移ったことで知られている。
レイテ沖海戦(Battle of Leyte Gulf)は、第二次世界大戦中の1944年10月20日から25日にかけて、フィリピン周辺の広大な海域を舞台に日本海軍とアメリカ及びオーストラリア両海軍からなる連合軍との間で交わされた一連の海戦の総称である。
>
ここでは、法度体制と段落の論理を問題にしています。
ミッドウェー海戦では、日本側は制空権と制海権を失いました。したがって、この時点で降伏することが、合理的な判断です。
しかし、法度体制の実謬主義は、「制空権と制海権を失った」という作戦の間違いを認めません。
法度体制を問題にしている水林章氏の説明では、天皇制の日本には、連合軍の爆弾が落ちないといわれていたそうです。
ミッドウェー海戦から、レイテ沖海戦まで、2年4か月の時間があります。その間に、法度体制は強化されていきます。無謬主義では、過去の失敗を認めて、戦略のバージョンアップを図ることはありませんでした。間違いが繰り返され、無謬主義が強化されました。その結果、レイテ沖海戦では、初めて特攻が採用されました。
小倉健一氏は、備蓄米放出に関連して、次のように、言っています
<
(減反は)誰が見てもわかりそうな(効果がない)政策だが、農水省は、昨日してきたことを今日やり、明日もやる。裏を返せば、昨日やらなかったことは今日やらない。明日もやらないという姿勢を繰り返してきたのである。
>
<< 引用文献
消費者からは“ボロカス”生産者からは「よく言った」備蓄米放出のJA福井の苦悶…コメ高騰、悪いのは「農家の手足縛った」自民と農水省 2025/03/05 MINMABU 小倉健一
https://news.yahoo.co.jp/articles/9b12b9d1019b8b2103fbbc2745b31acd217f57ba?page=1
>>
これは、無謬主義です。
問題が生じると、データに基づいて間違いを訂正する科学の方法をとらずに、司令塔が大切というエビデンスに反する政策を遂行してきます。
法度体制で考えれば、こうした政策は、問題解決ではなく、法度体制の維持を目的にしていますので、問題が解決されることはありません。より正確に言えば、問題を解決する意図がないと言えます。
さて、DXとAIは、法度体制の最大の脅威です。
DXを進めて、さらに、AIを導入して、生産性があがれば、法度体位は、少なくとも経済成長を目的とするのであれば、間違いであったことが表面化します。
つまり、政府には、DXとAI(能力主義)を排除する強い動機があります。
23-2)人工知能関連技術の研究開発及び活用の推進に関する法律
日本経済新聞は、次のように伝えています。
<
人工知能(AI)の安全性を研究する政府系機関が、AI開発向け学習データの品質管理について指針をまとめる。学習内容が偏り、差別的な出力につながらないよう基準を設ける。今後活用が見込まれる人工的な「合成データ」は特に偏見を増幅させるリスクがあることから、対策に力を入れる。
>
<< 引用文献
AI品質管理、政府が指針 偏見増幅リスクがある「合成データ」に警鐘 2025/03/02 日本経済新聞
https://www.nikkei.com/article/DGKKZO87064210S5A300C2EA2000/
>>
まるちゃんは、次のように説明しています。
<
内閣府科学技術・イノベーション推進事務局から、人工知能関連技術の研究開発及び活用の推進に関する法律案が国会に提出されたようですね...
まだ、衆議院のウェブには上がっていませんが、内閣府のウェブに法案があります。
>
<< 引用文献
まるちゃんの情報セキュリティ気まぐれ日記 2025/03/02
内閣府 人工知能関連技術の研究開発及び活用の推進に関する法律案
http://maruyama-mitsuhiko.cocolog-nifty.com/security/2025/03/post-23e311.html
>>
背景の資料の一部は、三部裕幸氏のもののようです。
<< 引用文献
渥美坂井法律事務所・外国法共同事業 弁護士・ニューヨーク州弁護士 三部 裕幸 2022/10/26
https://www.soumu.go.jp/main_content/000842190.pdf
EUのAI規制法案の概要 Atsumi & Sakai 2022
https://www.soumu.go.jp/main_content/000826707.pdf
>>
つまり、「人工知能関連技術の研究開発及び活用の推進に関する法律」は、法律のメンタルモデルで書かれています。
しかし、AIは、法律では作ることができません。
つまり、AIを法律の言葉で書くことは不可能です。
「人工知能関連技術の研究開発及び活用の推進に関する法律」は、EUをモデルにしています。しかし、このEUモデルは、EUの人工知能関連政策の法律関連の部分を段落の論理で引用しています。
政府の論理は、ぼぼ100%が、段落の論理であり、データと説明(アルゴリズム)がありません。メンタルモデルの共有ができないので、コミュニケーションはできません。
23-3)AI 評価の科学
AI 評価は、科学です。
メタは、次のように書いています。
<
私たちは、その可能性を実現するために、AI の最先端の技術、モデル自体、そして責任を持ってそれらを展開するシステムを推進することに尽力しています。リスクを完全に排除することはできませんが、この AI を社会にとってプラスにするには、社内で、また必要に応じて政府や外部の専門家と協力して、AI がもたらす可能性のある重大なリスクを予測し、軽減する措置を講じることが重要だと考えています。
この Frontier AI フレームワークでは、リスクの評価と軽減、壊滅的なリスクのしきい値の設定など、Meta が高度な AI を構築する仕組みについて説明します。Frontier AI フレームワークは比較的新しいタイプの政策手段であり、用語の使用方法にはばらつきがあります。そのため、フレームワークを読む際に理解しておくべき重要ないくつかの重要な用語の定義を付録に含めました。
AI 評価の科学はまだ初期段階にあり、企業、学界、政府の研究者は AI のリスクとメリットをより堅牢かつ定量的に測定する方法の開発に取り組んでいます。その結果、この文書で概説したアプローチを含むリスクの評価と軽減へのアプローチは、時間の経過とともに進化し、成熟していくと予想されます。高度な AI システムの開発に対する現在のアプローチを共有することで、意思決定プロセスの透明性が促進されるだけでなく、AI 評価の科学とリスクとメリットの定量化を改善する方法についての議論と研究が促進されることを願っています。
>
<< 引用文献
Frontier AI Framework v1.1 Meta
https://ai.meta.com/static-resource/meta-frontier-ai-framework/
>>
世界経済フォーラムは、次のように書いています。
<
人工知能 (AI) は、組織が社会的および環境的課題を乗り越える上で大きな可能性を示しています。このシリーズの最初のレポート「インパクトのための AI: 社会イノベーションにおける AI の役割」では、社会インパクトの分野、地域、性別別に AI 導入の状況をマッピングし、インパクトのためにテクノロジーをうまく導入した社会イノベーターのケーススタディを紹介しました。
このホワイトペーパーは最初のレポートを基にしており、世界経済フォーラムの AI ガバナンス アライアンス (AIGA) の Presidio フレームワークを活用しています。PRISM フレームワークは、さまざまな導入経路と実際のケーススタディを提供し、社会イノベーター、インパクト企業、仲介者がテクノロジーの使用に対してインパクトの使命、能力、リスクをフィルタリングできるようにします。
このレポートのフレームワークは、AI 対応の AI 準備評価マトリックスの基礎でもあり、社会イノベーターとインパクト企業が現在のプラクティスを評価するために利用できます。内部および外部で AI を統合および実装するための実用的なロードマップを示しています。
このレポートシリーズは、社会革新者や影響力のある企業による AI の倫理的な採用に対する認識を高め、促進することを目的とした、Global Alliance for Social Entrepreneurship の AI による社会革新ワークストリームの成果です。
>
<< 引用文献
AI for Impact: The PRISM Framework for Responsible AI in Social Innovation WOrld Economic Forum 2024/06
>>
上記の文献には、次のようにも書かれています。
<
PRISM フレームワークは、Presidio フレームワークを基盤としています。さまざまな導入経路が、組織、技術、データの準備状況のさまざまなレベルと相互に依存していることを強調しています。また、あらゆる段階で組織のインパクト目標との整合の必要性も強調しています (図 6 を参照)。ソーシャル イノベーターは本質的にインパクト重視の組織であり、戦略的整合 (AI ガバナンス アライアンスのフレームワークで概説されているように) の考慮はビジネス整合を超えていることを強調しています。その考慮では、インパクトを優先し、AI を適用する際のコア バリューと倫理原則も考慮します (ソリューションの設計でコミュニティの声を優先するなど)。それは必ずしも、広範囲で高度に設計された、リソースを大量に消費する戦略プロセスではなく、むしろ、計画されたユースケースと影響目標(製品/サービス開発へのコミュニティの早期参加、受益者間のデータ所有権、または人間の関与なしの意思決定の禁止など)との継続的な調整です。
>
Presidio フレームワークは、2023年に提示されています。
<< 引用文献
The Presidio Recommendations on Responsible Generative AI
https://www3.weforum.org/docs/WEF_Presidio_Recommendations_on_Responsible_Generative_AI_2023.pdf
>>
まるちゃんは、Presidio Recommendationsを日本語に訳しているので、その一部を印欧します。
<< 引用文献
まるちゃんの情報セキュリティ気まぐれ日記 2023/06/14
世界経済フォーラム (WEF) 責任ある生成的AIに関するプレシディオ提言 (2023.06.14)
http://maruyama-mitsuhiko.cocolog-nifty.com/security/2023/06/post-f7b9a7.html
>>
<
01 正確で共有された用語集を確立する
生成的AIモデルの能力、限界、問題点の設計、開発、評価、測定について議論する際には、すべての関係者が正確な用語を使用することが求められる。この用語を定義し、標準化することは専門家の責任である。コンセンサスが得られ次第、すべてのステークホルダーがこの用語を一貫して採用することが重要である。このアプローチは、明確性を高め、効果的なコミュニケーションを促進し、異なる関係者の間で共通の理解を得ることにつながる。最終的には、生成的AIアプリケーションのための強力な、標準、ガイドライン、規制の確立を促進することになる。
04 調整と参加を奨励する
官民の関係者は、AIシステムが真に連携するためには、多様でユーザーを代表する質の高いフィードバックが必要であることを認識すべきである。政策立案者は、人間の価値観との整合性を確保するために、非技術的な利害関係者を含む多様な利害関係者のAI研究・開発への関与を促進すべきである。AI開発者は、より包括的で人間中心の開発プロセスを構築するために、幅広い参加者からの交流やフィードバックを促進するよう取り組むべきである。
05 新しい指標と基準を模索しながら、厳密なベンチマークとユースケースに特化したテストによってAIの説明責任を強化する。
AI開発者は、確立された最高のベンチマークに対してモデルの説明責任を果たすだけでなく、従来の指標を超え、他の人間中心の次元に向けた新しい指標を見出すことの重要性にコミットすべきである。ベンチマークは、生成的AIモデルの包括的な評価を確実にするために、アプリケーション固有のテストやタスク定義のテストで補完されるべきである。
06 多様なレッドチームを採用する
レッドチームとは、潜在的な弱点、脆弱性、改善のための領域を特定するために視点を批判的に分析する手法であり、モデルの設計からアプリケーション、リリースまで不可欠であるべきである。ここでいう多様性とは、より包括的な批評を行うために、様々な性別、背景、経験、視点を持つメンバーを取り入れることを意味する。官民ともに、徹底したレッドチーム化を促進するための枠組みや方法論を導入する必要がある。
>
世界経済フォーラムは、パラグラフの論理で説明しています。
どのAIに問題があるかは、メンタルモデルができなければ、検討できません。
そのためには、最初に議論すべき内容は、メンタルモデルを構築するためのPRISMフレームワーク(あるいは、Presidio フレームワーク)になります。
メタは、Frontier AI フレームワークを問題にしていました。
パラグラフの論理では、フレームワークなしに、法律を作ることはできません。
「人工知能関連技術の研究開発及び活用の推進に関する法律」は、法治主義で、法の支配を逸脱しています。
この法律には、科学のメンタルモデルがないので、コミュニケーションはできません。
この法律の目的は、法度体制の維持にあると思われます。
つまり、法度体制の脅威となるAIを封印することが、法律の主たる目的であると思われます。
太平洋戦争になぞらえれば、科学技術、特に、AI技術は、制空権と制海権を失っています。
日本の科学技術が使われている地域と場面(制空権と制海権)は、急速に縮小しています。
大阪万博は、その事実を描きだしています。
23-4)プリ・ポスト・プロセッサ
Deepseekに、天安門事件のことを聞いても答えません。
これは、Deepseekが、天安門事件のデータを学習していないことを意味しません。
Deepseekが、蒸留を使っていれば、天安門事件のデータの学習結果が含まれています。
Deepseekが、天安門事件のことにこたえない理由は、プリ・プロセッサで、禁止された単語をチェックしているためと思われます。
NHKの国際放送は、Google翻訳の使用を中止しました。その理由は、中国語翻訳で、尖閣諸島の翻訳が、非公式な名称になったためです。しかし、この問題は、Google翻訳に、ポスト・プロセッサを通せば、良いだけです。
日本経済新聞は、「AI開発向け学習データの品質管理について、学習内容が偏り、差別的な出力につながらないよう基準を設ける」といいます。
しかし、AIでは、学習に膨大なリソースを使います。再学習は、容易ではありません。学習データの品質管理には、フィルター設計が必要になります。ベイズフィルターが使える場合を除いては、品質管理は現実にはできないと思います。学習データの品質管理をしているAIはないと思います。差別的な出力は、ポスト・プロセッサを通して、はねているはずです。
この法律をまじめにまもれば、日本のAIは死んでしまいます。
もっとも、法度体制を維持することが、この法律の目的であると考えれば、目的は達成されたことになります。
AIが進めば進むほど、法度体制が強化されていくと思われます。