(日本には言霊が、跋扈しています)
1)言霊のマシュマロテスト
言葉は、数式のYのような記号(オブジェクト)に過ぎません。
オブジェクトYのインスタンスが何かは、人間が決めるルールです。
数式で「Y<=1」は、オブジェクトYのインスタンスは、1に設定するという意味です。
推論は、オブジェクトで行いますが、リアルワールドで、問題になるのは、オブジェクトではなく、インスタンスです。
生活困窮者への対策はオブジェクトですが、配布する現金は、インスタンスです。
推論は、つねに、インスタンスが何なのかをチェックしながら行なわないと、空論になります。
これは、科学的な推論の基本です。
科学的な推論以外に、形而上学の推論があります。
これは、インスタンスを問題にしない推論で、言霊(ことだま)と呼ばれる推論です。
角川武蔵野ミュージアムには、人魚のミイラが展示してありました。
もちろん、展示物は、人魚のミイラではありません。
ここには、人魚のミイラという魅力的な言葉(オブジェクト)がありますが、展示されているインスタンスは、つまらないものです。
人魚のミイラを面白く感じる人は、インスタンスより、オブジェクト重視で、言霊に左右されやすい傾向があります。
人魚のミイラをつまらなく感じる人は、オブジェクトより、インスタンス重視で、科学的なリテラシーが高い傾向があります。
多くの人は、「インスタンスは、つまらない」とは、感じないと思います。
しかし、科学では、人魚のミイラは、新種発見として、評価されることはありません。
人魚のミイラには、生物学的な価値はありません。
もちろん、人魚伝説の文学研究のように、言霊の研究をする人もいます。
文学研究は科学ではありません。
しかし、言霊は、リアルワールドではないので、科学ではありません。
データサイエンスは、情報を扱います。「人魚のミイラ」という単語は、データサイエンスの扱う情報の一部です。ここでは、「人魚のミイラ」という情報の有無によって、角川武蔵野ミュージアムの入場者数がどのように変化するかといったリアルワールドの変化が問題にされます。この場合、オブジェクトは、「人魚のミイラを見に来る人」で、インスタンスは、人数になります。データサイエンスで、「人魚のミイラ」という情報を扱う人が、人魚伝説に対する共感や、「人魚のミイラ」の生物学的特性に関心がある訳ではありません。
つまり、人魚のミイラは、言霊に対するマシュマロテストになっています。
2)言霊の氾濫
岸田政権の「新しい資本主義」、「こども家庭庁」、「デジタル庁」は全て、オブジェクト(言葉)が、インスタンス(言葉に示す中身)に先行しており、言霊です。
政府は2024年4月に、生成AI(人工知能)の開発に伴うリスクについて研究する拠点を新設する方針です。計画案では、文部科学省が所管する国立情報学研究所(東京都)内に専門の組織を設ける。同研究所長をトップとする約20人で構成し、外部から生成AIの基盤技術となる大規模言語モデル(LLM)の第一線の研究者らを公募で集める計画です。
<< 引用文献
ブラックボックスの生成AIリスク、政府が研究拠点…文章や画像を作り出す仕組み解明 2023/12/30 読売新聞
https://www.yomiuri.co.jp/politics/20231230-OYT1T50000/
>>
生成AIのリスク研究拠点も、言霊です。
Newyork Timesは、次のように報道しています。(筆者要約)
<
2021年4月、人工知能(AI)を規制するために作成された125ページに及ぶ法律案を提出したヨーロッパ連合(EU)の首脳たちは、それがAI規制の世界的モデルになると自賛した。
ヨーロッパ議会の議員たちは、他国ではAIが議題にすら上らなかった頃から、3年にわたって何千人という専門家の見解を聴取しました。その結果、「将来も時代遅れになることのない」「画期的な」政策が生まれたと、27カ国から成るEUでデジタル政策を統括するマルグレーテ・ベステアー氏は断言しました。
その後、ChatGPTが登場しました。
EUの法案ではChatGPTを動作させている種類のAIに対する言及がなく、政策議論の主要な焦点とはなっていませんでした。
EUの議員たちは今なお、何をすべきかをめぐって議論を続けており、AI規制法案は危機に瀕しています。
EU、アメリカ、その他の国々の議員や規制当局は、AIを規制する戦いに敗れつつある。
アメリカの議員たちは、AIの仕組みをほとんど理解していないことを大っぴらに認めています。
各国の対応がバラバラなものとなっているのは、当局と技術の間に根本的な差があるためです。AIシステムがあまりに急速かつ予測不能に進歩しているため、議員や規制当局がそのペースに追いつけていません。
両者のギャップは、AIに関する政府の知識不足、複雑に入り組んだ官僚制度、さらに規制が多くなりすぎるとAIがもたらすメリットを不用意に制限することになりかねないという懸念によって、一段と深刻化しています。
AUシステムの開発者ですら、誰一人として、何ができるようになるのかわかっていません。
>
<< 引用文献
EUがどんなに張り切ってもAI規制の「無理筋」 2023/12/22 東洋経済 Newyork Times Adam Satariano記者、Cecilia Kang記者
https://toyokeizai.net/articles/-/722562
>>
AI規制の法律のオブジェクトをつくることはできます。しかし、その法律の対象となるインスタンスは、ChatGPTのように、法律作成時にはありません。
何を対象にしているのかわからない法律を作っても、どうにもなりません。
ですから、AI規制の法律は、言霊にすぎません。
もちろん、鎖国のように、全面的に情報遮断はできます。しかし、その代償は非常に大きなものです。
<
岸田文雄首相は2023年10月1日、京都市で行われた国際会議の席上、「信頼できるAIの実現に向け、日本が主導して国際ルール作りを進めている」と述べたそうです。
「日本が主導して国際ルール作りを進められるか」について、疑問があります。
1つ目は、過去に法律の枠組みに縛られて最先端のビジネスチャンスを、ことごとく潰してきた日本の負の歴史を克服できるのかという問題です。例えば、2008年の著作権法改正までは、ネット上のデータをキャッシュに取り込むことだけでも著作権の侵害、すなわち違法行為だという法解釈から、日本では「検索エンジン」が非合法化されていました。問題に気づいて法改正をしたときには、すでに外資が膨大な投資を進めていて、日本勢が参入する可能性は消えていたのです。
>
<< 引用文献
日本がAI規制を主導? 岸田構想への4つの疑問 2023/10/04 Newsweek 冷泉彰彦
https://www.newsweekjapan.jp/reizei/2023/10/ai4.php
>>
言霊に、税金を投入しても、効果はありません。
瀧口範子氏は、Open AIについて、次のように書いています。(筆者要約)
<
2015年の創設当初は10人に満たなかったOpen AIの社員数は、2018年に50数人、2022年には330人以上、2023年には770人になっています。
2019年にはOpen AIは、大規模言語モデル(LLM)によるAI開発のために優れたAI研究者、開発者を集める必要があるという理由で営利化し、Open AIというNPOの傘下に営利部門を設け、マイクロソフトから10億ドルの資金注入を受けています。社員は他のスタートアップと同様に未公開株を得ている。同社が成功裡のうちにイグジットを果たせば、社員はミリオネア、ビリオネアになるという筋書きです。
>
<< 引用文献
OpenAI騒動が示す「人類がAIと戦っている」現実 2023/12/21 東洋経済 瀧口 範子
https://toyokeizai.net/articles/-/722992
>>
評価には、評価する人(グループ)と、評価される人(グループ)があります。
評価が成立する条件は、評価する人は、評価される人より、賢いことです。
これは、教師と学生の関係を見ればわかります。
教師は、学生の学習到達度を評価できますが、逆はできません。
最近はやりの、学生による教師評価は、勤務態度程度の評価であり、学生が理解できない学習の内容の習熟度とは関係がありません。
生成AIのリスク研究拠点は、同研究所長をトップとする約20人で構成します。
Open AIは、2023年には、770人で構成され、ストックオプションで、成功裡のうちにイグジットできれば、ミリオネア、ビリオネアになる夢をねらった猛者ぞろいです。
生成AIのリスク研究拠点が失敗することは、最初から確約されています。
国立情報学研究所が、言霊を信じているとは、思いたくはありませんが、現状では、その疑惑を払えません。
国立情報学研究所は、年功型雇用なので、ジョブ型雇用とは、勝負にならないと考えている可能性もあります。