ヒントン先生の転向

1)生成AIの課題

 

新聞は、概ね次のように、報道しています。

 

4月に閉幕した主要7カ国(G7)デジタル・技術相会合では、「責任あるAI」の推進を共同声明に明記した。個人情報の保護や偽情報に対処するルール作りが必要との認識で一致した。

 

しかし、例によって、新聞報道の狙いは、恐怖心を煽って、DXの進展を阻止することにあります。「変わらない日本」と言いながら、変化に対する恐怖心を煽って、現状維持を図る目的があり、記事は正確ではありません。

 

「誤情報拡散や情報漏洩が課題」には、なっていないと思います。特に、「情報漏洩」は、生成AIとは関係のない情報管理の課題です。

 

マイナンバーカードのように、情報のセキュリティ管理が出来ていなければ、生成AIとは関係なく、「情報漏洩」が起こります。

 

また、「対処するルール作り」は、手段である必要はなく、目標で十分です。

 

マイナンバーカードの誤登録を回避する手段を記載することは容易ではありませんので、許容されるエラー率の目標を記載する方が現実的です。

 

その場合には、性能評価をする方法を明記する必要があります。

 

2)ヒントン氏の退職

 

人工知能(AI)研究の第一人者、あるいはAIのゴッドファーザーとも呼ばれるジェフリー・ヒントン氏が米グーグルを退職したと、米ニューヨーク・タイムズや米CNBCなどが報じました。ニューヨーク・タイムズとのインタビューで、急速に普及するAIとその開発競争に警鐘を鳴らしたといいます。

 

ヒントン氏は、75歳のコンピューター科学者で、2022年に共著で、7本の論文を書いています。MATLABのコードもご自分で書いています。このコードは、弟子が、Pythonに移植していますので、ヒントン氏は、普段は、Pythonは使っていないと思われます。

 

2-1)Will Douglas Heaven氏の記事

 

Will Douglas Heaven氏が、MIT Technology Reviewに、ヒントン氏と、4月27日に行ったインタビューを記事にしています。期間限定の公開記事です。

 

以下、要点を箇条書きにしてみました。

 

 

(S1)言語を使う記号的推論は、生物学的知能の中核ではない。これが、ニューラルネットワークが有効になる理由です。

 

(筆者注:人文科学は、生物学的知能の中核ではありません)

 

(S2)ヒントン氏は40年間、生物の仕組みを模倣した人工ニューラル・ネットワークは、本物の神経回路に及ばないと考えてきましたが、最近、逆転が起こったと考えています。

 

(S3)大規模言語モデルが多くのことをでっち上げる「幻覚(hallucinations)」あるいは「作話(confabulations)」は、人間の記憶の特徴で、モデルは、人間と同じことをしています。作話は、単なる練習不足で問題ではありません。問題は、ほとんどの人が人間の仕組みについて絶望的に間違った見方をしていることです。

 

(S4)ニューラル・ネットワークが動物の脳に勝る学習能力を発揮する第1の可能性は、エネルギー源を使った学習がなされる場合です。

 

(S5)ニューラル・ネットワークが動物の脳に勝る学習能力を発揮する第2の可能性は、コミュニケーションを取れることです。例えば、それぞれが独自の経験を持っている1万個のニューラル・ネットワークは、どのニューラル・ネットワークが学んだことも即座に共有できます。

 

(筆者注:これは、人間を教育するより、ニューラル・ネットワークを教育する方が効率的なことを意味します。)

 

(S6)ヒントン氏は、世界には動物の脳とニューラル・ネットワークの2種類の知能があり、後者が、より優れた知能の形だと考えています。



(S7)今後人間よりも知能の高いツールが登場するでしょう。これについては、ヒントン氏は、突如、自分の見解を切り替えたといいいます。

 

(S8)生成AIは、次のステップで、タスクを実行するために必要な中間ステップのサブゴールを自分で作れるようになります。内容の第1は、エネルギーを求めること、第2は、自分のコピーを増やすことです。

 

(S9) マイクロマネジメント(管理者である上司が部下に対して強い監視や管理をするマネジメント)は有効ではありません。プーチンウクライナ人を殺す目的で超知能ロボットを作るかもしれませんが、マイクロマネジメントでは阻止できません。

 

(S10)何がリスクで、それに対してどうすればいいのかについて、一致団結した合意が望ましいと思います。

 

2-2)ウィキペディア

 

英語版のウィキペディアのヒントン氏の項目にも、ヒントン氏の「人工知能のリスク」の解説があったので、引用しておきます。

 

 

人工知能のリスク

 

参照: AI の安全性

 

2023 年、ヒントン氏は急速な AI の急速な進歩について懸念を表明した。ヒントン氏は以前、汎用人工知能(AGI; artificial general intelligence) が「30 から 50 年、あるいはそれ以上先」になると考えていた。しかし、CBSとの2023年3月のインタビューで、彼は「汎用AI」が実現するのは20年もかからないかもしれず、「産業革命や電気に匹敵する規模」の変化をもたらす可能性があると述べた。

 

2023年5月1日に掲載されたニューヨーク・タイムズ紙とのインタビューで、ヒントンは「AIがGoogleにどのような影響を与えるかを考慮せずにAIの危険性について話す」ため、Googleからの辞任を発表した。彼は自身の懸念により「自分の心の一部が今、自分の生涯の仕事を後悔している」と述べ、GoogleMicrosoftの間の競争について懸念を表明した。

 

2023 年 5 月初旬、ヒントン氏は BBC とのインタビューで、AI が間もなく人間の脳の情報容量を超える可能性があると明らかにしました。同氏は、これらのチャットボットによってもたらされるリスクの一部を「非常に恐ろしい」ものだと述べた。ヒントン氏は、チャットボットには独立して学習し、知識を共有する能力があると説明した。これは、1 つのコピーが新しい情報を取得すると、その情報が自動的にグループ全体に広められることを意味します。これにより、AI チャットボットは個人の能力をはるかに超えた知識を蓄積できるようになります。

 

汎用人工知能(AGI )による実存的リスク

ヒントン氏はAIの乗っ取りについて懸念を表明し、AIが「人類を絶滅させる」可能性は「考えられないわけではない」と述べた。ヒントン氏は、インテリジェントな主体性を備えた AI システムは軍事または経済目的に役立つだろうと述べています。彼は、一般にインテリジェントな AI システムがプログラマーの利益と一致しない「サブ目標を作成」する可能性があると懸念しています。彼は、AI システムが電力を求めるようになったり、AI システム自体が遮断されなくなる可能性があるのは、プログラマーが意図したからではなく、それらの下位目標が後の目標を達成するのに役立つためであると述べています。特に、自己改善可能な AI システムを「どのように制御するかについて真剣に考えなければならない」とヒントン氏は述べています。

 

壊滅的な誤用

ヒントン氏は、悪意のある者による AI の意図的な悪用を懸念しており、「悪意のある者が [AI] を悪いことに使用するのをどのように防ぐことができるのか理解するのは難しい」と述べています。 2017年、ヒントン氏は自律型致死兵器の国際的な禁止を求めました。



経済的影響

 

ヒントン氏は以前、AIの経済効果について楽観的であり、2018年には次のように指摘していた:「『汎用人工知能』という言葉には、この種の単体ロボットが突然あなたよりも賢くなるという意味合いが含まれています」。しかし、私は、そうはならないと思います。

 

 私は、 私たちが行っている日常的なことの多くは、AI システムに置き換えられると思います。

 

ヒントン氏は以前、AGI によって人間が不要になることはないと次のように、主張しました。「[将来の AI は]おそらくユーザーがやりたいことについて多くのことを知るようになるでしょう...しかし、AI が人間に取って代わることはありません」

 

しかし、2023 年になると、ヒントン氏は「AI テクノロジーがいずれ雇用市場を一変させ、単なる『単調な仕事』以上のものを奪うことになるのではないかと懸念」するようになりました。

 

政治

ヒントン氏は、ロナルド・レーガン時代の政治への幻滅と、人工知能への軍事資金提供への不承認を一因として、米国からカナダに移住しています。



 

以上です。

 

 

生成AI(Generative A)だけはなく、汎用人工知能(AGI; artificial general intelligence)が問題になっています。

 

2023年5月9日に、岸田総理は、政府の司令塔であるAI戦略会議設置を表明しています。 

 

しかし、7割は大臣なので、形而上学になると思われます。

 

2012年9月に行われた画像認識の世界大会「ImageNet(イメージネット)」で、ヒントン氏とアレックス・クリジェフスキー氏とイリヤ・サツキーバー氏のトロント大学の研究チームがトップになってから、AIブームになります。2012年を奇跡の年と呼ぶ人もいます。

 

イリヤ・サツキーバーは、囲碁でプロを叩きのめした「AlphaGo」の開発に携わり、その後はイーロン・マスクらと共にOpenAIを創業しています。

 

ヒントン氏も見解を変えたように、3年後に何が起こるかは、予測不可能です。




おまけ

 

4月28日に、画像生成AI「Bing Image Creator」が日本語対応したようです。



引用文献

 

Geoffrey E. Hinton

https://www.cs.toronto.edu/~hinton/

 

生成AIに警鐘、AIのゴッドファーザーGoogle退社

https://jbpress.ismedia.jp/articles/-/75050

 

ジェフリー・ヒントン独白 「深層学習の父」はなぜ、AIを恐れているのか?2023/05/08  MIT Technology Review Will Douglas Heaven

https://www.technologyreview.jp/s/306240/geoffrey-hinton-tells-us-why-hes-now-scared-of-the-tech-he-helped-build/