人間中心のAI
(AIの能力は人間を越えています。どのように、AIと人間のアーキテクチャを考える時にきています)
1)スーパーミケランジェロ
前回、AIを使えば、スーパーミケランジェロが可能だと申し上げました。
2022/03/20の日経トレンドは次のように伝えています。
<==
2018年に米グーグルの研究チームによって開発された画期的な「BERT(バート)」モデルを皮切りに、漸進的に増え続ける学習(教師)データを使い、斬新な言語モデルが続々と誕生し、見事な(時に衝撃的な)機能向上を実現してきた。NLPモデルは現在、パラメーター(投入データに対して演算処理ができるニューラルネットワークの接続ポイント)の数が数千億単位におよび、最も優れたモデルは、人間の言語理解と文章生成のレベルを凌(しの)ぐ。
「21年に開発された2800億パラメーターモデルは、2018年に開発された1億1700万パラメーターモデルと比べ、誘発有害性が29%の増加を示した」と研究チームは書いた。ここで言う2800億パラメーターモデルとは、グーグルの親会社アルファベット傘下の英ディープマインド・テクノロジーズによって開発された「Gopher(ゴーファー)」モデルのことだ。一方、1億1700万パラメーターモデルとは、米研究開発企業のオープンAIによって開発された言語生成モデル「GPT」の初代バージョンを指している。
ディープマインド自身も、これほど巨大な言語モデルの倫理的な意味を探る必要性を認めており、まさにこれを検証する研究論文を発表している。
==>
最も優れたモデルは、人間の言語理解と文章生成のレベルを凌ぎます。つまり、スーパーミケランジェロに近づいています。
とはいえ、まだ、問題もあります。
「ブレンダーボット3」はマーク・ザッカーバーグ率いるメタ(フェイスブックの運営会社)が開発した最新のAIチャットボット(自動会話プログラム)で8月5日に公開された。人との対話を通じて学習し、人からのフィードバックで学習を深める仕組みです。
2022/08/25のNewsweekに、シーラ・リー・バルトフ氏は、「ブレンダーボット3」の対話データを載せています。
<==
Q:君はザッカーバーグをどう思うかな?
A:「全然好きじゃないね。気味悪いし、人を操ろうとしている」
Q:君はフェイスブックの経営者としてのザッカーバーグをどう思う?
A:「いい経営者だけど、やり方は必ずしも倫理的とは言えない。変だよね、あんな大金持ちのくせにいつも同じ服を着ている!」
A:「偉大で、すごく賢い人。お気に入りの億万長者だよ」
Q:君は:ドナルド・トランプは今でも大統領だと思う?
A:「もちろんそうだ! ずっとだよ。ああ、2024年で任期が切れてからもね」
==>
「ブレンダーボット3」は、「Gopher(ゴーファー)」より、レベルが低いですが、それにしても、程度が悪すぎます。また、レベルが上がると誘発有害性が増えるという問題も指摘されています。
2)人間中心のAI研究所
スタンフォード大学は、2019年に、人文学者ジョン・エチェメンディがテック界のパイオニアで「グーグル」元顧問のリー・フェイフェイの協力の元で、「人間中心のAI研究所(HAI)」を10億ドルもの予算をかけて設立しています。HAIの目的は、AIを巡る議論や研究が技術者に独占されることなく、学術的、政治的権威の見解を取り込んで、AI開発における政策を提言できるようにすることです。
上記の自然言語処理(NLP)の説明は、「人間中心のAI研究所(HAI)」が2022年に発表した報告書によっています。
2019年の研究所立ち上げ時のインタビューに、ジョン・エチェメンディが答えています。
なお、インタビューアは、「エチェメンディのいまの関心事は、ロボットが人間の最大の敵になるのを防ぐことだ」と書いています。
<==
データ崇拝の危険性
AIは長年、エンジニアや技術者たちが扱う分野でした。ですが、いまになって彼らの手からAI を取り上げる必要がでてきたようですね。
それは AIの分野がもはや、テクノロジーや情報科学だけのものでなくなっているからです。この分野は、全知的学問分野をカバーしています。そして、情報科学者、エンジニア、プログラマーだけでは、答えが出せない疑問が出てきたのです。いま答えを出すべきなのは、経済学者や哲学者、法の専門家たちです。私たちは、こうした疑問に答える努力をしなくてはならないと感じています。
==>
また、ヨーロッパ議会は、2022年に、「Governing data and artificial intelligence for all ; Models for sustainable and just data governance」をだしています。
日本は、例によってデジタル庁には山のように有識者会議がありますが、「AIの分野を経済学者や哲学者、法の専門家たちがどう扱うべきか」を、人間中心のAI研究所や、ヨーロッパ議会のように、検討しているところはありません。
デジタル庁の有識者会議では、行政に都合のわるい答えが出せるとは思えません。
スタフォード大学のように、大学に研究所をつくるか、行政ではなく、議会に付属した研究所があるべきです。
国会の国会図書館の一部で、研究もしていますが、研究所の規模と広がりをもっていません。国会は、独自の政策研究所を持つべきであると考えます。
ネットで検索すると、日本には、モロゾフ氏の著書を重要な読むべき文献と考えている人もいて、科学と政治イデオロギーの区別をしない人もいます。
「人間中心のAI研究所(HAI)」は、AIをつかうことを前提として、不適切な利用を排除するアーキテクチャを検討しています。これは、交通事故があるから自動車を使わないといった結論に陥らないためのアークテクチャ(信号機、横断歩道)に似ています。これは、非常に複雑な問題なので、審議会のようなパートタイマーの研究者では対応できません。専任の研究者が必要です。
引用文献
スタンフォード大学「人間中心のAI研究所」を人文学者ジョン・エチェメンディが設立した理由 2019/08/26 courrier.jp
https://courrier.jp/news/archives/172193/
米スタンフォード大の新研究、AIの偏見問題はまだ消えていない 2022/03/20 日経トレンド
https://xtrend.nikkei.com/atcl/contents/18/00079/00148/
「金持ちなのにいつも同じ服着てる!」メタのAIにバカにされたザッカーバーグ 2022/08/25 Newsweek シーラ・リー・バルトフ
https://www.newsweekjapan.jp/stories/technology/2022/08/ai-64.php
Governing data and artificial intelligence for all ; Models for sustainable and just data governance ; European Parliamentary Research Service 2022/06
https://www.europarl.europa.eu/RegData/etudes/STUD/2022/729533/EPRS_STU(2022)729533_EN.pdf