(21)チャットGPTは間違っているのか
(Q:、チャットGPTの発言は間違っていると思いますか)
1)間違いが問題か
チャットGPTなどの生成AIは間違った文章を作ります。
そして、現在は、間違った文章を作ることが問題であるという指摘が多く見られます。
簡単に言えば、生成AIは、平気で嘘をつくといったイメージです。
こうしたチャットGPTの利用報告を読むと、「チャットGPTは倫理的な問題は、解けない」、「チャットGPTはお馬鹿だ」と思うかもしれません。
2)The fixation of belief
ここで、パースのThe fixation of beliefを思いだしてください。
パースは、科学的な検証手順を経なければ、正しい意見(belief)集約は、ないと主張しました。
パックンは、チャットGPT(ChatGPT)に「パックンは誰ですか?」と聞いて、チャットGPTの「藤森慎吾とともに『レイザーラモン』というコンビを組んでいる人」という答えが間違っているといいます。
つまり、ここには、チャットGPTが、意見(belief)を出して、検証されるという2つのステップがあります。
「パックンは誰ですか?」という問に対する答えを、パックン自身が検証することは容易です。
しかし、実際には、検証が容易でない意見(belief)の方が多いはずです。
何を言いたいかと言えば、ユーザーは、チャットGPTが正しい文章を作らないことが問題であるといいますが、開発しているエンジニアは、チャットGPTが正しい文章を作らないことは問題ではないと考えているだろうということです。
パースのThe fixation of beliefは、人間は自分の考えていること(意見、belief)が正しいという思い込むバイアスを持っているといいます。なぜなら、その根拠が権威や前例にある場合には、意見(belief)が正しいとは科学的には言えないからです。
「パックンは誰ですか?」という問に対する答えを、パックン自身が検証することは、科学的に可能です。
しかし、科学的に検証できない意見(belief)は、要検証のマークついた仮説に留まります。
したがって、チャットGPTが正しい文章を作らないことは問題ではありません。
3)A:チャットGPTの発言は間違っているか
筆者は、今後、チャットGPTには、The fixation of beliefのような、別の意見集約AI(AI of the fixation of belief)が併設されると思います。
チャットGPTを開発しているエンジニアは、2つのシステムは分割すべきだと考えていると思います。
意見集約AI(AI of the fixation of belief)は、次のようなイメージです。
(1)単語フィルタ―
放送禁止用語のような、単語レベルで、フィルタ―をかけます。
(2)権威主義
権威者と言われる人の意見とマッチさせるフィルタ―をかけます。
(3)前例主義
問題がないと判断される前例とマッチするフィルタ―をかけます。
(4)科学的検証
科学的なエビデンスに基づく検証をします。
この場合には、データがなく、未だ検証できない意見(belief)、バイアスのあるデータではあるが、一応検証できた意見(belief)、ランダム化試験で検証できた意見(belief)のように、意見(belief)に、検証の確からしさのレベル値が付与されるはずです。
現在の日本の社会では、The fixation of beliefの科学的検証は、使われておらず、権威主義や、前例主義が、はびこっています。
チャットGPTを人文的文化の権威主義の人に使ってもらうには、問答を通して、ユーザーが権威主義であることを判別して、「(2)権威主義」のフィルタ―をかければ、ユーザーに満足してもらえます。
チャットGPTを科学的文化の検証主義の人使ってもらうには、問答を通して、ユーザーが科学的文化であることを判別して、「(4)科学的検証」のフィルタ―をかければ、ユーザーに満足してもらえます。
今後、意見集約AI(AI of the fixation of belief)が併設された時点で、バイナリーバイアスのないチャットGPTの正誤判定(意見集約)は容易に人間を越えてしまいます。
さらに、チャットGPTは、科学的には、間違っていることがわかっていても、検証主義の人に合わせた満足度の高い意見を提出する芸当もこなすと思われます。
つまり、問題は、「チャットGPTの発言は間違っているか」ではなく、ユーザーの科学的文化の欠如にあると言えます。
引用文献
チャットGPTが反社の手下になったら、どうする? 2023/03/11 Newsweek パックン
https://www.newsweekjapan.jp/pakkun/2023/03/gpt.php