2030年の衆議院選挙(SF)

2020年頃から、SNSが、フェイクニュースを拡散することが問題になった。対策には、最初は、マイクロソフトが、独占ライセンスを取得した自然言語処理のAIモデル「GPT-3」がよく、使われた。その後、競合企業も、類似のアプリケーションを開発した。

これらの第1世代の言語処理モデルは、ニュースに使われているキーワードの種類、キーワードの頻度、キーワードの組合せに注目して診断を行う。

しかし、この手法は、現実のリアルの世界で、何が起こっているのかに関係なく、判別モデルを作成している。

実は、正確に言えば、機械学習するデータは、フェイクニュースとフェイクでないニュースに識別されたデータセットを作成して学習させている。

問題は、機械学習用のデータの作成である。フェイクとは、ファクトに対応していない、文章をさす。しかし、この定義には、問題がある。

1)照合用のファクトのデータセットの作成問題

ファクトのデータセット(正しいニュース記事)があれば、単語の判別ではなく、ニュースの命題の正否が判断できる。間違った命題は、当然、フェイクになる。

過去の実績(ファクトのデータセット)は、評価の基準である。経済成長を公約にあげても、過去の実績が伴わない場合には、それは、フェイク公約の可能性が高いと判別される。

2)将来の予測文章に対する評価

フェイクニュースは、過去のニュースに対する評価である。将来起こること、例えば、明日、富士山が噴火して、日本沈没になるという命題はニュースではないが、天気予報と同じように、信頼性の確率評価はできる。

この将来の予測の対する評価は、カルト対策では、不可欠である。

3)芝麻信用のように、発言者を評価する方法もある。つまり、

ニュース(発言者、命題)のセットである。

このデータとリンクすることで、判別関数の精度を上げることができる。

 

これらの問題に対応した第2世代の自然言語処理のAIモデル開発が、2025年頃に進んで、2030年には、各党の公約に、信頼度評価スコア、実現可能性スコアがつけられるようになった。

例) A党、消費税を5%にする。発言の信頼度 XA%。実現可能性 YA%。

   B党。最低賃金を引きあげる。発言の信頼度 XB%。実現可能性 YB%。

政見放送をテレビで流すときには、各発言に対応した信頼度、実現可能性が、字幕で表示されるようになった。

有権者は、フェイク公約ではない確率を参考に、投票するようになった。

 

前の記事

「自然言語処理(NLP)」と衆議院選挙の政見放送 2021/10/29

次の記事

水素自動車のリスクを考える 2021/10/31