対話をして答えを出すチャット型というAIのChatGPTというものが大きな話題となっています。
リスク学者永井孝志さんのブログでもそれを使って巷にあふれるフェイクニュースの「デマ度」が判定できないかということを試していました。
ネットに出回るフェイクニュース、どれもが本当のように装っていますが、それを効果的に判別するということは難しいようです。
それを何とかAIを用いて見分ける手助けにできないか。
そういった観点から試してみたそうです。
これまでも情報処理学会で判定する方法の検討はされてきたそうですが、それもやはり人力を使うものであり限界があったということですが、AI化することで能力が上がるのかどうか。
明らかなデマである「コオロギ食についての記事」と真実度が高い?厚労省の発表を試してみると、一応コオロギ食の方はデマ度5(最大)で厚労省の方はデマ度1(最小)とはなりました。
中間的な例、自分では判定できない例などは難しい場合もあるのでしょうが、ある程度の効果は期待できそうです。
そこでハタと気づいたのが、私がここで頻繁に書いている、脱エネルギー社会構築やらSDGsの疑問やら、再生エネルギーのうさん臭さといったものは、これで判定するとデマ度がかなり高くなるのでは。
ChatGPTの判定の基礎もネット上の世論の多数決のようなものでしょうから、圧倒的に数では負けます。
まあ、だからどうだということでもなく、ひるむことなく批判は続けますが。