リスクについて大変参考にさせて頂いている永井孝志さんのブログで、chatDPIなどの大規模言語モデルや画像生成AIのリスクについて触れていました。
nagaitakashi.netこれらのAIは急激に利用者が拡大している一方、各国でその制限が言われ実際にストップが掛けられているところもあります。
また積極的に利用しようというニュースも数々出ておりこれに対する姿勢は多種多様ということでしょう。
政府のAI戦略会議でも5月26日に暫定的な論点整理として発表しています。
そこではこれらのAIを使用することのリスクと共に、「使用しないでいる」ことのリスクにも触れています。
AI戦略会議(第2回) - 総合科学技術・イノベーション会議 - 内閣府
この中で、AIのリスクとしては次の7点にまとめられています。
① 機密情報の漏洩や個人情報の不適正な利益のリスク
② 犯罪の巧妙化・容易化につながるリスク
③ 偽情報等が社会を不安定化・混乱させるリスク
④ サイバー攻撃が巧妙化するリスク
⑤ 教育現場における生成 AI の扱い
⑥ 著作権侵害のリスク
⑦ AI によって失業者が増えるリスク
永井さんの意見としてまとめられているのは、上記のまとめとも似ていますが、特に
chatGPTのような大規模言語モデルについては、出力が正しいかどうかを判断できないと活用のリスクが高まり、活用できる人とそうでない人の生産性の格差は広がっていくことになるでしょう。画像生成AIについては著作権侵害しやすいというリスクがあるツールであるため、活用には事前のチェックが必須となります。
ということで、chatDPIなどでは出力が正しいかどうか判断できない人の利用は危険、画像生成AIでは著作権侵害しやすい。ということを重要視しています。
私も使ってみようと思いつつもなかなか取り掛かることができずそのままにしていますが、どうでしょう。
出力が正しいかどうか分からないというのも、分からないから使ってるのじゃないかとも思いますし。
著作権侵害についても、ネット化によってその性格が大きく変わってきており、それがAI化によって急激に加速化、拡大したということでしょう。
これまであやふやにしていたことが一気に大きな問題化した。
取り締まる法制化の体制が立ち遅れると言われていますが、この辺できっちりと考えなければならないということでしょう。