技術情報コラムColumn

ChatGPTを代表としたAIの進化とリスクについて

技術解説

業務の生産性向上につながるChatGPTを代表とする「生成AI」を導入する企業が増えています。PCテクノロジーでも利用している方が増えてきているのではないでしょうか。

今回はChatGPTを利用する上で潜むリスクについて考えてみたいと思います。

 

サイバーセキュリティ企業の米BlackBerryが2023年8月に発表した調査結果によると、「ChatGPT」な生成AIサービスの禁止をしているもしくは禁止を検討している企業割合は世界全体で75%に達しているという記事があります。

 

なぜかというと、「ChatGPT」を活用すると外部に情報を発信しているということになるからです。

極端な言い方をすると、社内外の取引などの機密情報やプライバシーに関する情報を提供していると同等と考えられるという事です。

これを認識せずに、生成AIなどを活用する側(企業内で言えば従業員)が利用していたとするとどうなるか。

企業として、活用を推進もしくは推奨するのであれば、社内規則などで活用の規定を明確に定めなければ、重大なコンプライアンスの問題や個人情報の流出、法令の違反というリスクが生じます。

また、成果物の所有権が誰に帰属するのかといった著作権の問題も考えられます。

 

眼の前の業務の質の向上や効率だけを求め、リスクに関する知識やモラル、社内規定がない状態で活用をした場合、企業の根幹を揺るがしかねない事件に発展するかもしれません。

 

様々なAI記述の発展は情報社会において、偉大な進化である一方で、それを活用する企業と人間の進化も必要であり、目覚ましく変化する現代に潜むリスクが何かを常に問いながら、執務することが大切であると言えるでしょう。