AIの活用へ向けたルール整備状況
◆目次
「ChatGPT」などの生成AIはデジタル化の切り札と言われています。
しかし、著作権侵害や法律違反を引き起こす恐れもあり、安心して利用するには今後のルール整備が重要になってきます。
生成AIを活用する組織に向け「生成AIの利用ガイドライン ver1.0」の公開が始まり、これをひな型に企業・自治体などが自社ガイドラインをスムーズに策定できるよう「生成AIの導入時のポイントや著作権、プライバシー保護、倫理」に関する注意点が盛り込まれています。
組織は生成AIを利用する際には、何を確認してどのような点に気を付けなければならないのか解説します。
AI活用とガイドライン策定
2022年のChatGPT公開以降、2023年に発表された論文は米国の約80%の労働者のタスクの10%が生成AI等による影響を受けると述べ、ChatGPTを活用してデジタル化を進める企業も現れさまざまな事業で活用が進んでいくことが期待できます。
こうした動きに連動してルール整備も活発化。日本を含む各国の教育、研究機関が生成AIと向き合う方針を打ち出し、主要7カ国デジタル技術相会合や広島サミットでも生成AIのリスクについて議題に上がっていました。
AIに関する議論が進み、識者はデジタル戦略の切り札として生成AIの利用を積極的に進める必要があるが、そのためにも利用する各組織が「著作権や個人情報保護の問題」を意識して業務に生成AIをどう活用するかルールを定めるべきと力説しています。
JDLAが公表している「生成AIの利用ガイドライン ver1.0」をひな型に、企業・組織は効率的に独自ガイドラインを策定でき、各組織からフィードバックやベストプラクティスが集まり、日本における生成AI利用がさらに促進されることが期待されています。
「入力リスク」と「生成物利用時のリスク」
生成AIガイドラインは、AI利用者が法令に違反しないことを指針に策定、その基本ラインに沿って各企業が自社でどう生成AIを活用すべきかを議論し、ルールを肉付けています。
骨子は「生成AIにデータを入力する際に注意すべき事項(入力リスク)」と「AIによる生成物を利用する際に注意すべき事項(生成物のリスク)」の2つ。
「入力リスク」ではガイドラインとして『他人の著作物や文章、絵、コードといったデータ』を入力する際の注意点と法的リスクが記され、第三者が著作権を有するデータやロゴやデザインといった登録商標、意匠を生成AIに入力しても著作権や商標権侵害、意匠権侵害に原則該当しませんが、顧客個人情報や秘密保持契約(NDA)を結んでいながら開示・入力された機密情報などは個人情報保護法やNDAに違反する可能性があり重大なリスクを孕むとしています。
「出力した生成物を利用するリスク」では生成物利用が『誰かの知財や著作権を侵害する可能性がある』場合を想定、出力生成物が既存の著作物と同一または類似していたら著作権侵害に当たる可能性があり、既存著作物や作家・作品の名称を入力する際は注意が必要。生成AIで作成したキャッチコピーや商品ロゴ利用では登録商標権や意匠権を侵害する恐れがあります。
AI利用ルールの今後
生成AI利用におけるルール作りは、組織レベルにとどまらず法制度の枠組みを変えつつあり、裁判結果を積み重ねる司法手続きも関与します。メリットデメリットやヨーロッパ・米国におけるAI技術の潮流を踏まえ、どちらにも重心が偏らないバランスを取ったルール作りの必要性があり今後進んでいくことは間違いありません。