『ChatGPTの法律』(中央経済社、2023年)の執筆陣である弁護士が、企業の人事担当者が押さえておきたい「ChatGPT」にまつわる法的リスクやリスク回避策などについて、3回に分けて解説します。最終回の今回は、前回ご紹介した、人事担当者が押さえておくべきChat GPTを利用する際の法的リスクに対し、どのような回避策があり得るかについて、ご紹介させていただきます。

【参考】
※第1回目:今さら聞けない「ChatGPT」の意味と企業での具体的な活用事例を解説
※第2回目:人事が押さえておくべき「ChatGPT」を利用する際の法的リスクとは
「ChatGPT」の法的リスクに対して、人事はどのような回避策を講じるべきか

「Chat GPT」を利用する際の一般的な法的リスクの回避策

(1)「Chat GPT」に関する基本的な法的リスク

「Chat GPT」等の生成AIの利用においては、本記事で主に取り上げる個人情報保護法や著作権法に関する法的リスク以外にも、様々な法的リスクがあり得ます。また、会社がどのようにChat GPT等の生成AIを活用するかによって、その活用方法に応じた法的リスクの濃淡があり、回避策も様々なものが考えられます。もっとも、どのような方法でChat GPT等の生成AIを活用するとしても、まずは当該生成AIのサービスの利用規約やプライバシーポリシーを確認し、当該生成AIがどのように運用されているかを把握することがリスク回避策の検討の前提として重要になります。

以下、Chat GPTに指示を入力する場面とChat GPTから出力された生成物を利用する場面に分けて、代表的な法的リスクと回避策をご紹介します。

(2)「Chat GPT」に指示を入力する際に注意すべき法的リスクとその回避策

「Chat GPT」に指示を入力する場面で注意すべき法的リスクのうち、代表的なものは個人情報保護法に関する法的リスク等であることは前回の記事にてご紹介したとおりです。これについては、「具体的な法的リスクの回避策」においてご説明します。

上記の点以外の代表的な法的リスクとしては、Chat GPTに機密情報を入力した場合に、会社の内部規則や他社との契約に違反し、会社に損害が生じるという可能性があります。このリスクに対しては、会社が従業員に対し一切の機密情報の入力を禁止することが最も単純な回避策になりますが、会社によっては業務に関する情報の大部分が機密情報にあたるような場合もあり得ると思われます。そうすると、一切の機密情報の入力を禁止された場合、従業員は、実質的にほとんど全ての業務に関する情報を入力できず、Chat GPTを活用することが全くできないということにもなりかねません。そこで、機密情報の中からChat GPTへの入力が許される情報を特定する、又は、入力が許されない情報を特定するなどによって、機密情報の漏洩のリスクを一定程度回避しつつ、従業員がChat GPTを活用できる仕組み作りをすることが考えられます。

なお、個人情報、他社の機密情報、未公開の特許関連情報等は入力が許されない情報に区分すべき場合が多いと思われます。特に人事担当者は、従業員の個人情報を取り扱う場面が多く、これをChat GPTに入力し、資料作成等に役立てたいというニーズもあると思います。しかし、自らの会社のChat GPTの利用に関するルールが従業員の個人情報をChat GPTに入力することを許容しているかは十分に確認が必要です。

(3)「Chat GPT」による生成物の利用時に注意すべき法的リスクとその回避策

「Chat GPT」により出力された生成物を利用する場合に注意すべき法的リスクのうち、代表的なものは、第三者の著作権を侵害してしまうリスクであることは前回の記事にてご紹介したとおりです。これについては「具体的な法的リスクの回避策」においてご説明します。

上記の点以外の代表的な法的リスクとしては、Chat GPTの回答が不正確であったために不正確な情報を発信してしまうリスクがあります。このリスクに対しては、とても基本的なことではありますが、人の目によって内容を確認してから利用することが大事です。Chat GPTを頻繁に利用するようになると、Chat GPTの回答には不正確な内容が含まれ得るという前提をつい忘れてしまうことがあります。定期的な社内教育などを行い、常にこの点を意識してChat GPTを利用することが必要です。特に、生成物を社内で利用するだけにとどまらず、対外的にも発信する場合、生成物に不正確な内容が含まれていないかについては、より慎重な確認が必要です。

「Chat GPT」を利用する際の具体的な法的リスクの回避策

ここでは、特に重要な個人情報保護法と著作権法に関する法的リスクと回避策についてご紹介します。

●個人情報保護法に関する法的リスク

前回の記事においてご説明したとおり、個人情報保護法との関係では、(1)利用目的の特定等及びその目的の範囲を超える利用の制限、(2)第三者提供の制限に違反する法的リスク等があり、これらに対する回避策を取ることが必要です。

(1)について、個人データを取り扱う場合、その利用目的を「できる限り」特定しなければなりません。特定した利用目的を超えて個人情報を利用してしまった場合、個人情報保護法に違反することになります。

これに対する回避策としては、まず、自社のプライバシーポリシー等に記載されている利用目的を見直すことが必要です。「Chat GPTに入力すること」は一般的に目的ではなく手段に位置付けられると思いますが、このような具体的な手段まで利用目的に記載されている必要はありません。ただし、Chat GPTを利用することで最終的に達成しようとしている目的については、利用目的に記載があるかを確認する必要があります。例えば、Chat GPTに顧客や従業員の個人情報を入力して、顧客や従業員の行動の傾向を調査しようとするのであれば、そのような調査を行うことが利用目的に明確に記載されていることが望ましいと言えます。

(2)について、Chat GPTに個人データを入力すると、本人の同意を得ることなく第三者に個人データを提供したとみなされ、個人情報保護法に違反するリスクがあります。特に、Open AI社は海外法人であり、海外の第三者への個人データの提供にはより厳しい制限が課されているため、個人データの入力については十分な対応を検討しておく必要があります。前回の記事においてご説明したとおり、個人情報保護委員会の注意喚起を踏まえると、現状では、入力した個人データが学習用データとして利用される場合には第三者提供に該当すると解釈される可能性が高いものと思われます。そのため、Chat GPTを利用する場合、Open AI社が生成AIに入力された個人データを学習データとして利用しないことを確認することがリスク回避策として大事になります。

Chat GPTに関して、APIを介さず入力された情報は、Chat GPTの「training」の機能をオフにすることで学習に利用されないようにすることができるとされています。また、APIを介して入力された情報については、AIの学習等に用いられないとされており、Chat GPTに個人データを入力して利用することを検討するのであればAPIを通じた活用についても検討することがあり得ます。

●著作権法に関する法的リスク

ア 生成物による第三者の著作権侵害のリスクとその回避策
前回の記事においてご説明したとおり、「ChatGPT」から出力された生成物を利用する場合、当該生成物を利用することにより第三者の著作権を侵害するリスクがあります。

著作権の侵害が成立するのは、(1)ある著作物に依拠して、(2)当該著作物と同一又は類似する表現物を利用した場合です。Chat GPTによって出力された生成物が、どのような場合に第三者の著作物に依拠したと言えるかは、未だ議論が定まっていないところです。Chat GPTによる生成物であっても依拠性が認められ、第三者の著作権を侵害していると判断される可能性は否定できません。なお、著作権侵害のリスクがあることを前提として、Open AI社から、ユーザがChat GPTを利用した結果、ユーザに対して著作権侵害に関する請求がなされた場合、Open AI社が代わりに対応する旨の施策(いわゆる著作権シールド。ただし、現時点においてはChat GPT Enterpriseなど一部のユーザに対してのみの提供が想定されているようです。)も発表されています。

このことを踏まえた回避策としては以下のようなものがあり得ます。

まず、第三者の著作物が含まれるプロンプトや第三者の著作物に類似した生成物の出力を指示するようなプロンプト(「作家Aの文章に似た文章を作って」など)を入力しないことが回避策としてあり得ます。人事担当者において、これらのようなプロンプトを入力する機会はあまり多くないと思われますが、採用活動の場面で対外的に公表する広告などを作成されることがあれば注意する必要があります。なお、第三者の著作物をChat GPTに入力する行為自体が、第三者の著作物の利用にあたり、著作権侵害に該当し得るため、第三者の著作物を含むプロンプトを入力する行為は、著作者の同意がない限り控えるべきである場合が多いと思われます。

また、出力された生成物が、第三者の著作権を侵害していないかを人の目で確認することも重要です。もちろん、この世のあらゆる著作物の著作権を侵害していないかを確認することは不可能ですが、少なくとも著名な著作物に類似してしまっていないか、自社の業界における競合他社の著作物に類似してしまっていないか等は、実際にトラブルが生じるリスクが高いため、十分に確認することが必要です。

イ 自らの生成物を第三者が無断で使用するリスクとその回避策
「Chat GPT」から出力された生成物を対外的に発信するような場合等には、第三者に当該生成物を勝手に使用されるリスクがあります。しかし、前回の記事においてご説明したとおり、そもそもChat GPTから出力された生成物は著作物に当たらず、著作権が発生しない可能性があるのです。

この点に関する回避策としては、生成AIによって出力された生成物に、さらに人が加筆・修正等を行うなどによって創作的寄与を加えることで、著作物として著作権を発生させるようにすることがあり得ます。この場合、最初にChat GPTから出力された生成物はどのようなもので、当該生成物に人がどのように加筆・修正等を行ったかを記録しておくことで、事後的に著作物にあたるかが裁判等で争われることになった場合に備えることができます。

おわりに

以上、人事担当者が「ChatGPT」を利用する場合の法的リスクを軽減するために押さえておくべきポイントについて、簡単にご紹介いたしました。今後も、Chat GPTに新たな機能が追加され、Chat GPTを利用した様々なサービスが登場し、Chat GPT以外の生成AIのサービスも普及していくことが想定されるでしょう。

その度に新たな法的リスクが生じる可能性があります。また、米国等では既に実際に訴訟になっているケースも見受けられますので、日本においてもChat GPTの利用を原因とする紛争も生じると思われます。これらの動向を踏まえながら、Chat GPTを利用した場合の法的リスクに対する回避策を定期的に見直していくことが重要になります。
「ChatGPT」の法的リスクに対して、人事はどのような回避策を講じるべきか
  • 1

この記事にリアクションをお願いします!