わたしはいくつかのWebサイトを運営しています。
何人かのライターさんに記事執筆をお願いしてる中で「ChatGPTを記事作成に使ってよいか」という声が上がってきました。
「たしかにChatGPTを記事作成に使うと絶対に便利だよな。許可するか禁止にするか、どう判断するべきか」と思い、利用規約や利用ガイドラインを読んでみました。
結論から言うと、わたしのメディアではChatGPTを使わないこととしました。
便利さは分かっていますが、それ以上に、情報漏洩や著作権侵害のリスクが大きいと判断したためです。
ChatGPTは上手に使えば非常に便利ですが、使いかたによってはトラブルを招くかもしれません。
そこで、本記事では、わたしがChatGPTを使用禁止とした理由を解説します。
目次
ChatGPTの利用規約を読んでみた
ChatGPTを許可するかどうかを判断するために、まずは利用規約を読んでみました。
わたしが読んだ限り、利用規約のポイントとなる部分は以下の4つです。
なお、和訳は2023/5/28にDeepLで作成したものです。
インプットとアウトプットは利用者に著作権が帰属する
Team of Use
- Content
(a) Your Content.
原文:As between the parties and to the extent permitted by applicable law, you own all Input. Subject to your compliance with these Terms, OpenAI hereby assigns to you all its right, title and interest in and to Output.
DeepLによる和訳:当事者間において、また適用される法律で許可される範囲において、お客様はすべてのインプットを所有します。お客様が本規約を遵守することを条件として、OpenAIは、ここに、Outputに関するすべての権利、権限および権益をお客様に譲渡します。
出典:https://megalodon.jp/2023-0528-1637-54/https://openai.com:443/policies/terms-of-use
著作権の帰属先が違う、似たような文章が増えるのではないか。知らないうちに他人の著作権を侵害し、トラブルの原因となりうる。
API以外で入力した内容はAIの改善に使われることがある
Team of Use
- Content
(c) Use of Content to Improve Services.
原文:We may use Content from Services other than our API (“Non-API Content”) to help develop and improve our Services.
DeepLによる和訳:当社は、当社のAPI以外のサービスからのコンテンツ(以下「API以外のコンテンツ」)を、当社のサービスの開発および改善に役立てるために使用することがあります。
出典:https://megalodon.jp/2023-0528-1637-54/https://openai.com:443/policies/terms-of-use
個人情報や秘密にしたい情報も開発者に送られるので、自社および他社の秘密情報の漏洩につながる。実際、Samsungが自社の秘密情報にあたるプログラムをChatGPTに入力するなどし、これを情報漏洩としていた。秘密情報だと知らずにChatGPTに入力した可能性もあると、わたしは考えている。
AIが生成したコンテンツであると明記しなくてはいけない
Sharing & publication policy
Social media, livestreaming, and demonstrations
原文:Indicate that the content is AI-generated in a way no user could reasonably miss or misunderstand.
DeepLによる和訳:コンテンツがAIによって生成されたものであることを、ユーザーが合理的に見落としたり誤解したりしないような方法で示す。
出典:https://megalodon.jp/2023-0528-1643-34/https://openai.com:443/policies/sharing-publication-policy
ライターさんが明記せずにコンテンツを作成しても、わたしでは見破れない。規約違反を見破れないことは、何かしらのトラブルに繋がる可能性がある。
価格の変更は、その旨をサイトに掲載して14日後に適応される
Team of Use
- Fees and Payments
(c) Price Changes.
原文:Price increases will be effective 14 days after they are posted, except for increases made for legal reasons or increases made to Beta Services (as defined in our Service Terms), which will be effective immediately.
DeepLによる和訳:値上げは、法的理由による値上げまたはベータサービス(当社のサービス利用規約に定義されています)に対する値上げを除き、掲示後14日目に有効となります(即時有効となります)。
出典:https://megalodon.jp/2023-0528-1637-54/https://openai.com:443/policies/terms-of-use
気が付かない間に使用料を値上げしていることもありえる。値上げ分をライティング委託料に上乗せして支払えず、ライターさんとわたしの両方で気持ちよく業務ができない可能性がある。
この時点で、ChatGPTの利用に対し少し警戒心が高まりました。
日本ディープラーニング協会の生成AI利用ガイドラインを読んでみた
続いて、世間ではどのように判断しているのだろうと思い、日本ディープラーニング協会(JDLA)の「生成AI利用ガイドライン」を読んでみました。
「生成AI利用ガイドライン」は、JDLAが発表しているガイドラインで、各種組織が生成AI(特にChatGPT)を利用するときに定めておいたほうがよいと思われる事項を記載したものです。
なお、JDLAはディープラーニングを中心とした技術によって、日本の産業競争力の向上を目指す一般社団法人です。
2023年5月28日で、三井住友銀行、野村ホールディングス、日本マイクロソフトなどの企業がJDLAの目的に賛同した賛助会員となっています。
ガイドラインでは、わたしが利用規約で気になった点を中心に、さまざま参考になることが書かれていました。
気になった点は以下の3つです。
他社の秘密情報の入力を禁止している
5 データ入力に際して注意すべき事項
(5)他社から秘密保持義務を課されて開示された秘密情報
原文:外部事業者が提供する生成AIに、他社との間で秘密保持契約(NDA)などを締結して取得した秘密情報を入力する行為は、生成AI提供者という「第三者」に秘密情報を「開示」することになるため、NDAに反する可能性があります。
そのため、そのような秘密情報は入力しないでください。
出典:https://www.jdla.org/document/生成AIの利用ガイドライン【簡易解説付】(2023年5月公開)
NDAで第三者に開示しないように制限する情報の中には、本来は一般的な秘密情報に当たらない、業務で知りえた情報全般が含まれることもある。そのため、注意していても、ChatGPTに守秘義務がある情報を入力してしまうことも有り得る。
生成物の内容が、正しくない場合がある
6 生成物を利用するに際して注意すべき事項
(1)生成物の内容に虚偽が含まれている可能性がある
原文:大規模言語モデル(LLM)の原理は、「ある単語の次に用いられる可能性が確率的に最も高い単語」を出力することで、もっともらしい文章を作成していくものです。書かれている内容には虚偽が含まれている可能性があります。
生成AIのこのような限界を知り、その生成物の内容を盲信せず、必ず根拠や裏付けを自ら確認するようにしてください。
出典:https://www.jdla.org/document/生成AIの利用ガイドライン【簡易解説付】(2023年5月公開)
詳しくない分野だと、誤った内容の記事を公開してしまう可能性がある。ライターさんの文章は私がファクトチェックをしているが、完璧にはできない。虚偽の情報を記事として公開することは、信用問題に発展する可能性がある。
生成物を利用する行為が、誰かの既存の権利を侵害する可能性がある
6 生成物を利用するに際して注意すべき事項
(2)生成物を利用する行為が誰かの既存の権利を侵害する可能性がある
原文:生成AIからの生成物が、既存の著作物と同一・類似している場合は、当該生成物を利用(複製や配信等)する行為が著作権侵害に該当する可能性があります。
出典:https://www.jdla.org/document/生成AIの利用ガイドライン【簡易解説付】(2023年5月公開)
生成AIで作った記事が増えると、お互いに著作権を侵害しあう可能性がある。ChatGPTを使うと、記事を量産できるが、トラブルを引き起こしかねない。ライターさんのオリジナリティに富む記事を投稿したほうが、おもしろい上に著作権侵害のない安心なメディアが完成しそう。
ガイドラインを読んで、やはりChatGPTは使い方が難しいなと感じました。
利用規約と生成AIガイドラインを読んだ結果、使用禁止にしました
OpenAI社の利用規約とJDLAの生成AIガイドラインを読んで、わたしはChatGPTを使用禁止にしました。
上手に使えば大きなメリットがあることは理解しています。決して、わたしが禁止に積極的なわけではありません。
事実、ちょっとした調べ事をするために、プライベートでは毎日のようにChatGPTを使っています。
それに、農林水産省や東京都など公的な機関をはじめ、サイバーエージェント、大和証券など民間企業もChatGPTを業務に取り入れています。
なぜ上記の組織はChatGPTを業務に使えるのでしょうか。少なくとも、以下のようなポイントを対策してあるのかと思います。
- APIで開発し、秘密情報が開発者に送られないようにしている
- 資産管理ソフトを使って規約違反者がいないか監視している
- 教育をして、使用者のリテラシーをあげている
ChatGPTの利用規約内、Team of Useの3. Contentに「API以外のサービスからのコンテンツを、当社のサービスの開発および改善に役立てる」と記載があります。つまり、API以外を使うと入力した情報が開発者に送られるということです。
ChatGPTを許可している企業は、APIを使って秘密情報が開発者に送られないようにしているのだと思います。
ただ、わたしの運営メディアでは金銭面、技術面、体力面でAPIでの開発をする余裕がありません。
加えて、資産管理ソフトで規約違反者がいないか監視している可能性も考えました。
資産管理ソフトは、社内ネットワークにあるPCやサーバを一元管理するソフトです。モノによっては、PCがどのWebサイトにアクセスしてどのような行動をしたかもログとして残せます。ChatGPTで入力した内容も監視できます。
最後に、システムを使っても完璧に制御・監視はできないので、トラブルなくChatGPTを使うにはユーザーのリテラシーが重要です。
ITリテラシー向上の教育も、積極的に実施されているのではないかと思います。
わたしの運営するメディアでは、ChatGPT利用の土台を作れません。
上記のさまざまなハードルをクリアできるとするなら、これほど便利なツールはなかなかないので、ぜひ取り入れたいと思います。
ChatGPTは非常に便利だが、使いこなすには難易度が高い
ChatGPTをわたしの運営するWebサイトでなぜ禁止にしたのかを解説しました。
ChatGPTをはじめとする生成AIは、文章作成・問い合わせ対応・プログラム作成など、できることが多く非常に便利です。使えるのならどんどん使って業務効率化するとよいと思います。
ただ、便利な反面、安全に使うには難易度が高いと考えています。システムとユーザーのリテラシー、両方の面で環境を整えてから使った方がよいでしょう。
この記事が、システム担当者様の悩みを解決できれば幸いです。
(文:藤井 宏治)