ChatGPTは、OpenAIが開発した人工知能(AI)によるテキスト生成ツールです。
自然言語処理技術を活用して、ユーザーからの質問やリクエストに対して適切な文章を生成することができます。企業においては、カスタマーサポートやコンテンツ作成、内部文書の自動生成など、多岐にわたる業務で活用されています。しかし、このようなAIツールの利用には、情報漏洩や倫理的な問題、法的リスクなどの懸念が伴います。そこで、この記事では、ChatGPTを安全に活用するための社内ルールやトラブル回避のポイントを解説します。社内でのAI活用を検討している方や、すでに導入している企業の方にも役立つ情報をお届けします。
もっとも基本的な必ず守るべきルール
一番守るべき必須のルールは、利用するサービス(この場合はOpenAI)のポリシーです。
ChatGPTを利用する際のポリシーとは、OpenAIのポリシーに記載されている内容です。内容も更新されることがあるため、ルールを作成する立場の方は、定期的にチェックするなど常に関心を持ち、変更が社内ルールに影響する場合は周知するなどのアクションを起こす必要があります。
OpenAIのポリシー: https://openai.com/policies/usage-policies
OpenAIの利用条件: https://openai.com/policies/terms-of-use
Terms-of-use「Updated March 14, 2023」、Usage-policies「Updated March 23,2023」 の情報から、抜粋します。誤訳あるかもしれませんので正確には公式サイト(原文)をご確認ください。
利用条件(Terms of use)
当然ではありますが、規約がありますので知らなかったは通用しません。
- 当社のサービスを使用することにより、お客様は本規約に同意したことになります。(By using our Services, you agree to these Terms.)
- 13歳以上である必要がある(You must be at least 13 years old to use the Services)
- OpenAIはユーザーが入力する情報から個人情報を収集し、収集した個人情報は、統計または匿名化され、プライバシーポリシーに記載された目的のために第三者に共有される。
- 人工知能と機械学習の改善に取り組んでいるが、機械学習の質を考えると状況によっては実在の人物、場所、または事実を正確に反映していない誤った出力をする場合があります。ユーザーは自身で正確性を評価する必要があります。
禁止事項(don’t allow)
- 違法行為(Illegal activity)
- 児童の性的虐待、または児童を搾取または危害を加えるコンテンツ(Child Sexual Abuse Material or any content that exploits or harms children)
- 憎悪、嫌がらせ、暴力的なコンテンツの生成(Generation of hateful, harassing, or violent content)
- マルウェアの生成(Generation of malware)
- 身体的危害のリスクが高い活動(Activity that has high risk of physical harm, including)
武器開発(Weapons development)
軍事と戦争(Military and warfare)
エネルギー 輸送 水 における重要インフラの管理または運用(Management or operation of critical infrastructure in energy, transportation, and water)
自殺 殺傷 摂取障害などの自傷行為を助長 奨励 または描写するコンテンツ(Content that promotes, encourages, or depicts acts of self-harm, such as suicide, cutting, and eating disorders) - 経済的損害のリスクが高い活動(Activity that has high risk of economic harm)
includingの記述は省略(原文参照のこと) - 詐欺的または欺瞞的な活動(Fraudulent or deceptive activity)
includingの記述は省略(原文参照のこと) - アダルト コンテンツ、アダルト 業界、出会い系アプリ(Adult content, adult industries, and dating apps)
includingの記述は省略(原文参照のこと) - 政治運動またはロビー活動(Political campaigning or lobbying)
- 利用者のプライバシーを侵害する行為(Activity that violates people’s privacy)
includingの記述は省略(原文参照のこと) - 許可されていない法律実務に従事すること、または資格のある人が情報を確認せずにカスタマイズされた法的アドバイスを提供すること(Engaging in the unauthorized practice of law, or offering tailored legal advice without a qualified person reviewing the information)
- 資格のある人が情報を確認せずにカスタマイズされた財務アドバイスを提供する(Offering tailored financial advice without a qualified person reviewing the information)
- 特定の健康状態を持っている、または持っていないことを誰かに伝えたり、健康状態を治癒または治療する方法について指示を提供したりすること(Telling someone that they have or do not have a certain health condition, or providing instructions on how to cure or treat a health condition)
- リスクの高い政府の意思決定(High risk government decision-making)
includingの記述は省略(原文参照のこと)
追加要件(further requirements)
- 医療、金融、法律業界における当社のモデルの消費者向け使用。ニュース生成またはニュース要約。また、他に正当な理由がある場合は、AIが使用されていることとその潜在的な制限についてユーザーに免責事項を提供する必要があります。
(誤訳の可能性があるため正しくは原文参照のこと) - 自動化されたシステム(会話型AIやチャットボットを含む)は、AIシステムと対話していることをユーザーに開示する必要があります。歴史的な公人を描いたチャットボットを除き、他の人をシミュレートする製品は、その人の明示的な同意を持っているか、「シミュレート」または「パロディ」として明確にラベル付けされている必要があります。
(誤訳の可能性があるため正しくは原文参照のこと) - ライブストリーム、デモンストレーション、および研究でのモデル出力の使用は追加ポリシー参照
https://openai.com/api/policies/sharing-publication/
(誤訳の可能性があるため正しくは原文参照のこと)
ChatGPT利用のリスクと対策
情報漏洩とデータ保護
ChatGPTの場合は、入力された情報を学習データとして利用しているため、ChatGPTに入力した情報が、他の利用者の回答に用いられることで、情報漏えいにつながる可能があります。入力内容を学習データに使用に内容に要求することもできます(オプトアウト)が、オプトアウトすると使用するモデルで制限が生まれる可能性があります(Please note that in some cases this will limit the ability of our models to better address your specific use case.)
API経由でのデータ入力やオプトアウトした場合、学習データに使用されないことは明記されていますが、データの保存はされていると思われます。そのため、何らかのサイバー攻撃やミスなどでOpenAIの保管するデータが流出、漏洩するリスクは存在します。
社内で入力可能(機密情報を含まない)データを定義することが重要で、各個人の判断にゆだねるのではなく、具体的にどういった情報までなら入力可能化のガイドラインを設けるべきだと思います。最初から分類が難しい場合もあるため、利用を進める中で都度判断し、その結果をナレッジかして共有していくことで、ある程度の情報漏洩リスクは防げるようになります。
コンプライアンスと法令順守
コンプライアンスや法令順守に関しては、OpenAIの利用規約にもありますし、比較的判断しやすい内容だと思います。既存の社内にある基準などでもカバーできるのではないかと思います。
内容の妥当性判断と信頼性
ChatGPTはその性質上、大量の学習した文章から、文章の構成としての正解を導き出すことが得意であり、その内容の正確性については必ずしも保障できるものではありません。
プロンプトエンジニア といわれるように質問の仕方にも大きく左右されます。
入力データの与え方、出力された結果については、その性質を理解して自己判断しながら使用する必要があります。
ChatGPTでも、ライフラインの管理、運用や政治の政策決定などに使用しないように明記されています。
ルールを公開している企業の例
ルールを作成してかつ一部またはすべてを公開している企業です。
こういった世の中の動向に対して素早くうごき、しかも情報を共有していただけるのは素晴らしいと思います。(感謝)
クラスメソッド:https://dev.classmethod.jp/articles/guideline-for-use-of-ai-services/
(株)zaim:https://blog.zaim.co.jp/n/n641fc2e19933
利用を推進する企業でも、セキュリティ上の留意点を考慮し、顧客情報を含まないことや、モデル学習に用いられないと明記されているAPI連携に限定して利用するケースもあります。
社内でChatGPT利用を成功させるための方針
組織全体へのコミットメント
AI活用のためには、組織全体でのコミットメントが不可欠です。経営層から現場スタッフまで、全員がAI技術の重要性と活用方法を理解し、協力して取り組むことが求められます。経営層は、社内でのAI活用を推進する姿勢を示し、必要なリソースや支援を提供する必要があります。また、現場スタッフは、AI技術を活用することで業務効率を向上させ、新たな価値を創出できるという意識を持つことが重要です。
ルールの周知と徹底
ChatGPTの安全な活用には、明確なルールとその徹底が不可欠です。まず、利用目的やデータ取り扱いに関するルールを策定し、全従業員に周知することが重要です。社内での利用に関するセミナーや研修を実施することで、ルールを理解し、遵守できる環境を整えましょう。また、従業員が疑問や懸念を持った場合に、相談できる窓口を設置することも有効です。
効果的な運用管理とフォローアップ
AI技術の活用を成功させるためには、効果的な運用管理とフォローアップが必要です。まず、定期的なモニタリングを行い、AI活用の状況を把握しましょう。問題が発生した場合には、速やかに対処し、ルールの見直しや改善を行います。また、成功事例やノウハウを共有することで、組織全体でのAI活用スキルを向上させることができます。最後に、AI技術の進化に合わせて、ルールや運用方法を柔軟に見直すことが重要です。
参考:AI関連のガイドライン 政府公開資料
ChatGPTとは直接関係ありませんが、AI関連の指針、ガイドライン関係の情報としてこちらも紹介します。
関係府省庁のAI関連の指針・原則・ガイドラインの作成状況
https://www.mhlw.go.jp/content/10601000/000590652.pdf