
- ChatGPTを業務で活用する場合、どんなリスクがあるのだろう?
- なぜリスクがあるのか、理由を含めて知りたい
- 発生し得るリスクには、どのような対策を講じられるのか?
上記のような疑問を抱えていませんか?
今回は、ChatGPTを業務で活用する際に発生し得るリスクについて解説します。
それぞれのリスクが発生する理由と対策をまとめていますので、ぜひ参考にしてください。
ChatGPTとは

はじめに、ChatGPTとはどのようなツールなのか、基本事項を振り返っておきましょう。
ChatGPTでできること・ChatGPTが苦手なことを押さえた上で活用していくことが大切です。
大規模言語モデルによるAIチャット
ChatGPTは、人間と文字での対話が可能なAIチャットツールです。
大規模言語モデル(LLM)のGPT(Generative Pretrained Transformer)をベースにOpenAIが開発しました。
質問に対して適切な回答となる単語をインターネット上から抽出し、人間にとって自然なニュアンスの回答を返すことができます。
利用できるGPTは2023年4月時点でGPT-3.5とGPT-4で、GPT-4はGPT-3.5の約57倍の処理能力を備えているのが特徴です。
GPT-3.5 は無料版、GPT-4は有料版(ChatGPT Plus)で利用できます。
ChatGPTでできること
ChatGPTは、次のようなことに活用できます。
- 質疑応答:「数学者ガウスの功績を教えて」などの質問に答える
- テキスト生成:メールや文書向けの文章を生成する
- 創作:小説や脚本などを執筆する
- ソースコードの解説:プログラミング言語のソースコードの意味を解説する
質問に対する単純な回答だけでなく、文章自体を「考えてもらう」ことができる点が大きな特徴です。
ニュアンスや文体をプロンプトで指定することもできるため、シチュエーションに合った文章を生成できます。
ChatGPTが苦手なこと
ChatGPTは「もっともらしい回答」を返すことができるものの、専門性の高い質問には正確に答えられません。
数値や単位などの厳密さが求められる回答については、誤った回答を返してくることもあります。
最新情報を反映させて回答することも苦手です。
ChatGPTは2021年9月頃までの情報を元に回答を生成するため、最近の出来事などは回答に反映されません。
創作にもある程度は対応できるものの、オリジナリティを追求することや未来を推測することはできないのが実情です。
ChatGPTの回答が完全なものでないことを、十分に理解した上で活用していく必要があるでしょう。
リスク1:情報漏洩のリスク

ChatGPTを業務で活用する際に想定されるリスクの1つめは「情報漏洩」です。
顧客情報をはじめ、社内の機密情報が外部に漏洩するリスクを孕んでいます。
業務で扱う情報の中でも秘匿性の高い情報に関しては、ChatGPTに入力しないよう周知徹底する必要があるでしょう。
なぜ情報漏洩リスクが発生するのか
情報漏洩リスクが発生する主な理由は、ChatGPTに「学習」させるためにデータを必要とするからです。
AIは大量のデータを日々学習し、パターンを学ぶことで回答の精度を高めていきます。
ユーザーがChatGPTに入力した質問内容は、OpenAIのサーバーに送信されているのです。
機密情報を入力した場合、社外秘の情報がChatGPTの開発元に開示されてしまうことになります。
AIが学習したデータは別のユーザーの質問に対する回答に活用される可能性があるため、情報漏洩の原因となり得るのです。
情報漏洩への対策
情報漏洩を防ぐための対策として、主に2点が挙げられます。
1つは、従業員にChatGPTの特性を説明し、機密情報を入力しないよう周知徹底を図ることです。
公表されていない企画内容や、顧客情報に関わる内容はChatGPTに質問すべきではありません。
ChatGPTに入力し送信した時点で情報が社外に漏洩していることを明確に伝え、注意を促しましょう。
もう1つの対策はAPIの活用です。
OpenAIは、API経由のデータをAIの学習に活用しないと公表しています。
業務にChatGPTを活用するのであれば、API経由でデータをやり取りする仕組みを整えておくべきでしょう。
リスク2:倫理・道徳面でのリスク

2つめのリスクは倫理や道徳に関するものです。
ChatGPTが生成した回答に不適切な表現が含まれるケースがあることは広く知られています。
企業がChatGPTを業務に活用した場合、企業としての倫理観や道徳観を問われかねません。
なぜ倫理・独特に関するリスクが生じるのか、どうすれば対策を講じられるのかを確認しておきましょう。
なぜ倫理・道徳面でのリスクが発生するのか
ChatGPTが倫理的・道徳的に問題のある文章を生成するのは、インターネット上にある情報を学習しているからです。
インターネット上に公開されている情報の中には、誤解や差別にもとづくものも少なくありません。
開発元のOpenAIでは、ChatGPTが倫理的・道徳的に問題のある回答を生成しないよう改善を図っています。
一方で、インターネット上に散在する膨大な量の情報を全て精査するのは現実的に不可能といわざるを得ません。
ChatGPTは倫理や道徳を自律的に判断できないため、問題のある回答が生成されてしまうのです。
倫理・道徳面のリスクへの対策
ChatGPTが生成する文章の倫理的・道徳的リスクを低減させる対策は、二段構えで臨む必要があります。
第一段階として取り組むべきことは、プロンプトの精度を高めることです。
質問の前提や背景を明確にし、必要に応じて回答に制約を設けるなどして問題のある回答が生成されにくい状況を作りましょう。
第二段階は、生成された文章のチェック体制を構築することです。
ChatGPTが生成した文章が人によるチェックを経ることなく外部へ公開されないよう、事前に精査する必要があります。
ChatGPTの利用に関するガイドラインを設けるなどして、文章生成から公開までのフローを決めておくことが大切です。
リスク3:誤った情報を伝えるリスク

ChatGPTは、最近の出来事を踏まえて回答することができません。
たとえば、「日本国内の公道で自動運転はどのレベルまで認められていますか」と質問した場合の回答は下記の通りです。

「レベル3以上の技術を搭載した車両に限定」と言い切っていますが、道路交通法は2023年4月1日に改正されています。
改正道路交通法では、レベル4の自動運転が一定条件下で解禁されました。
もしChatGPTの回答通りの内容を企業の公式見解として公表すれば、誤った情報を伝えることになるでしょう。
ChatGPTを業務で利用した場合、誤った情報を伝えるリスクを孕んでいるのです。
なぜ誤った情報を伝えるリスクが発生するのか
ChatGPTが参照しているのは2021年9月頃までの情報のため、最新の情報は回答に反映されません。
自動運転のレベル4が公道で解禁されたのは2023年4月であり、ChatGPTにとって未知の情報です。
2021年9月までの情報を元に回答を生成しているために、古い情報をまるで現時点での情報であるかのように答えてしまいます。
反対に、普遍的な事実や長年変わっていない事柄であれば、ChatGPTはある程度正確に答えられるでしょう。
情報の鮮度が決して高くないことを踏まえて利用していくことが大切です。
誤った情報を伝えるリスクへの対策
ChatGPTの回答を鵜呑みにし、誤った情報を伝えないためには、次の点に留意する必要があります。
- ChatGPTが参照しているのがいつまでの情報なのかを把握しておく
- ChatGPT自体が物事の良し悪しを判断できないことを押さえておく
- 間違った回答でも「もっともらしく」答える傾向があることを理解しておく
3つめの対策はとくに重要なポイントです。
ChatGPTは「人間らしく」答えるようプログラムされているため、虚偽の情報も「もっともらしく」答える面があります。
人が物事を誤解したり記憶を取り違えたりすることがあるように、ChatGPTも「間違える」ことがあるのです。
ChatGPTの性質を十分に理解し、必ず事実確認をした上で情報を公表するプロセスを踏む必要があるでしょう。
リスク4:著作権侵害・プライバシー侵害リスク

ChatGPTに文章を生成させることによって、著作権侵害やプライバシー侵害に繋がる恐れがあることは否定できません。
実際、2023年3月にイタリアはプライバシー侵害の恐れがあるとして、ChatGPTへのアクセスを一時禁止しました。
他のEU加盟国の一部も、イタリアと同様の措置を検討しているとも報じられています。
ChatGPTの活用が著作権侵害やプライバシー侵害のリスクに繋がる理由と、対応策について見ていきましょう。
なぜ著作権侵害・プライバシー侵害リスクが発生するのか
ChatGPTが生成する文章が著作権やプライバシーの侵害に繋がる恐れがあるのは、インターネット上の情報を利用しているからです。
SNSが典型であるように、インターネット上にはさまざまな形で個人情報が点在しています。
2023年4月現在、ChatGPTをはじめとするジェネレーティブAIがどのように学習データを収集したのか明らかになっていません。
インターネット上に情報が存在している以上、著作物や個人情報が学習データに活用される可能性はゼロではないのです。
業務でChatGPTを活用した場合、気づかないうちに著作権侵害やプライバシー侵害を犯してしまう恐れがあります。
著作権侵害・プライバシー侵害リスクへの対策
ChatGPTの問題点の1つとして、必ずしも出典が明示されるとは限らない点が挙げられます。
生成された文章の一部または全部が、特定の著作物を模倣している可能性もあるのです。
対策として、BingのAI Chatのように出典が表記されるサービスを併用する方法が考えられます。
ChatGPTとBingが似た文章を生成した場合に、Bing側に出典の表記がないかチェックするとよいでしょう。
著作権やプライバシーに関するルールは国や地域によって異なるため、海外向けに発信する情報に関してはとくに注意が必要です。
リスク5:AIへの依存リスク

2023年3月、ベルギー在住の30代男性がAIチャットボットとの対話をきっかけに自ら命を絶つ事件が発生しました。
男性がプライベートでの悩みをAIに打ち明けていくうちに、命を絶つようAIが教唆したとされています。
男性はAIに「イライザ」と名前をつけ、まるで親友のように心を開いていたとも報じられているのです。
なぜAIの言葉を信じ込むほどに依存してしまったのか、AIへの依存リスクについて考えてみましょう。
なぜAIへの依存リスクが発生するのか
ChatGPTの特性の1つに「人間らしく」対話ができる点が挙げられます。
学術誌『Scientific Reports』に掲載された論文では、AIによる助言を無意識のうちに信じてしまう人は少なくないと論じています。
自らの思考や意思で判断したのか、AIによる助言が判断力を鈍らせていたのか、多くの人は区別がつかないのです。
ビジネスにおける重要な意思決定や戦略上の判断をAIに委ねることには、少なからずリスクが伴います。
ChatGPTはまるで「口が達者なコンサルタント」のように、私たちに物事を信じ込ませる力を秘めているのです。
AIへの依存リスクへの対策
業務におけるAIへの依存リスクを避けるには、人間が果たすべき役割とAIが処理する役割を明確化することが大切です。
AIによる判断はあくまでも補完的な活用に留め、最終的な意思決定は人間が担わなくてはなりません。
そもそもAIには依存リスクがあることを理解した上で、AIが果たす役割を定期的にチェックしていく必要があるでしょう。
ChatGPTは未来を予測したり、未知の状況に対して柔軟な判断を下したりすることはできません。
もっともらしく聞こえる回答を得たからといって、安易に信じ込まないスタンスを決して崩すことのないようにしましょう。
まとめ
ChatGPTはAI技術の進歩を身近に感じられるツールであり、すでに多くの業界で業務への活用が検討され始めています。
今回紹介してきた通り、そもそもAIの活用にはリスクがあることを理解し、適切な利用を心がける必要があるでしょう。
さまざまな状況を踏まえて判断を下す自律的な「思考」は、人間だけが獲得してきた叡智です。
今後もChatGPTが飛躍的な進化を遂げるとすれば、試されることになるのは私たち自身の「思考」なのかもしれません。
年商5億円を超えさらなるスケールアップを目指す経営者必見!
あなたのビジネスをスケールアップさせる集客と組織作り、
さらに、成功事例やここだけのお得な内容をお届け致します。