生成AIは文章や画像の作成、アイデアの壁打ちなど、さまざまな用途で活用できる便利なツールです。多くの企業や自治体が導入し、業務効率化を進めています。
しかし、生成AIにはリスクもあり、対策せずに利用することで損害を生む恐れもあります。
本記事では、生成AIを利用する際に知っておきたいリスクと対策をまとめました。
生成AIを安全に使うために、ぜひ最後までご覧ください。
目次
生成AIに潜むリスク
生成AIのリスクは大きく以下の2つに分類できます。
- 利用者にとってのリスク
- 社会にとってのリスク
利用者にとってのリスク
生成AIを利用する人や企業にとってのリスクは主に4つあります。
- 情報漏えい
- 誤情報の生成(ハルシネーション)
- 倫理的に問題のある表現の生成
- 権利侵害
情報漏えい
生成AIから漏えいするリスクがある情報には「プロンプト(指示文)に入力した情報」と「生成AIに学習させた情報」があります。
過去には、ある企業の従業員が無料版のChatGPTで機密情報を含むやり取りをしてしまい、その機密情報が外部に漏れた事案も発生しました。一部の生成AIツールは、プロンプトに入力した情報を生成AIが学習し、他人の回答に転用します。
情報の漏洩が企業の信用を損ねるのはもちろんですが、それが顧客情報だった場合、信用問題だけでなく個人情報保護法に違反する恐れもあります。
プロンプトに入力した情報やAIに学習させた情報の扱いは生成AIルーツによって異なるため、利用前にチェックが必要です。
誤情報の生成(ハルシネーション)
質問への回答や、作成させた文章など、生成AIが作るコンテンツには間違った情報が含まれるケースがあります。この、生成AIが間違った情報を出力してしまう現象をハルシネーションと呼びます。
生成AIには情報の正誤を判断する能力がありません。そのため、学習させた情報に含まれる間違った情報や古い情報をそのまま利用してしまいます。
また、生成AIは「ある単語や文脈に対して、次に続く単語の確率を予測して文章を作成する」仕組みです。学習した情報は正しくても、適切ではない単語を選び、間違った情報を出力してしまうこともあります。
ハルシネーションの発生を防ごうとさまざまな対策が講じられていますが、完全に防ぐ方法は現段階で見つかっていません。
| 【合わせて読みたい】 ・生成AIのハルシネーションはなぜ発生する?原因と即実践できる対策を解説 |
倫理的に問題のある表現の生成
生成AIは、情報の正誤だけではなく、表現への問題も指摘されています。特に注意したいのが「倫理的に問題がある表現」です。
具体的には、下記の表現の出力に注意しなければなりません。
- 性別、人種、宗教、性的指向、障害などにもとづいた差別的な表現
- 暴力を正当化、助長する表現
- 特定のグループを攻撃する表現
倫理的に問題のある表現を使ってしまうと、企業の信用問題にかかわります。
多くの生成AIツールは、倫理的に問題のある表現を出力しないようシステムの制御を施していますが、完全に防げるわけではありません。
権利侵害
生成AIを使って文章や画像などのコンテンツを作成すると、著作権や商標権などの権利を侵害する可能性があります。
例えば、生成AIが作った画像に「他者が権利を所有するデザイン」が含まれているケースです。「商用利用可」とされている生成AIツールもありますが、著作権や商標権を侵害しないことを保証しているわけではありません。
また、権利侵害にはならなくても「他社のキャッチコピーを少し変えただけのコピー」をそのまま公開すると、盗作だと疑われて企業の評価が下がってしまいます。
生成AIは新しいコンテンツを生み出せることが強みですが、学習した情報をもとに作り出しており、ゼロから創造しているわけではありません。学習元のデータと似通ったコンテンツを作成するケースもあります。
なお、生成AIと著作権の関係は法整備が進められている段階です。最新の動向を追いながら、著作権侵害にならないよう留意しながら生成AIを利用しましょう。
ここまで紹介したリスクへの対策は「企業が講じておきたい生成AIのリスクへの対策」で紹介しています。
社会にとってのリスク
生成AIは社会にとってのリスクもあります。
- ディープフェイク
- 犯罪の助長
ディープフェイク
ディープフェイクとは、AIを使って人物の画像・動画・音声を合成する技術のことです。
このディープフェイクが、偽情報の拡散や政治的なプロパガンダに使われているとして、世界中で問題視されています。
国内においては、投資詐欺の広告にディープフェイクが使われている事例がニュースにも取り上げられました。生成AIで著名人が投資を進めるような広告を作り、その広告を見たユーザーが詐欺目的の投資商品を購入し騙されてしまうというものです。
生成AIを使えば、特定の人物の動画や音声を作成でき、実際にはその人が言っていないにもかかわらず言ったように見せられます。
犯罪の助長
フィッシングメールやマルウェアなどの犯罪に使われてしまうことも、生成AIの問題点です。過去にはサイバー攻撃を目的とした生成AIツールも作られました。
生成AIに「詐欺メールの文章」や「詐欺目的でのプログラミングコード」を作らせれば、知識がなくても詐欺行為ができてしまいます。
ほとんどの生成AIツールは、詐欺につながる文章やプログラミングコードの作成ができないようシステムを制御しています。しかし、犯罪行為をおこなう人やグループは、制御されている中で詐欺に使えるよう工夫しており、生成AIを使った詐欺行為は防ぎきれていません。
企業が講じておきたい生成AIのリスクへの対策
生成AIを利用する際は、本記事で紹介した「利用者にとってのリスク」への対策が必要です。特にビジネスで生成AIを使う場合は、生成AIの利用が原因で信用問題に発展することもあるので、対策を徹底しなければなりません。
生成AIを利用する際の対策を、リスクごとにまとめました。
| リスク | 対策 |
| 情報漏えい | 機密情報を扱う業務に使わないセキュリティ強度が高い生成AIツールを採用する |
| 誤情報の生成(ハルシネーション) | ファクトチェックを徹底する正確な情報を学習させるRAGツールを採用する |
| 倫理的に問題のある表現の生成 | 生成したコンテンツを人がチェックする不適切な表現をフィルタリングする |
| 権利侵害 | 著作権フリーの情報のみを学習させた生成AIツールを採用する権利侵害の可能性があるコンテンツは人が手直しする |
それぞれ詳しく解説します。
情報漏えいへの対策
情報漏えいへの対策は大きく2つあります。
1つ目は「機密情報を扱う業務に使わないこと」です。
一部の生成AIツールは、プロンプトに入力した情報をAIが学習し、他人の回答として転用します。他人の回答に使われても問題ない情報だけを利用していれば、情報漏えいにはつながりません。
2つ目は「セキュリティ強度が高い生成AIツールを採用すること」です。
ChatGPTの有料プランやAzure Open AI Serviceなど、プロンプトに入力した情報が他人の回答に使われない生成AIツールなら、機密情報を扱う業務にも利用できます。
企業が生成AIを使う場合は、セキュリティ強度が高い生成AIツールを導入し「業務ではその生成AIツールしか使ってはならない」というルールを定めておきましょう。
誤情報の生成(ハルシネーション)への対策
生成AIの返答に間違った情報が含まれるリスクに対しては、人によるファクトチェックが必要です。生成AIが作成したコンテンツをそのまま使わず、担当者が責任を持ってチェック・修正しましょう。
加えて「生成AIに正確な情報を学習させること」も大切です。
生成AIは学習した情報を使って文章や画像を作っているため、正しい情報だけを学習させれば、誤情報を出力するリスクを減らせます。
しかし、生成AIツールはすでに多くの情報を学習しており、学習済みのデータの削除はできません。そこで自社で学習させた情報のみを使ってコンテンツを作成させる方法として「RAGの利用」があります。
RAGとは「生成AIが外部のデータベースに保存されているデータのみを参考にする」技術です。生成AIは指定したデータベースのみを情報源とするため、事前に学習している情報に左右されません。
正しい情報のみをデータベースに登録すれば、間違った情報の出力を防げます。
RAGについては、下記の記事で詳しく解説しています。
| 【合わせて読みたい】 ・RAG(検索拡張生成)とは?仕組みや生成AIとの関係性をわかりやすく解説 |
倫理的に問題のある表現の生成への対策
倫理的に問題のある表現に対しても、人によるチェックが必須です。生成AIは差別的な表現を使うことがあると念頭に置いて、コンテンツを見直しましょう。
また、不適切な表現をフィルタリングするのも有効です。事前に指定した表現を自動で検出するフィルタリング機能を設ければ、特定の表現を自動で検出できます。
ただし、フィルタリング機能を実装したからといって、人がチェックしなくていいわけではありません。最終的には人が確認し、不適切な表現を修正する必要があります。
権利侵害への対策
権利侵害への対策として最も手軽かつ有効なのが、著作権フリーの情報だけを学習させた生成AIツールを使うことです。
例えば、画像生成ツール「Adobe Firefly」なら、権利関係を精査したデータのみを学習しているので、権利侵害への心配がいりません。
著作権フリーの情報のみを学習させた生成AIツール以外を使う場合は、生成AIが作成したコンテンツを手直しして権利侵害を防ぎます。
共通:社内での生成AI利用のルールを決めておく
企業が生成AIを活用する場合、ここまで紹介した対策に加え、社内での生成AI利用のルールを決めておくことが重要です。
企業として対策を講じていても、社員の使い方によって情報漏えいや権利侵害などの問題が発生する可能性があるためです。
生成AIに詳しくない人は、リスクを把握していないかもしれません。その結果、「無料版のChatGPTに機密情報を入力する」「間違った情報が含まれている資料をそのまま営業活動で使う」という避けるべき行動を取ってしまう恐れがあります。
社員一人ひとりがリスクを把握し安全に使えるよう、下記のルールを定めておくのがおすすめです。
- 生成AIを使っていい業務を限定する
- 生成AIにコンテンツを作成させた後のチェック体制を整える
- トラブルが発生した際の報告ルートや連絡先を決める
ルールを決める際は、一般社団法人日本ディープラーニング協会が無料で公開しているガイドラインの雛形を参考にしましょう。
生成AIのビジネスにおける活用方法
生成AIは多くの企業や自治体が導入し、さまざまな業務の効率化に成功しています。
具体的にどのような使い方ができるのか、主な活用方法を表にまとめました。
| 問い合わせ対応 | 社内外から寄せられる問い合わせを、学習させた資料から柔軟に回答できる生成AIに任せて自動化する |
| 社員教育 | マニュアルなどを学習させて質問応答システムとして使う |
| 資料作成 | 資料の骨子や資料内の文章、グラフ、画像などを生成AIに作らせる |
| メール文の作成 | クライアントに送るメールやメールマガジンの文章のドラフトを作らせる |
| 企画立案 | アイデアの案を提案させる。人がアイデアを考えるときの壁打ち相手として使う |
| クリエイティブ制作 | 画像や動画を制作させ、広告などに使う |
| プログラミング | コードの作成やデバッグを任せる |
ChatGPTのようにさまざまな用途で使える生成AIツールだけではなく、特定の使い方に特化した生成AI搭載ツールもあります。生成AIのリスクを踏まえて開発されているツールが多くあるため、用途に応じてツールを選定しましょう。
もし問い合わせ対応や社員教育の効率化を目指しているなら、生成AI搭載チャットボットのOfficeBotがおすすめです。
OfficeBotは、既存の資料やWebサイトを登録するだけで、問い合わせに対してAIが回答となる情報を探し、わかりやすく要約して返答します。
登録した資料やWebサイトだけを回答の情報源とするRAGシステムを採用しているので、誤情報を提示する心配は不要です。また、回答元の情報が見つからない場合「情報がない」と返答するため、適当な情報を提示することもありません。
詳しい機能や利用シーンは、下記のサイトで紹介しています。
まとめ
生成AIには、情報漏えいや誤情報の生成などのリスクがあります。また、権利侵害のように法律に関わるリスクもあり、ビジネスで使う際には対策が欠かせません。
対策を講じていれば、生成AIは業務効率化やコスト削減、業務品質の向上に貢献する便利なツールです。
セキュリティ強度が高いツールを使い、コンテンツを作らせる際は人によるチェックを通してから公開しましょう。
なお、生成AI搭載のチャットボット「OfficeBot」は、問い合わせへの対応や社員の情報取得を効率化するRAGツールです。登録した情報のみを使って返答するため、生成AIの弱点である「誤情報の生成」を気にする必要がありません。
また、さまざまなセキュリティ対策を講じているので、機密情報を含むやり取りも可能です。
詳しくは下記でまとめていますので、ぜひ無料ダウンロードの上ご覧ください。










