SNSボタン
記事分割(js記載用)

生成AIと上手に付き合うために。AI時代の必須スキル「AIリテラシー」

情報流出や権利侵害…トラブル回避のために身につけておきたいAIリテラシー

情報流出や権利侵害…トラブル回避のために身につけておきたいAIリテラシー

前述したようなトラブルを回避するためにも、AIを使用する際には、具体的にどのようなポイントに気をつけると良いのでしょうか。

ポイント① AIは万能ではないことを理解する

鈴木さんはAIリテラシーの本質について「AIを使いこなすうえで大事なのは、便利だからと頼りすぎるのではなく、“AIを使うべき場面” と “そうでない場面” を見極めること」と語ります。

たとえば、AIが苦手な分野には以下のようなものがあります。

  • 最新情報の把握(リアルタイム性)
    AIは訓練された時点までのデータに基づいて回答する仕組みのため、「今日の天気」や「最新の値上げニュース」など、リアルタイムの情報に基づく判断は苦手です(ただし一部のAIはウェブ検索機能で対応できることもあります)。
  • ゼロから何かを創造すること
    AIは、過去のデータやパターンをもとに新しいものを作ることは得意ですが、「まったく新しいアイデアや概念を生み出すこと」は苦手です。
  • 倫理的な判断
    AIは、明文化されたルールには強い反面、グレーゾーンには弱いという特徴があります。たとえば「この表現は差別にならない?」といった、文脈や社会背景をふまえた微妙な倫理判断も現状は難しいです。

また、AIには「ハルシネーション」という誤情報を出す現象があることを知っておきましょう。AIは、実際には根拠がない情報でも、それらしく出力してしまうことがあります。

今すぐできるハルシネーション対策

現時点でハルシネーションの完全な解決は難しいものの、以下のような対策でリスクを抑えることができます。

  1. 最新情報に基づいて回答するAIを選ぶ
    Perplexityのようなウェブ検索を行い、リアルタイムの情報を反映するAIを使うことで、古い情報による誤りを防ぎやすくなります。
  2. 高度な調査支援ツールの活用
    各AIのDeepResearch機能など信頼性の高い情報源に絞って検索・要約してくれる設定を使えば、誤情報を減らす助けになります。
  3. 複数のAIによるクロスチェック
    異なるAIで同じ質問をして答えを比較したり、ファクトチェックを依頼したりすることで、一方の誤情報に気づける可能性が高まります。
  4. 出典が明示されるツールを選び、自分自身で裏付けをとる
    AIの中には、情報の出どころが明示されるものもあります。そうしたAIで調べ、出典元を自分の目で確認することで、内容の正確性を自ら判断できます。

ポイント② 権利侵害に気を付ける

生成AIを活用するうえで、避けて通れないのが著作権や商標といった「権利の問題」です。特に、画像生成AIを個人で使う場合のマナーやリスクについては、近年たびたび話題になっています。

鈴木さん

「私が実際にやっているのは、生成AIで作成した画像を一度 Google の画像検索にかけてみることです。生成した画像と酷似したものがないか、自分の目で確認しています。

あとは、たとえ法的には問題がなくても、多くの方がどう受け取るかという“世間の評価”が炎上につながることもあります。だからこそ、重要な案件に関しては、法的な基準だけでなく、社会的な受容性にも目を向けながら進めていくべきだと感じます」

特に、企業活動で使用する画像や商用利用を前提とする場合は、事前に法務部や知的財産部、弁護士や弁理士に相談するのが賢明です。

ポイント③ 禁止事項をルール化する

AIを仕事や家庭で使うときには、安心して活用できるようにルール(ガイドライン)を決めておくことが大切です。ここでは、企業と家庭の両方で意識しておきたいポイントをご紹介します。

企業でのガイドライン策定

  1. 機密情報の扱いに注意する
    AIに、まだ公表していないプロジェクトの内容や社内文書、取引先の大事な情報などを入力するのは避けましょう。最近では、社内情報を安全に扱うため、プライベートクラウド環境※1やオンプレミス環境※2でAIを運用する企業も増えています。
    • ※1
      企業が自社専用で構築し運用するクラウド環境
    • ※2
      サーバーやソフトウェアなどの情報システムを自社で保有・運用するシステムの利用形態
  2. 法律や業界ルールを守る
    法律や各業界のガイドライン、ルールに違反するような使い方は避けましょう。AIを導入する前に、自社に関係する規制を確認しておくことが大切です。
  3. AIのアウトプットは、必ず人がチェックするフローを作る
    AIが作った内容はそのまま使わずに、人がチェックする運用ルールを作っておきましょう。責任者を明確にしておくことで、トラブルを防げます。
  4. セキュリティ対策も忘れずに
    どのAIツールを使うのか、どういうセキュリティ条件を満たしているのかをあらかじめ決めておきましょう。ツールを導入するときの確認・承認フローを整えておくと安心です。

ガイドライン策定で参考となる公的・民間資料

ゼロからオリジナルで作るよりも、既存のガイドラインを参考にしながら作成した方が効率的で安心です。

  • 総務省・経済産業省「AI事業者ガイドライン
    AIを事業に活用する企業向けに、法的・倫理的な注意点や導入時のチェックポイントをまとめた政府の資料です。
  • ソフトバンク株式会社「AI倫理ポリシー
    AI活用に関するリスクを未然に防ぎ、人間中心・公平性・透明性・プライバシー保護などの原則を定めた民間企業のAI利活用指針です。

家庭でのルール作り

  1. 個人情報を守る
    氏名や住所、学校名など、プライバシーに関わる情報はAIに入力しないように教えましょう。
  2. 「なんでも信じる」はNG
    AIの答えは、いつも正しいとは限りません。「本当にそうかな?」と、自分の頭で考える習慣を育てることが大切です。
  3. 使う時間を決める
    便利だからといってAIに頼りすぎないように、使う時間にルールを設けましょう。
  4. 自分で考える力を大切にする
    AIはあくまで「サポート役」です。何でも任せっきりにせず、自分の頭で考えること、工夫することを忘れずに使っていきましょう。

鈴木さん

「生成AIへの関心が子どもたちの間でも高まる中、『いつから・どのように使わせるか』は悩みますよね。むやみに使用を制限するのではなく、子どもがAIに興味を持った段階で親がルールを整え、一緒に使いながら少しずつ慣れさせていくことが重要です」

AIによっては年齢制限があるので、使う前に確認してみましょう。たとえばGeminiやChatGPTなどの汎用AIは、基本的に13歳未満は利用できず、13~17歳の利用には保護者の同意が必要です。ただしGeminiは「 Google ファミリーリンク」を通じて13歳未満の子どもでも利用可能です。

次のページまずは使って、特徴を知ることから。AIリテラシーを高める実践方法