
AI利用のサイバーリスク(2026初選出):仕事で気を付ける5つ
Executive Summary(TL;DR 5行)
- 2026の組織向け3位に「AIの利用をめぐるサイバーリスク」が初選出です。
- リスクは「うっかり漏えい」「権利」「鵜呑み」「悪用」の4つに分けられます。
- 便利さより先に“入れていい情報”を決めると安全です。
- 仕事では「人の確認」を外さない場面があります。
- ルールは難しくせず、短い文章で共有するのが続きます。
参考: https://www.ipa.go.jp/pressrelease/2025/press20260129.html
何が“危ない”と言われているのか(やさしく整理)
プレス発表では、AIに不十分な理解があると「意図しない情報漏えい」「他者の権利侵害」、 AIの出力を検証せず鵜呑みにする問題、AI悪用による攻撃の容易化や手口の巧妙化、などが挙げられています。
参考: https://www.ipa.go.jp/pressrelease/2025/press20260129.html
仕事で気を付ける5つ(中小・個人でも回せる)
1) 入れていい情報を決める
- 顧客名、取引先名、見積、契約、未公開の数字は原則入れない
- どうしても必要なら、伏せ字・置き換え(A社/B社)にする
2) 出力は“下書き扱い”にする
- 重要な文書(提案、契約、社外発信)は必ず人がチェック
- 数字・固有名詞・引用は特に確認
3) 「それっぽい詐欺」に注意する
- AIで文章が上手くなり、詐欺メールが見分けにくくなります
- 振込先変更・急ぎの依頼は、別ルート(電話など)で確認
4) 社内で使うAIツールを一本化する
- バラバラに使うと、設定やルールが追いつきません
- “ここだけOK”を決めるだけでも事故が減ります
5) 短いルールを1枚で配る
- 「入れていい情報/ダメな情報」
- 「重要業務は人が確認」
- 「怪しい依頼は別ルート確認」
この3行だけでも、現場の迷いが減ります。
まとめ+要約(5点)
- AIリスクは2026組織向けで初選出
- うっかり漏えい・権利・鵜呑み・悪用が論点
- まず「入れていい情報」を決める
- 出力は下書き、重要は人が確認
- 確認ルールを短くして浸透させる
参考: https://www.ipa.go.jp/pressrelease/2025/press20260129.html
FAQ(3問)
Q1. 仕事でAIを使うのは危ないから禁止が正解?
A. 禁止だけだと“隠れて使う”が起きがちです。短いルールで安全に使える形の方が現実的です。
Q2. 個人事業主でも必要?
A. 必要です。顧客情報・請求情報・契約の扱いは、規模に関係なく重要です。
Q3. 何を入れていいか判断に迷います
A. 迷うものは入れない、が基本です。判断基準を一緒に作ると、現場が早く回り始めます。
📩 「AIを使うルール(入れていい情報/ダメな情報)」を、自社の業務に合わせて1枚に整理したい方は、 こちらからご相談ください。