企業の91%が、自社のデータが何をAIに渡しているかを把握しないままAIを導入する理由
生成AIが大多数の組織に浸透したのは、テクノロジー部門を通じてではなく、生産性アプリケーションという裏口を通じてだった。Microsoft 365 Copilot、Gemini、コラボレーションプラットフォームに統合されたアシスタント——これらのツールは、従業員がすでに日常的に使用していた企業環境で有効化された。そして、誰も完全には条件を交渉していなかった、ある静かな実験が始まったのだ。
問題は言語モデルそのものにあるのではない。問題は、それらのモデルが実際の組織に接続されたとき、そこで何を「見つけるか」にある。
HubleによるAIのためのデータ準備状況に関するレポートによると、自社が人工知能を完全に運用できる状態にあると考えている企業は、わずか8.6%にとどまっている。残りの91%は、予算・時間・社内での評判を導入プロジェクトに費やしているにもかかわらず、実験と停滞のあいだのどこかに位置している。Deloitteが発表した2026年版「企業におけるAIの現状」レポートでは、組織の3分の2が生産性向上の恩恵を報告している一方で、インフラ・データ管理・人材・リスク管理における持続的な欠陥も記録されている。2025年にはAIツールへの業務上のアクセスが50%増加した。しかし、そのアクセスを管理するための準備は、同じペースでは進まなかった。
このギャップは偶発的なものではない。構造的なものだ。そして、ほとんどの組織が婉曲表現なしに語ろうとしない、ある原因が存在する。企業のデータは、そのほとんどが混乱した状態にある、という事実だ。
誰も見ていないとき、アシスタントが「見つけるもの」
企業が生産性環境内でAIコパイロットを有効化すると、そのシステムは新たなアクセスの扉を作るわけではない。すでに存在している扉を使うのだ。それを起動したユーザーが継承したアクセス権限で動作し、そのユーザーがアクセスできる場所にだけ到達する。しかし、そこには一つの重大な運用上の違いがある——それは機械の速度で実行されるということだ。
Microsoftはこの仕組みを正確にドキュメント化している。CopilotのアーキテクチャによればThisシステムはサービスの境界内で動作し、認証されたユーザーとそのユーザーがアクセスを許可されているコンテンツに限定されている。アクセス権限を破るのではない。実行するのだ。そして、多くのセキュリティチームが十分に明確に計算していなかったポイントがここにある。もし権限が本来あるべき状態よりも広く開かれていたならば、たった一つのプロンプトが、かつては数十もの手動による分散した検索を要していた情報を取得できてしまうのだ。
何年もの間、閉じられることなく放置された共有フォルダ。スポット的な分析のためにコピーされ、個人のドライブに残ったファイル。分類されずにアーカイブされた機密の添付ファイルを含む電子メール。誰も削除せず、誰もその存在を覚えていないために蓄積されたドキュメントリポジトリ。これが、AIアシスタントがアクセスを有効化される前に自社環境を監査していなかった組織に接続されたときに扱う、本当の意味での「原材料」だ。
リスクは言語モデルから生まれるのではない。モデルが引き継ぐデータアーキテクチャから生まれるのだ。
セキュリティチームはここで、従来のツールでは解決できない可視性の問題に直面する。データ損失防止(DLP)は出口ポイントを監視するために設計された。IDおよびアクセス管理システムは役割と権限を管理する。アクティビティログは、すでに起きたことを記録する。これらのツールはどれも、AIのクエリが一度の対話の中でドキュメント・メールボックス・データベース・ナレッジリポジトリをまたがって横断し、これまで接続されたことのなかった情報の断片を組み合わせたレスポンスを生成するときに何が起こるかを、マッピングするために構築されてはいない。
そのような横断から生まれるものは、完全に正当なものである場合もある。しかし、これまでどの事前コントロールも想定していなかった機密データの集中となる場合もある。
モデルの前にインフラを無視することの隠れたコスト
企業におけるAI導入に関する主流の語りには、根本的な歪みがある。モデル・インターフェース・ユースケースに焦点を当て、それらの意思決定を支えるデータが何であるか、そしてそれがどのような秩序・分類・ガバナンスの条件のもとにあるかという問いを後回しにしているのだ。
Gartnerは、組織の63%がAIプロジェクトを維持するために必要なデータ管理のプラクティスを持っていないと推定している。この数字は、なぜこれほど多くの展開が本番稼働の前に止まってしまうのかを説明するのに役立つ。モデルの限界でもなく、予算不足でもなく、基盤となるデータインフラがモデルが一貫性をもって動作するために必要なものを支えられないからだ。
このズレには、直接的な経済的影響がある。データ層の問題を先に解決せずに、ライセンス・研修・プロセス変革に投資している組織は、信頼できる形では使用できないキャパシティに対して支払いをしていることになる。さらに悪いことに、定量化できないリスクにさらされている。AIシステムが、未分類のデータ、過剰な権限、どこに何があるかの最新インベントリもない状態で動作している場合、規制上のエクスポージャーの窓口は、監査人や法務チームがまだ測定方法を学んでいる形で拡大していく。
この分野に特化したプロバイダーの一社であるPersistent Systemsは、自社のソリューションを三つの明確な軸を中心に構造化している。インフラの最適化、データ品質、そしてAIワークロードの安全なスケールアップだ。この順序は偶然ではない。スケールは最後に来るのであって、最初ではない。
Astutisが2026年レポートで記録しているところによれば、労働者の大多数が5年以内にAIが自分の職務に大きな影響を与えると予測しているが、実際に今日積極的に使用しているのはごく一部にとどまっている。その理由は文化的な抵抗ではない。準備が不十分な企業環境でAIツールを実際に使用した経験が、具体的な摩擦を生むからだ。矛盾した回答、異なるコンテキストの情報が混在する結果、システムが返してくるものが信頼できるかどうかの不確かさ。これらの摩擦は、モデルを改善しても解決しない。データを解決することで解決するのだ。
AIを高リスクなアイデンティティとして統治する
最もこの分野で進んでいる組織がすでに実行しており、他の組織もいずれは行わなければならない概念的な転換がある。AIエージェントを「ユーザーツール」としてではなく、「統治されたアイデンティティ」として扱うことだ。
コパイロットや自動化エージェントが企業システムにアクセスするとき、それはサービスアカウント・プログラミングインターフェース・ユーザーコンテキストを通じて行われる。アクセス権限を持ち、データに対して作用し、機密情報を含む可能性のあるアウトプットを生成する。これらすべての理由から、組織内で高い特権を持つあらゆるアイデンティティと同じ扱いを受けるべきだ。定期的なアクセスレビュー、最小権限の適用、行動のモニタリング、そして触れたものの追跡可能性だ。
ほとんどの企業のセキュリティプログラムは、これに対応するよう設計されていない。それらは人間とシステムを念頭に置いて設計されており、独自のロジックで動作し、情報源を組み合わせ、人間のオペレーターが常に予測できるとは限らないアウトプットを生成するAIエージェントを考慮に入れていない。
AIのためのデータ準備は、その運用的な意味において、少なくとも四つの具体的なアクションを必要とする。第一に、生産性プラットフォームに組み込まれたコパイロット・カスタムモデル・自動化エージェントを含む、環境内でアクティブなAIシステムの最新インベントリを構築し、それらがアクセスするデータソースにマッピングすること。第二に、クラウドストレージ・SaaSアプリケーション・レガシーリポジトリをまたいで、一貫した形で機密データを分類すること。なぜなら、その分類がなければコンプライアンスコントロールは機密情報と一般情報を区別できないからだ。第三に、AIエージェントに対して、高リスクのサービスアカウントに適用するのと同じレビューを適用すること。エージェントの権限は、蓄積された継承ではなく、実際の使用状況を反映すべきだ。第四に、そのデータコンテキストを、DLP・ID・アクセス管理・アクセスゲートウェイを含む既存のコントロールに接続し、ポリシーが抽象的なパターンではなく実際のエクスポージャーを反映するようにすること。
これらのステップのいずれも、AIモデルが改善されるまで待つ必要はない。それらは、すでに存在するインフラに関する意思決定なのだ。
データ準備は事前の段階ではなく、本当の賭けそのものだ
企業向けAI市場は年率30%以上で成長しており、2030年には1,500億〜2,000億ドル規模になると予測されている。そのような文脈において、競争優位は他社よりも早くAIを導入したことではなく、信頼を持って運用し、摩擦なくスケールアップできる基盤の上にAIを導入したことによってもたらされる。
データ準備を軽微な技術的形式的手続きとして扱ってきた組織は、本番環境において、AIシステムが一貫性のない結果を生み出すこと、法務チームがAIによって支援されたプロセスの規制コンプライアンスを証明できないこと、そしてセキュリティチームがどの情報が誰によって処理されているかという基本的な質問に答えられないことを、今まさに発見しつつある。
この瞬間が明らかにする変化は、その核心において技術的なものではない。ガバナンスの問題だ。人工知能は企業に対し、いかなるコパイロットも有効化される以前から存在していたデータの問題に向き合うことを強いている。未分類のデータ、見直されることなく積み重なったアクセス権限、不完全なインベントリ、検索が手動でゆっくりと行われる世界のために設計されたコントロール。変わったのは、これらの問題が現れたことではない。変わったのは、より速いシステムが動作する上で、もはやそれらを目に見える形で、かつ迅速な結果なしに無視し続けることができなくなったことだ。
このサイクルで最も有利なポジションを占める組織は、データを準備することがAI導入に先立つ事前ステップではないと理解した組織だ。それは正確には、導入が価値を生み出すのか、それとも単に、より速いシステムが動作するための、さらに多くのリスクの表面積を生み出すだけなのかを決定する、根底にある本質的な作業なのだ。











