Amit Sharma、CDataのCEO兼創業者 – インタビューシリーズ
Amit Sharma、 CData SoftwareのCEO兼創業者は、CDataを初期のスタートアップ段階からデータ接続と統合の世界的リーダーへと導いてきた技術系経営者です。InfosysとElixarでのソフトウェアエンジニア、/n Softwareでのテクニカルアーキテクト、そしてその後CDataのCTOとしての役割を経て、企業データアクセスとインフラストラクチャに関する深い専門知識を築いてきました。2014年にCEOに就任して以来、組織がシステム間でデータを接続、統合、活用する方法を簡素化するというCDataの使命を牽引し、同社を現代的なデータ移動の基盤層として位置づけることに貢献しています。CData Software は、データアクセスと接続ソリューションの主要プロバイダーです。そのセルフサービスデータ製品と接続プラットフォームは、広く使用されている数百のオンプレミスおよびクラウドアプリケーションにわたるライブデータへの普遍的なアクセスを提供します。世界中の何百万人ものユーザーが、高度な分析のサポート、クラウド導入の加速、より接続されたデータ駆動型組織の構築のためにCDataを頼りにしています。あらゆるユーザーが利用可能で、あらゆるアプリケーション内でアクセスでき、あらゆる規模の企業に対応できるように設計されたCDataは、企業がデータにアクセスし利用する方法を再定義しています。あなたはキャリアをインドのInfosysで始め、その後米国のエンタープライズソフトウェアに移行されました。その時期の初期の教訓で、今日のリーダーシップのあり方にまだ影響を与えているものは何ですか?Infosysでの時間は、大規模エンタープライズテクノロジーの要求—その複雑さ、信頼性の必要性、そして大組織が技術的問題にどう取り組むか—に早くから触れる機会を与えてくれました。それは構造とエンタープライズグレードの品質に対する深い敬意を形作りました。しかし、米国のスタートアップに移ったとき、私はスピード、俊敏性、そして直接的な影響を与える能力の中で生き生きとしていることに気づきました。今日、この二重の背景が、私がCData Softwareをどのように率いるかを導いています。つまり、エンタープライズグレードの基準と堅牢性を堅持しながら、シンプルさ、実世界での使いやすさ、迅速な実行を重視する、リーンで迅速に動く文化を育んでいるのです。CDataのCEOとして10年以上経た今、同社を初期段階からグローバル企業へとスケールさせる上で、最も重要だったマインドセットやアプローチの変化は何でしたか?私にとって最大の変化は、テクノロジーの構築者として考えることから、組織の構築者として考えることへの移行でした。初期の頃、私の焦点はほぼ完全に製品にありました。それが洗練され、信頼性が高く、現実の問題を解決することを確実にすることです。CDataが成長するにつれ、優れたソフトウェアだけでは不十分であること、優れた人材、強いリーダー、そして速度を落とさずにスケールするプロセスが必要であることを学ばなければなりませんでした。それは、採用へのより早期の投資、チームへの権限委譲、販売、サポート、運用にわたる反復可能なシステムの構築を意味し、同時に私たちのエンジニアリング文化を守り続けることでもありました。マインドセットの変化は、私の仕事が単に優れたテクノロジーを作ることではなく、成長するグローバルチームによって一貫して優れたテクノロジーが構築される環境を作ることだと気づいたことです。CDataは長年、「あらゆる場所のあらゆるデータへのアクセスを簡素化する」ことに焦点を当ててきました。業界がAIネイティブアプリケーションへとさらに深く進む中で、その使命はどのように進化してきましたか?最初から、CDataにおける私たちの使命は、使い慣れた標準化されたインターフェースを使用してデータを普遍的にアクセス可能にすることでした。なぜなら、イノベーションの最大のボトルネックはストレージやコンピュートではなく、アクセスであると信じていたからです。その核となる考えは変わっていませんが、文脈は変化しました。組織が分析からクラウドへ、そして現在はAIへと移行するにつれ、断片的で一貫性のないデータアクセスのコストは増加する一方です。進化したのは私たちの責任です。それはもはや、アプリケーションをデータに接続することだけではなく、データが信頼でき、リアルタイムで、ますます複雑で分散した環境全体で使用可能であることを確実にすることです。AIの時代において、アクセスだけでは不十分です。データは、数週間ものカスタムエンジニアリングなしですぐに使用可能でなければなりません。AIネイティブアプリケーションが標準となるにつれ、私たちの使命は、デフォルトでデータをAI対応にすることを含むように拡大しました。それは、構造化データとSaaSデータソース全体で、一貫したセマンティクス、高性能な接続性、ガバナンスを考慮したアクセス、リアルタイム統合を可能にし、モデルやエージェントが脆弱なポイント統合や古くなったコピーではなく、新鮮で信頼できる情報を扱えるようにすることを意味します。実際的には、データが存在する場所とAIシステムが動作する場所の間の摩擦を排除することに焦点を当てており、チームが実験から本番環境への移行をより迅速に行えるようにしています。私たちは自らを単なる接続プロバイダーではなく、インテリジェントなアプリケーションを可能にするシステムを静かに支える、AI駆動型企業のための基盤的なデータレイヤーと見なしています。生成AIが加速する中で、「AI対応データ」とはあなたにとって実際に何を意味し、また、組織がその概念を最も誤解していると感じる点はどこですか?私にとって、「AI対応データ」とは、カスタムの配管作業の層なしに、人間と機械の両方がアクセス可能で、信頼でき、最新であり、理解できるデータを意味します。それは単にデータをレイクやウェアハウスに移動させることではありません。システム、モデル、エージェントが、標準化され管理されたインターフェースを通じて、適切な時に適切なデータに一貫してアクセスできることを確実にすることです。AI対応性は、データがどこに保存されているかよりも、それが発見され、クエリされ、信頼され、リアルタイムで統合できるかどうかにかかっています。その基盤がなければ、最も先進的なモデルでさえ、不完全または古い情報に基づいて動作することになります。組織がこの概念を誤解していると私が感じる点は、中央集権化が自動的に対応性を意味すると仮定していることです。チームはしばしば、データが単一のプラットフォームに統合されれば「AI対応」になったと信じますが、実際には新しいサイロを作り出しただけなのです。他の組織は、データ品質、セマンティクス、接続性という、現実世界のAIシステムの成否を分ける地味な問題に対処せずに、ツールに過剰投資します。AIはモデルのせいで失敗するのではありません。乱雑で、アクセス不能で、または時代遅れのデータのために失敗するのです。勝ち残る組織は、データ対応性を一時的な移行プロジェクトではなく、運用上の規律として扱う組織でしょう。あなたの新しい調査『The State of AI Data Connectivity: 2026 Outlook』によると、AIリーダーのわずか6%が自社のデータインフラがAIに対して完全に準備ができていると信じています。なぜこの対応性のギャップはこれほど大きいとお考えですか?また、これは業界の現在の軌道について何を物語っていると思いますか?このギャップがこれほど大きいのは、ほとんどの組織が、データをAIで使用可能にするための投資よりもずっと前に、データの収集と保存に投資してきたからです。過去10年間、企業はデータレイク、ウェアハウス、パイプラインを構築してきましたが、データが一貫性があり、リアルタイムで、システム全体で利用可能であることを保証する、まとまりのあるアクセスレイヤーを構築することはほとんどありませんでした。その結果、リーダーたちは、AIを実際のワークフローに導入し始めると、その基盤となるインフラがAIが要求する速度、規模、信頼性をサポートできないことに気づきます。6%という数字は、野心の欠如を反映しているのではなく、AIが従来の分析ではそれほど重要ではなかったが常に存在していた弱点を露呈するという現実を反映しています。このデータが業界について教えてくれることは、私たちがAI導入曲線の初期段階にあり、遅れているわけではないということです。組織はアプリケーション層で積極的に実験していますが、成功はその下にあるデータ基盤の近代化にかかっていることに今気づき始めています。私たちは、派手なパイロットプロジェクトから運用対応性—標準化されたアクセス、管理された統合、リアルタイム接続性—へと焦点が移行する是正段階に入っています。勝者となるのは、最も多くの概念実証を構築した企業ではなく、それらの実験を大規模に本番環境に移行するのに十分な速さでデータインフラを近代化できる企業でしょう。調査結果はまた、AIチームの71%が時間の4分の1以上を「データ配管作業」に費やしていることも示しています。あなたの見解では、この作業のどの部分が単なる技術的負債ではなく、実際に戦略的だと言えますか?標準インターフェースを通じたデータへの持続可能なアクセスを作り出し、最初からスケーラビリティとガバナンスを考慮して設計することに関わる「データ配管作業」の一部は、間違いなく戦略的です。一貫した接続性、共有されたセマンティクス、信頼できる統合パターンへの投資は、後から来るあらゆるアプリケーションとモデルにわたって利益をもたらす基礎的な作業です。問題は、ほとんどのチームがその種の配管作業をしていないことです。彼らは使い捨てのパイプラインを再構築し、脆弱なコネクタを書き、一度だけ問題を解決する統合をパッチ適用しています。それは進歩を装った技術的負債です。戦略的なものとは、将来の摩擦を減らすあらゆるものです。カスタムコードを標準に置き換えること、再利用可能なデータサービスを構築すること、そしてチームとユースケース全体でスケールする方法でシステムを接続することです。配管作業が目に見えなくなり、繰り返し可能になると、それはAIチームへの負担ではなく、推進力になります。本当の目標は、データに費やす時間を減らすことではありません。同じデータ問題に何度も何度も時間を費やすのをやめることです。報告書の印象的なデータポイントの一つは、企業の46%が現在、単一のAIユースケースに対して6つ以上のデータソースへのリアルタイムアクセスを必要としていることです。これはあなたが顧客に見ていることと一致しますか?また、そのレベルの接続性を困難にしているものは何ですか?はい、それは私たちが顧客に見ていることと密接に一致しています。現代のAIユースケースは、予測分析、レコメンデーションエンジン、自律的なワークフローのいずれであっても、単一のシステムに依存することはほとんどありません。企業は、意味のある洞察を生み出すために、ERP、CRM、SaaSアプリ、ストリーミングプラットフォーム、レガシーデータベースを組み合わせる必要があることがよくあります。課題は単にソースの数だけではありません。その多様性、異なるプロトコル、フォーマット、更新頻度、そしてこのデータがAIモデルが消費するためにリアルタイムで利用可能であるという期待です。このレベルの接続性を困難にしているのは、従来の統合アプローチが、AIが要求する規模、速度、信頼性のために設計されていなかったことです。使い捨てのコネクタとバッチパイプラインでは、単に追いつけません。真のリアルタイムアクセスには、標準化され管理されたインターフェース、システム全体での一貫したセマンティクス、データ品質と可用性を確保するための監視が必要です。その基盤がなければ、チームはAIソリューションを構築するよりもパイプラインの火消しに多くの時間を費やすことになり、イノベーションを遅らせ、リスクを導入します。成功する組織は、接続性を単なる技術的な雑用ではなく、戦略的な能力として扱う組織です。報告書は、成熟したAIデータインフラの定義的特徴として、セマンティック一貫性、コンテキスト、接続性を強調しています。組織はこれらの優先順位をどのように順序立てて考えるべきですか?順序立てについて考える際、組織は接続性から始めるべきです。データがシステム全体で確実にアクセス可能でなければ、他のすべては無関係になります。AIモデルは、到達できないものから学ぶことはできません。すべての重要なデータソースにわたる標準化され管理された接続を確立することは、その後続くすべてのものの基盤を築きます。そのレイヤーがなければ、チームは将来的により多くの作業を生み出す脆弱な使い捨てパイプラインを構築することになります。接続性が整ったら、セマンティック一貫性が次の優先事項になります。データには共通の言語が必要であり、それによって複数のソースからの情報が正しく解釈され、意味のある形で結合できるようになります。コンテキストは自然に続きます。値だけでなく、ビジネスプロセス内でのその意味、タイミング、関係性を理解することは、AIモデルが正確で実行可能な予測を行えるようにします。これらの要素を構造化された順序—まず接続性、次にセマンティクス、そしてコンテキスト—として扱うことで、組織はスケールし、信頼性の高い本番環境対応のインテリジェンスをサポートするAI対応データインフラを構築することができます。AIネイティブソフトウェアプロバイダーは現在、従来のベンダーよりも約3倍多くの外部統合を必要としています。この拡大するギャップを駆動しているものは何ですか?また、これはソフトウェアが向かっている方向について何を明らかにしていますか?この拡大するギャップは、AIそのものの性質によって駆動されています。AIネイティブアプリケーションは、複数のソースからの多様でリアルタイムなデータによって繁栄します。単一のシステムやスイート内で動作することが多い従来のソフトウェアとは異なり、AIモデルはERPシステム、CRMプラットフォーム、SaaSアプリ、ストリーミングソースなどにわたる情報を取り込み、相関させ、分析する必要があります。各統合は、AIが正確な予測、推奨、または自動化されたアクションを生成するのに十分なコンテキストとカバレッジを与えるために不可欠です。このトレンドは、ソフトウェアが孤立したアプリケーションから、相互接続されたインテリジェントなエコシステムへと移行していることを明らかにしています。勝者となるのは、単独でうまく機能する製品ではありません。データが存在する場所であればどこでもシームレスにアクセスし統合できるプラットフォームとなるでしょう。実際的には、それは接続性、標準化、リアルタイム統合がもはやあれば良いものではなく、AIネイティブソフトウェアが真の価値を提供するための基盤的な能力であることを意味します。今後5年先を見据えて、AIの成功にとって最も重要なボトルネックになるとあなたが信じるものは何ですか—接続性、リアルタイムパイプライン、セマンティックモデリング、ガバナンス、それとも全く別の何かですか?今後を見据えると、私はガバナンスとセキュリティがAIの成功にとって最も重要なボトルネックになると信じています。接続性とリアルタイムパイプラインは基盤として残りますが—AIモデルはアクセスできるデータと同じくらいしか効果的になれません—組織は、管理されていないAIは持続不可能であり、潜在的に危険であることに急速に気づきつつあります。AIが実験段階から本番環境に移行し、重要なビジネス決定に影響を与え始めると、バイアス、コンプライアンス違反、データ漏洩、運用エラーのリスクが指数関数的に増加します。課題はもはや単にデータを移動することではありません—それは、適切なデータを、適切なコントロールとともに、適切なシステムに、追跡可能で監査可能な方法で移動することです。最初から強力なガバナンスフレームワークとセキュリティプロトコルを組み込むことに失敗した組織は、増大する規制圧力、評判リスク、そして最終的には信頼もスケールもできないAIシステムに直面することになるでしょう。私たちはすでに初期の兆候を見ています。データの系譜、アクセス制御、または進化する規制へのコンプライアンスを確保できないため、AIを導入することを躊躇する企業です。今から5年後に最も成功する組織は、ガバナンスとセキュリティを後付けではなく、AIの核心的な推進力として扱う組織でしょう。確かに、データを流すためには接続性とリアルタイムパイプラインが必要です—しかし、ガバナンスとセキュリティが整っていなければ、そのデータは資産ではなく負債になります。AIの未来は、単なる速度や規模についてではなく、データスタックのあらゆる層における信頼、説明責任、責任ある導入についてなのです。素晴らしいインタビューをありがとうございました。さらに詳しく知りたい読者は、CData Software を訪れてください。