インタビュー
Yotam Oren, CEO & Cofounder of Mona Labs – Interview Series

Yotam Oren, は、Mona Labs の CEO & Cofounder であり、Mona Labs は、企業が AI のイニシアチブを実験室の実験からスケーラブルなビジネス運用に変換できるようにするプラットフォームです。Mona は、ビジネス機能とアプリケーションのコンテキストで、保護されたデータ セグメント全体のマシン ラーニング モデルの動作を自動的に分析し、潜在的な AI バイアスを検出します。Mona は、業界標準と規制に準拠する完全な公平性レポートを生成する機能を提供し、AI アプリケーションがコンプライアントでバイアスがないことを保証します。
あなたがコンピューター サイエンスに惹かれたきっかけは何ですか?
コンピューター サイエンスは私の家族で人気のあるキャリア パスでしたので、いつも頭の隅にありました。もちろん、イスラエル文化はテクノロジーに非常に優れています。私たちは革新的なテクノロジーを祝福しています。私は常に、コンピューター サイエンスが成長と成果のためのランウェイを提供することを考えていました。
しかし、それが個人的な情熱になったのは、大学時代に達したときでした。私は中学校のときからコーディングを始めた子供ではありませんでした。私の青春期はバスケットボールに忙しく、コンピューターには目が向けられませんでした。高校卒業後、約 5 年間、軍隊の作戦/戦闘指揮役で過ごしました。つまり、私は実際にコンピューター サイエンスについて学び始めたのは、大学で学部を選択しなければならなかったときでした。私が注目したのは、コンピューター サイエンスが問題を解決し、言語(または言語)を学ぶことを組み合わせたものであるということでした。2 つの私が特に興味を持っていたことです。その後、私はそれに夢中になりました。
2006 年から 2008 年まで、小規模なスタートアップでのマッピングとナビゲーションについて、どのような経験をしましたか?
私の役割は、Telmap で地図とロケーション データの上に検索エンジンを構築することでした。
これらは「ビッグ データ」の企業における非常に初期の日々でした。私たちはそれを「ビッグ データ」と呼んでいませんでしたが、巨大なデータセットを取得し、エンド ユーザーに最も影響を与え、関連性の高い洞察を提供しようとしていました。
私が得たとても印象的な認識の 1 つは、企業(私たちを含む)がそのデータを非常に少ないだけ使用しているということです(外部の公開データも含む)。新しい洞察、より良いプロセス、経験が得られる可能性は多かったのです。
もう 1 つの認識は、より多くのデータを取得するには、もちろん、より優れたアーキテクチャ、インフラストラクチャなどが必要であるということでした。
Mona Labs の創設ストーリーを共有できますか?
3 人の共同創設者は、キャリアを通じてデータ製品に関わってきました。
Nemo は、最高技術責任者であり、私の大学の友人であり、同窓生であり、Google Tel Aviv の最初の従業員の 1 人です。彼は、検索エンジン データに基づく高度な分析とマシン ラーニングを使用した Google Trends という製品を立ち上げました。Itai は、もう 1 人の共同創設者であり、最高製品責任者であり、Nemo の Google チームの一員でした(彼と私は Nemo を通じて出会いました)。2 人とも、AI ドリブンのシステムが初期開発とテスト後に監視されないことに常に苛立ちを感じていました。開発チームが問題を解決するために「消防ドリル」を行うために呼ばれるまで、システムがどのくらい良く機能しているかについてフィードバックを得ることは困難でした。
同じ頃、私は McKinsey & Co. のコンサルタントでしたが、大企業で AI およびビッグ データ プログラムをスケールアップするための最大の障害の 1 つは、ビジネス ステークホルダーがこれらのプログラムに対して持つ信頼の欠如であると見ていました。
Nemo、Itai、そして私にとって、業界が必要としていたことは、AI/ML システムを監視するためのインフラストラクチャを提供することです。ビジネス ステークホルダーの信頼を高め、AI チームがいつでもシステムの状況を把握し、より効率的に反復することができるように、可視性を提供するというビジョンを私たちは作りました。
それが Mona が設立されたときです。
AI 透明性の欠如による現在の問題は何ですか?
多くの業界では、組織はすでに AI プログラムに数千万ドルを投資し、研究室および小規模な展開では初期の成功を収めています。しかし、スケールアップし、広範な採用を実現し、ビジネスが実際に AI に頼ることは、ほぼすべての企業にとって巨大な課題です。
これが起こっている理由は、優れた研究が自動的に優れた製品に翻訳されないことから始まります(ある顧客は私たちに、「ML モデルは自動車のように、研究室を出ると価値が 20% 失われる」と言いました)。優れた製品には、品質が時間の経過とともに維持されることを保証するツールとプロセスがあり、問題が早期に検出され、効率的に対処されることが保証されます。優れた製品には、継続的なフィードバック ループもあり、改善サイクルとロードマップがあります。したがって、優れた製品には、深いパフォーマンスの透明性が必要です。
透明性が欠如すると、次のようになります:
- 一時的に隠れた問題が表面化し、「消防ドリル」を引き起こします
- 手動による長時間の調査と緩和
- ビジネス ユーザーとスポンサーに信頼されず、最終的にスケールアップに失敗する AI プログラム
予測モデルを透明性があり、信頼できるものにすることの課題は何ですか?
透明性は、信頼を得るための重要な要素です。透明性は、単一の予測の透明性の形式で、ユーザーに信頼レベルを表示したり、予測の理由/根拠を提供したりすることができます。単一の予測の透明性は、ユーザーが予測に快適に感じるのを助けることに主眼を置いています。全体の透明性には、予測の精度、予期せぬ結果、潜在的な問題に関する情報が含まれます。全体の透明性は、AI チームに必要です。
全体の透明性の最も課題的な部分は、問題を早期に検出して、問題が深刻化する前に、関連するチーム メンバーが対処できるようにすることです。
問題を早期に検出するのは難しいです:
- 問題は小さなものから始まり、最終的に表面化するまでに時間がかかります。
- 問題は、データ ソースなどの外部要因によって発生することがあります。
- 世界を「分割」する方法は多数あり、小さなポケットで問題を徹底的に検索すると、多くのノイズ(アラート疲労)が発生する可能性があります(少なくとも、ナイーブなアプローチで行われる場合)。
透明性を提供するもう 1 つの課題は、AI のユース ケースの驚くほどの増加です。これにより、ワン サイズ フィット オール アプローチはほぼ不可能になります。各 AI ユース ケースには、異なるデータ構造、異なるビジネス サイクル、異なる成功メトリック、および異なる技術アプローチとスタックが含まれる場合があります。
したがって、これは大きな課題ですが、透明性は AI プログラムの成功にとって非常に基本的なものです。したがって、必ず実行する必要があります。
NLU / NLP モデルおよび Chatbot の解決策について詳細を共有できますか?
会話 AI は Mona のコアの垂直の 1 つです。私たちは、会話 AI のさまざまなユース ケースを備えた革新的な企業をサポートすることを誇りに思っています。言語モデル、Chatbot などが含まれます。
これらのユース ケースに共通する要素は、モデルが顧客に近く(そして時には目に見えるように)動作することです。したがって、不一致なパフォーマンスまたは悪い動作のリスクが高くなります。会話 AI チームがシステムの動作を詳細に理解することが重要です。これは、Mona の監視ソリューションの強みの 1 つです。
Mona のソリューションが独自のものであるのは、会話のグループを体系的に分析して、モデル(またはボット)が不正に動作するポケットを見つけることです。これにより、会話 AI チームは問題を早期に特定し、顧客が気づく前に対処できます。この機能は、会話 AI チームが監視ソリューションを選択する際の重要な決定要因です。
まとめると、Mona は会話 AI の監視のためのエンド トゥ エンド ソリューションを提供します。システムの動作に関する単一の情報源を確保することから始まり、継続的な重要なパフォーマンス インジケーターの追跡、不正な動作のポケットに関するプロアクティブな洞察を提供し、チームが事前に効率的な対処措置を講じることができます。
Mona のインサイト エンジンについて詳細を共有できますか?
もちろん。動機から始めましょう。インサイト エンジンの目的は、ユーザーにノイズやアラート疲労を引き起こすことなく、適切なコンテキスト情報とともに異常を提示することです。
インサイト エンジンは、ユニークな分析ワークフローです。このワークフローでは、エンジンはデータのすべてのセグメントで異常を検索し、問題が「小さい」状態で早期に検出します。問題がデータセット全体とダウンストリームのビジネス KPI に影響を与える前に、異常の根本原因を検出して、異常が 1 回だけアラートされるようにします。サポートされる異常の種類には、時系列異常、ドリフト、外れ値、モデル劣化などがあります。
インサイト エンジンは、Mona の直感的なノーコード/ローコード構成を介して高度にカスタマイズできます。エンジンの構成可能性により、Mona は市場で最も柔軟なソリューションとなり、バッチとストリーミング、ビジネス フィードバック/グラウンド トゥルースの有無、モデル バージョン間またはトレーニングと推論間など、幅広いユース ケースをカバーします。
最後に、このインサイト エンジンは、インサイトを表示できる視覚化 ダッシュボードと、根本原因分析とコンテキスト情報のさらに詳しい調査を可能にする一連の調査ツールによってサポートされます。インサイト エンジンはまた、ユーザーの作業環境 (電子メール、コラボレーション プラットフォームなど) にインサイトを提供する通知エンジンと完全に統合されています。
1 月 31 日、Mona は 新しい AI 公平性ソリューションを発表しました。詳細を共有できますか?
AI の公平性とは、アルゴリズムと AI ドリブンのシステムが偏見のない公平な決定を下すことを保証することです。AI システムの偏見を解決し、防止することは、重大な現実世界の結果をもたらす可能性があるため、非常に重要です。AI の影響力が高まると、自動運転、病気のより正確な検出、世界の理解の向上、芸術の創作など、人々の日常生活に多くの場所で影響が見られるようになります。もし、それが公平で偏見のないものであることを信頼できない場合、どうやってそれを許可することができますか?
AI システムの偏見の主な原因の 1 つは、モデル トレーニング データが現実世界を完全に表現できる能力です。これは、歴史的な差別、特定のグループの代表性の欠如、またはデータの意図的な操作から生じる可能性があります。たとえば、主に明色の人の顔でトレーニングされた顔認識システムは、暗色の人の顔の認識に高いエラー率をもたらす可能性があります。同様に、狭い範囲のソースからのテキスト データでトレーニングされた言語モデルは、テキスト データが特定の世界観、宗教、文化、トピックなどに偏っている場合に偏見を発展させる可能性があります。
Mona の AI 公平性ソリューションにより、AI およびビジネス チームは、AI が偏見のないものであることを確信できます。規制された業界では、Mona のソリューションはチームを準拠性の準備にします。
Mona の公平性ソリューションは特別なものです。Mona のプラットフォームは、AI データとモデル、およびそれらの現実世界の影響の間のブリッジです。Mona は、公平性の最も包括的な評価を提供するために、AI モデルが提供するビジネス プロセスのすべての部分を、トレーニング データ、モデル動作、および実際の現実世界の結果と関連付けます。
2 番目に、関連性のあるパラメータを制御するためにデータを柔軟にセグメント化できる独自の分析エンジンがあります。これにより、適切なコンテキストで正確な相関関係の評価が可能になり、シンプソンのパラドックスを避け、任意のパフォーマンス メトリックと保護された機能に対して実際の「偏見スコア」を提供します。
全体として、私は Mona が責任ある AI を構築してスケールアップする必要があるチームにとって基本的な要素であると述べるでしょう。
AI の将来のビジョンは何ですか?
これは大きな質問です。
私は、AI がさまざまな業界のセクターと人々の生活の側面で使用され、影響力を増すと予測します。しかし、詳細で、同時に AI のすべてのユース ケースと影響をカバーしようとするビジョンを信頼できるものにすることは難しいです。誰もがそれを信頼できるように描くには十分な情報を持っていないからです。
ただし、わかっていることは、AI がより多くの人々の手に渡り、より多くの目的を果たすことになるということです。したがって、ガバナンスと透明性の必要性は大幅に増加します。
AI とその動作に関するリアルな可視性は、2 つの主な役割を果たします。まず、人々に信頼を与え、抵抗の障壁を克服して採用を促進します。2 番目に、AI を操作する人々が、AI が制御を失わないことを保証するのに役立ちます。
素晴らしいインタビュー、詳細を知りたい読者は Mona Labs を訪問してください。












