Rescale 미팅 예약

인터뷰

Yotam Oren, Mona Labs CEO 겸 공동 창립자 – 인터뷰 시리즈

mm

게재

 on

Yotam Oren은 CEO 겸 공동 창립자입니다. 모나랩스, 기업이 실제 비즈니스 프로세스 및 애플리케이션에서 ML 모델이 작동하는 방식을 진정으로 이해함으로써 실험실 실험에서 확장 가능한 비즈니스 운영으로 AI 이니셔티브를 변환할 수 있는 플랫폼입니다.

Mona는 잠재적인 AI 편향을 감지하기 위해 보호된 데이터 세그먼트 전체와 비즈니스 기능의 맥락에서 기계 학습 모델의 동작을 자동으로 분석합니다. Mona는 업계 표준 및 규정을 충족하는 완전한 공정성 보고서를 생성하고 AI 애플리케이션이 규정을 준수하고 편견이 없다는 확신을 제공하는 기능을 제공합니다.

처음에 컴퓨터 과학에 끌린 이유는 무엇입니까?

컴퓨터 과학은 우리 가족에게 인기 있는 진로였기 때문에 실행 가능한 옵션으로 항상 염두에 두었습니다. 물론 이스라엘 문화는 매우 친기술적입니다. 우리는 혁신적인 기술자를 축하하며 저는 항상 CS가 저에게 성장과 성취를 위한 활주로를 제공할 것이라는 인식을 가지고 있었습니다.

그럼에도 불구하고 대학 나이에 이르러서야 개인적인 열정이되었습니다. 나는 중학교 때 코딩을 시작한 그런 아이들이 아니었다. 젊었을 때 나는 농구를 하느라 너무 바빠서 컴퓨터에 신경을 쓰지 못했습니다. 고등학교 졸업 후 저는 거의 5년 동안 군대에서 작전/전투 리더십 역할을 했습니다. 그래서 어떻게 보면 대학에서 전공을 선택해야 할 때 컴퓨터 과학에 대해 더 많이 배우기 시작했습니다. 즉시 내 관심을 끌었던 것은 컴퓨터 과학이 문제 해결과 언어 학습을 결합했다는 것입니다. 내가 특별히 관심을 가졌던 두 가지. 그때부터 나는 푹 빠졌다.

2006년부터 2008년까지 작은 신생 기업에서 매핑 및 내비게이션 작업을 하셨는데, 이 시대의 주요 성과는 무엇이었습니까?

Telmap에서 제 역할은 지도와 위치 데이터 위에 검색 엔진을 구축하는 것이었습니다.

이것은 기업에서 "빅 데이터"의 초창기였습니다. 우리는 그것을 그렇게 부르지도 않았지만 엄청난 데이터 세트를 수집하고 최종 사용자에게 보여줄 가장 영향력 있고 관련성 있는 통찰력을 도출하려고 노력했습니다.

내가 깨달은 놀라운 사실 중 하나는 회사(우리 포함)가 그들의 데이터(공개적으로 사용 가능한 외부 데이터는 말할 것도 없고)를 거의 사용하지 않는다는 것입니다. 새로운 통찰력, 더 나은 프로세스 및 경험에 대한 많은 잠재력이 있었습니다.

또 다른 시사점은 물론 더 나은 아키텍처, 더 나은 인프라 등에 의존하여 더 많은 데이터를 얻을 수 있다는 것입니다.

Mona Labs의 기원 이야기를 들려주실 수 있나요?

공동 설립자인 우리 세 사람은 경력 전반에 걸쳐 데이터 제품과 관련되어 있었습니다.

CTO인 Nemo는 제 대학 친구이자 급우이며 Google Tel Aviv의 첫 번째 직원 중 한 명입니다. 그는 그곳에서 검색 엔진 데이터를 기반으로 한 많은 고급 분석 및 머신 러닝 기능을 갖춘 Google Trends라는 제품을 시작했습니다. 다른 공동 창립자이자 최고 제품 책임자인 Itai는 Google에서 Nemo의 팀에 있었습니다(그와 저는 Nemo를 통해 만났습니다). 두 사람은 AI 기반 시스템이 초기 개발 및 테스트 후에 모니터링되지 않은 상태로 남아 있다는 사실에 항상 좌절했습니다. 생산 전에 이러한 시스템을 적절하게 테스트하는 데 어려움이 있음에도 불구하고 팀은 여전히 ​​예측 모델이 시간이 지남에 따라 얼마나 잘 수행되는지 알지 못했습니다. 또한 AI 시스템에 대한 피드백을 들을 수 있는 유일한 시간은 상황이 좋지 않아 개발 팀이 치명적인 문제를 해결하기 위해 "소방 훈련"을 요청받았을 때인 것 같습니다.

같은 시기에 저는 McKinsey & Co에서 컨설턴트로 근무했는데, 대기업에서 AI 및 빅 데이터 프로그램을 확장하는 데 있어 제가 본 가장 큰 장벽 중 하나는 해당 프로그램에 대한 비즈니스 이해관계자의 신뢰가 부족하다는 것이었습니다.

Nemo, Itai, 그리고 나 자신이 대화를 나누면서 여기에서 공통된 맥락이 분명해졌습니다. 업계에서는 생산 중인 AI/ML 시스템을 모니터링할 인프라가 필요했습니다. 우리는 비즈니스 이해 관계자의 신뢰를 높이고 AI 팀이 시스템이 어떻게 작동하는지 항상 제어하고 보다 효율적으로 반복할 수 있도록 이러한 가시성을 제공하는 비전을 제시했습니다.

그리고 그때 Mona가 설립되었습니다.

AI 투명성이 부족한 현재 문제는 무엇입니까?

많은 산업 분야에서 조직은 이미 AI 프로그램에 수천만 달러를 지출했으며 실험실 및 소규모 배포에서 초기 성공을 거두었습니다. 그러나 확장, 광범위한 채택 달성 및 비즈니스가 실제로 AI에 의존하도록 하는 것은 거의 모든 사람에게 엄청난 도전이었습니다.

왜 이런 일이 발생합니까? 글쎄요, 훌륭한 연구가 자동으로 훌륭한 제품으로 변환되지 않는다는 사실에서 시작됩니다(한 고객이 "ML 모델은 자동차와 같아서 실험실을 떠나는 순간 가치의 20%를 잃습니다"라고 말한 적이 있습니다). 훌륭한 제품에는 지원 시스템이 있습니다. 시간이 지남에 따라 품질을 유지하고 문제를 조기에 포착하여 효율적으로 해결하도록 보장하는 도구와 프로세스가 있습니다. 훌륭한 제품에는 지속적인 피드백 루프가 있으며 개선 주기와 로드맵이 있습니다. 결과적으로 훌륭한 제품에는 깊고 지속적인 성능 투명성이 필요합니다.

투명성이 부족하면 다음과 같이 됩니다.

  • 한동안 숨겨져 있다가 "소방 훈련"을 유발하는 표면으로 폭발하는 문제
  • 시간이 오래 걸리는 수동 조사 및 완화
  • 비즈니스 사용자와 스폰서의 신뢰를 얻지 못하고 궁극적으로 확장에 실패하는 AI 프로그램

예측 모델을 투명하고 신뢰할 수 있게 만드는 이면에는 어떤 문제가 있습니까?

투명성은 물론 신뢰를 얻는 데 중요한 요소입니다. 투명성은 다양한 형태로 나타날 수 있습니다. 사용자에게 신뢰 수준을 표시하거나 예측에 대한 설명/근거를 제공하는 것을 포함할 수 있는 단일 예측 투명성이 있습니다. 단일 예측 투명성은 주로 사용자가 예측에 익숙해지도록 돕는 데 목적이 있습니다. 그리고 예측 정확도, 예상치 못한 결과 및 잠재적인 문제에 대한 정보를 포함할 수 있는 전반적인 투명성이 있습니다. AI 팀은 전반적인 투명성이 필요합니다.

전반적인 투명성에서 가장 어려운 부분은 문제를 조기에 감지하여 재난이 발생하기 전에 수정 조치를 취할 수 있도록 관련 팀원에게 경고하는 것입니다.

문제를 조기에 감지하는 것이 어려운 이유:

  • 문제는 종종 작고 끓어오르다가 결국 표면으로 폭발합니다.
  • 데이터 원본과 같은 제어할 수 없거나 외부 요인으로 인해 문제가 시작되는 경우가 많습니다.
  • "세상을 분할"하는 방법에는 여러 가지가 있으며 작은 주머니에서 문제를 철저하게 찾는 것은 최소한 순진한 접근 방식으로 수행되는 경우 많은 소음(경고 피로)을 ​​초래할 수 있습니다.

투명성 제공의 또 다른 어려운 측면은 AI 사용 사례의 급격한 확산입니다. 이것은 단일 크기에 모든 접근 방식을 거의 불가능하게 만듭니다. 모든 AI 사용 사례에는 서로 다른 데이터 구조, 서로 다른 비즈니스 주기, 서로 다른 성공 지표, 종종 서로 다른 기술적 접근 방식과 스택이 포함될 수 있습니다.

따라서 기념비적인 작업이지만 투명성은 AI 프로그램의 성공에 매우 중요하므로 반드시 수행해야 합니다.

NLU/NLP 모델 및 챗봇용 솔루션에 대한 세부 정보를 공유해 주시겠습니까?

대화형 AI는 Mona의 핵심 분야 중 하나입니다. 우리는 언어 모델, 챗봇 등을 포함한 다양한 대화형 AI 사용 사례로 혁신적인 기업을 지원하게 된 것을 자랑스럽게 생각합니다.

이러한 사용 사례의 공통 요인은 모델이 고객과 가깝게(때로는 눈에 띄게) 작동하므로 일관성 없는 성능이나 나쁜 행동의 위험이 더 높다는 것입니다. Mona 모니터링 솔루션의 강점 영역인 세분화된 수준에서 시스템 동작을 이해하는 것이 대화형 AI 팀에게 매우 중요해졌습니다.

매우 독특한 Mona의 솔루션은 대화 그룹을 체계적으로 선별하고 모델(또는 봇)이 오작동하는 포켓을 찾는 것입니다. 이를 통해 대화형 AI 팀은 고객이 문제를 인지하기 전에 조기에 문제를 식별할 수 있습니다. 이 기능은 모니터링 솔루션을 선택할 때 대화형 AI 팀의 중요한 의사 결정 동인입니다.

요약하자면 Mona는 대화형 AI 모니터링을 위한 종단 간 솔루션을 제공합니다. 시간이 지남에 따라 시스템 동작에 대한 단일 정보 소스가 있는지 확인하는 것부터 시작하여 핵심 성과 지표를 지속적으로 추적하고 오작동에 대한 사전 예방적 통찰력을 통해 팀이 선제적이고 효율적인 수정 조치를 취할 수 있도록 합니다.

Mona의 통찰력 엔진에 대한 세부 정보를 제공할 수 있습니까?

확신하는. 동기 부여부터 시작하겠습니다. 인사이트 엔진의 목표는 노이즈를 생성하거나 경고 피로를 유발하지 않고 적절한 양의 컨텍스트 정보를 사용하여 사용자에게 이상 징후를 표시하는 것입니다.

인사이트 엔진은 독특한 분석 워크플로입니다. 이 워크플로에서 엔진은 데이터의 모든 세그먼트에서 이상 항목을 검색하여 문제가 아직 "작을 때" 전체 데이터 세트와 다운스트림 비즈니스 KPI에 영향을 미치기 전에 문제를 조기에 감지할 수 있습니다. 그런 다음 독점 알고리즘을 사용하여 이상 현상의 근본 원인을 감지하고 노이즈가 발생하지 않도록 모든 이상 현상이 한 번만 경고되도록 합니다. 지원되는 이상 유형에는 시계열 이상, 드리프트, 이상값, 모델 성능 저하 등이 포함됩니다.

인사이트 엔진은 Mona의 직관적인 노코드/로우코드 구성을 통해 고도로 사용자 정의할 수 있습니다. 엔진의 구성 가능성은 Mona를 시장에서 가장 유연한 솔루션으로 만들어 광범위한 사용 사례(예: 배치 및 스트리밍, 비즈니스 피드백/실측 여부, 모델 버전 간 또는 기차와 추론 간 등)를 포괄합니다. ).

마지막으로 이 통찰 엔진은 통찰을 볼 수 있는 시각화 대시보드와 근본 원인 분석 및 컨텍스트 정보의 추가 탐색을 가능하게 하는 일련의 조사 도구에 의해 지원됩니다. 통찰력 엔진은 또한 이메일, 협업 플랫폼 등을 포함하여 사용자 자신의 작업 환경에 통찰력을 제공할 수 있는 알림 엔진과 완전히 통합됩니다.

31월 XNUMX일, 모나 공개 새로운 AI 공정성 솔루션, 이 기능이 무엇이고 왜 중요한지에 대한 세부 정보를 공유해 주시겠습니까?

AI 공정성은 일반적으로 알고리즘과 AI 기반 시스템이 편향되지 않고 공평한 결정을 내리도록 보장하는 것입니다. AI 시스템의 편향을 해결하고 방지하는 것은 중대한 실제 결과를 초래할 수 있으므로 매우 중요합니다. AI의 중요성이 높아지면서 운전 자동화, 보다 정확한 질병 감지, 세계에 대한 이해 향상, 예술 창작 등 사람들의 일상 생활에 미치는 영향은 점점 더 많은 곳에서 가시화될 것입니다. 그것이 공정하고 편견이 없다는 것을 믿을 수 없다면 어떻게 그것이 계속 퍼지도록 내버려 두겠습니까?

AI 편향의 주요 원인 중 하나는 단순히 모델 훈련 데이터가 실제 세계를 완전히 표현할 수 있는 능력입니다. 이는 역사적 차별, 특정 그룹의 과소 대표 또는 의도적인 데이터 조작에서 비롯될 수 있습니다. 예를 들어, 주로 밝은 피부색을 가진 개인에 대해 훈련된 안면 인식 시스템은 더 어두운 피부색을 가진 개인을 인식할 때 더 높은 오류율을 가질 가능성이 있습니다. 마찬가지로, 좁은 범위의 소스에서 가져온 텍스트 데이터로 훈련된 언어 모델은 데이터가 종교, 문화 등과 같은 주제에 대한 특정 세계관으로 치우쳐 있는 경우 편향을 일으킬 수 있습니다.

Mona의 AI 공정성 솔루션은 AI와 비즈니스 팀에게 AI에 편견이 없다는 확신을 줍니다. 규제 부문에서 Mona의 솔루션은 팀이 규정 준수 준비를 할 수 있도록 준비할 수 있습니다.

Mona의 공정성 솔루션은 AI 데이터와 모델 및 실제 세계에 미치는 영향을 연결하는 다리인 Mona 플랫폼에 있기 때문에 특별합니다. Mona는 가장 포괄적인 공정성 평가를 제공하기 위해 AI 모델이 프로덕션에서 제공하는 비즈니스 프로세스의 모든 부분을 살펴보고 교육 데이터, 모델 동작 및 실제 실제 결과 간의 상관 관계를 확인합니다.

둘째, 관련 매개 변수를 제어하기 위해 데이터를 유연하게 세분화할 수 있는 독특한 분석 엔진이 있습니다. 이를 통해 올바른 컨텍스트에서 정확한 상관 관계 평가를 수행하여 Simpson의 Paradox를 피하고 모든 성능 메트릭과 보호된 기능에 대해 깊은 실제 "편향 점수"를 제공할 수 있습니다.

따라서 전반적으로 저는 Mona가 책임감 있는 AI를 구축하고 확장해야 하는 팀의 기본 요소라고 말하고 싶습니다.

AI의 미래에 대한 당신의 비전은 무엇입니까?

이것은 큰 질문입니다.

AI가 다양한 산업 분야와 사람들의 삶의 측면에 걸쳐 사용과 영향이 계속해서 증가할 것이라고 예측하는 것은 간단하다고 생각합니다. 그러나 상세하고 동시에 미래의 AI의 모든 사용 사례와 영향을 다루려고 하는 비전을 진지하게 받아들이기는 어렵습니다. 그 그림을 믿을 만하게 그릴 만큼 충분히 아는 사람은 아무도 없기 때문입니다.

즉, 우리가 확실히 알고 있는 것은 AI가 더 많은 사람들의 손에 들어가 더 많은 목적을 수행할 것이라는 것입니다. 따라서 거버넌스와 투명성의 필요성이 크게 증가할 것입니다.

AI에 대한 실제 가시성과 작동 방식은 두 가지 주요 역할을 합니다. 첫째, 사람들에게 신뢰를 심어주고 더 빠른 채택을 위해 저항 장벽을 제거하는 데 도움이 될 것입니다. 둘째, AI를 운영하는 사람이 통제 불능 상태가 되지 않도록 하는 데 도움이 될 것입니다.

훌륭한 인터뷰 감사합니다. 자세한 내용을 알고 싶은 독자는 방문하세요. 모나랩스.

unite.AI의 창립 파트너이자 포브스 기술 위원회, 앙투안은 미래파 예술가 AI와 로봇공학의 미래에 열정을 갖고 있는 사람입니다.

그는 또한 증권.io, 파괴적인 기술에 대한 투자에 초점을 맞춘 웹사이트입니다.