stub Sam Stone, premier, ceny w Opendoor – seria wywiadów – Unite.AI
Kontakt z nami

Wywiady

Sam Stone, premier, ceny w Opendoor – seria wywiadów

mm
Zaktualizowano on

Sam pasjonuje się tworzeniem produktów na styku finansów i uczenia maszynowego. Obecnie pełni funkcję Head of Product w Grupie Cenowej w firmie Otwarte drzwi, startup na późnym etapie, który wykorzystuje algorytmy do natychmiastowego kupowania i sprzedawania domów, oszczędzając właścicielom domów kłopotów i niepewności związanych z umieszczaniem ogłoszeń o domu i hostingu.

Co początkowo przyciągnęło Cię do uczenia maszynowego i nauki o danych?

Po studiach pracowałem w dużej firmie świadczącej usługi profesjonalne, która zatrudniała setki absolwentów szkół wyższych na tym samym stanowisku podstawowym. Kiedy zaangażowałem się w rekrutację, byłem zaskoczony i przerażony, jak bardzo różniły się opinie ludzi w firmie na temat tego, jakie cechy kandydata prowadzą do sukcesu. Wydawało się, że jest to naprawdę ważny problem, w którym brakowało przejrzystości. Byłem jednak podekscytowany faktem, że mieliśmy obszerne dane na temat poprzednich kandydatów do pracy i wyników nowych pracowników, które nigdy nie zostały powiązane ani dogłębnie przeanalizowane. Zacząłem więc nad tym pracować, traktując to jako problem statystyczny, używając podstawowych narzędzi, takich jak regresja liniowa. Z biegiem czasu projekt przekształcił się w startup, a stosowane przez nas metody stały się bardziej wyrafinowane. Na przykład chcieliśmy bezpośrednio przetwarzać nieustrukturyzowany dźwięk i tekst z wywiadów, co skłoniło nas do przyjęcia potężniejszych modeli uczenia maszynowego, takich jak sieci neuronowe.

Czy mógłbyś omówić automatyczny model wyceny Opendoor (OVM) i sposób, w jaki oblicza on szacunkową wartość nieruchomości?

Model wyceny Opendoor (OVM) jest podstawową częścią naszej działalności i stanowi podstawę wielu aplikacji ustalania cen na niższym szczeblu łańcucha dostaw.

Pod wieloma względami OVM zachowuje się jak typowy kupujący lub sprzedający — przegląda okolicę, w tym rodzaje i ceny ostatnio sprzedanych domów. Jeśli jednak chodzi o wycenę domów, zwłaszcza biorąc pod uwagę różnorodność domów w całych Stanach Zjednoczonych, nie wystarczy patrzeć wyłącznie na ceny porównywalnych ofert sprzedaży. To znacznie bardziej skomplikowane. Bierzemy pod uwagę wiele czynników, począwszy od powierzchni i przestrzeni na podwórku, po liczbę łazienek i sypialni, układ, ruchliwe drogi, ulepszenia i inne. OVM jest zasilany przez wiele źródeł danych, w tym informacje o podatku od nieruchomości, trendy rynkowe, a także wiele sygnałów charakterystycznych dla domu i okolicy. Poszukujemy również wcześniejszych dostosowań dokonanych przez człowieka w domach, aby obliczyć średnią wartość dostosowania. I jesteśmy w stanie udoskonalić te wartości za pomocą skali. W miarę jak gromadzimy coraz więcej danych dotyczących dostosowań ludzkich dla rynków, zbiór danych rośnie i poprawia wydajność OVM. To pętla sprzężenia zwrotnego, która z biegiem czasu stale poprawia wydajność.

Oprócz tego, że jest bardzo dokładny, musi działać z niskimi opóźnieniami i dużym pokryciem. Oznacza to, że za każdym razem, gdy wchodzimy na nowy rynek, musimy poszerzać możliwości OVM, aby mieć pewność, że będzie ono mogło służyć właścicielom domów w różnych dzielnicach i typach domów.

Jakie są różne stosowane metodologie uczenia maszynowego?

Kiedy zaczynaliśmy budować OVM, polegaliśmy głównie na liniowych modelach statystycznych, aby lepiej zrozumieć proces podejmowania decyzji przez naszych kupujących i sprzedających. Jednak z biegiem czasu OVM rozwinęło się i obecnie opiera się na sieci neuronowej, a konkretnie na architekturze zwanej siecią syjamską. Używamy tego, aby uwzględnić zachowania kupujących i sprzedających, w tym wybierać porównywalne domy, dostosowywać je i ważyć. Jest to istotne, ponieważ odkryliśmy, że aby osiągnąć wysoką dokładność, modele muszą odzwierciedlać te kluczowe kroki, które uczestnicy rynku realizują w swojej architekturze.

Jedną z wielu zalet korzystania z sieci neuronowej jest precyzja i elastyczność pozwalająca na przetwarzanie danych ze wszystkich rynków i wykrywanie szczegółowych niuansów lokalnych. W rezultacie, gdy Opendoor wprowadza na nowy rynek lub zwiększa zapasy na istniejącym rynku, możemy zastosować ten sam model, omijając większość prac związanych z infrastrukturą inżynieryjną związaną z tworzeniem nowego modelu produkcyjnego. Zamiast tego przepuszczamy nowe dane przez istniejący model, co znacznie skraca czas, jaki nasi inżynierowie spędzają nad procesem.

Oprócz sieci neuronowych w Opendoor wykorzystujemy także wiele innych metodologii uczenia maszynowego. Obejmuje to między innymi drzewa decyzyjne, techniki grupowania, systemy rankingowe i algorytmy optymalizacji.

Opendoor opiera się na ogromnych ilościach danych. Skąd te dane są zbierane?

Dane, które nasze algorytmy uznają za najcenniejsze, często są jednocześnie danymi najtrudniejszymi do znalezienia. Są to dane, które sami generujemy lub rozwijamy w ramach relacji własnościowych. Korzystamy z kombinacji danych wewnętrznych i danych dotyczących nieruchomości pochodzących od osób trzecich, w tym danych z ofert, takich jak data sprzedaży, liczba sypialni i łazienek, powierzchnia i inne. Ponadto przyglądamy się cechom wskazującym na wyjątkowość domów, a które mogą zapewnić wyłącznie ludzkie umiejętności, takim jak oświetlenie, hałas uliczny, jakość urządzeń i wykończeń oraz wiele innych. Zbieramy dane z domów, które są już na rynku, jak i z domów spoza rynku, w przypadku których właściciele udostępnili nam informacje.

Czy mógłbyś omówić niektóre wysiłki Opendoor mające na celu poprawę szybkości i niezawodności infrastruktury, która wspomaga przetwarzanie surowych danych?

Przed wprowadzeniem na rynek nowego produktu analizujemy dane historyczne z wielu lat. Dane wysokiej jakości są niezbędne do szkolenia zarówno naszych algorytmów, jak i naszych lokalnych operatorów, aby mieć pewność, że rozumieją różnice na tym rynku. Aby poprawić szybkość, jakość i niezawodność, opracowaliśmy elastyczne narzędzia do mapowania danych i narzędzia do automatycznej oceny pokrycia nowych pól danych. Dzięki tym narzędziom przyjęcie i weryfikacja dużych ilości historycznych danych dotyczących transakcji na rynku nieruchomości zajmuje nam kilka godzin lub dni, a nie tygodnie.

Kolejną strategią, w którą zainwestowaliśmy, jest proaktywne, zautomatyzowane monitorowanie jakości danych. Stworzyliśmy systemy, które sprawdzają rozkład danych, które pobieramy i przekształcamy na każdym etapie procesu, w czasie rzeczywistym. Na przykład, jeśli spodziewamy się, że na danym rynku średnio 20% nowych ofert to mieszkania, a dzisiaj 50% nowych ofert jest klasyfikowanych jako mieszkania, uruchomi to alert dla inżyniera, który powinien to sprawdzić.

W jaki sposób specjalistyczna ocena ludzka łączy się z algorytmami uczenia maszynowego, aby stworzyć pętle informacji zwrotnej o stale poprawiającej się wydajności?

Nasi wewnętrzni eksperci ds. cen odgrywają ogromną rolę w podejmowaniu przez nas decyzji cenowych, współpracując z naszymi algorytmami. Tam, gdzie maszyny nadal mają martwe punkty, wypełniają je nasi doświadczeni operatorzy, a my na nich polegamy na różnych etapach. Na przykład dodają lub weryfikują dane wejściowe, takie jak jakość niektórych projektów renowacji. Podejmują pośrednie decyzje dotyczące tego, które funkcje mogą być trudne do docenienia, a także podejmują decyzje skierowane do użytkownika, na przykład, które oferty powinniśmy zaakceptować. Element ludzki zawsze będzie miał kluczowe znaczenie w naszej strategii i wierzymy, że połączenie ekspertów i algorytmów jest najlepsze.

Czy moglibyście zdefiniować testowanie historyczne i omówić jego znaczenie na Opendoor?

Testowanie historyczne to sposób oceny dokładności modelu na podstawie danych historycznych. Na przykład możemy trenować model wyceny Opendoor na danych od stycznia 2015 r. do stycznia 2021 r. W tym kontekście „trenowanie” oznacza, że ​​przekazujemy do modelu dane historyczne, takie jak atrybuty domów, oraz wyniki, takie jak ceny sprzedanych domów. Z kolei model uczy się związku między danymi wejściowymi i wynikami. Następnie bierzemy ten model, który odzwierciedla nowo wyuczone zależności, i zasilamy inny zestaw danych historycznych, powiedzmy z lutego 2021 r. Ponieważ dane mają charakter historyczny, znamy wyniki i możemy zmierzyć, jak bardzo odbiegają one od prognozy.

Ten proces jest bardzo ważny w Opendoor i jest stosowany we wszystkich naszych produktach do uczenia maszynowego. Zmniejsza to ryzyko wystąpienia problemu zwanego nadmiernym dopasowaniem, czyli sytuacji, gdy model uczenia maszynowego identyfikuje wzorce w danych historycznych, których tak naprawdę nie ma. Na przykład fałszywe korelacje, które nie pomagają w prognozowaniu w świecie rzeczywistym. Oszczędza nam to również konieczności przeprowadzania kosztownych testów A/B w świecie rzeczywistym nowych produktów i strategii, które można wyeliminować na podstawie danych historycznych.

Czy jest coś jeszcze, czym chciałbyś się podzielić na temat Opendoor?

Zatrudniamy! Jeśli interesuje Cię budowanie przyszłości nieruchomości i/lub praca na styku fintech, uczenia maszynowego i produktów konsumenckich, aplikuj! Mamy otwarte stanowiska w różnych funkcjach i miastach. Sprawdź naszą stronę karier tutaj.

Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej powinni odwiedzić nas Otwarte drzwi.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.