Connect with us

Anton Onufriienko, Dyrektor Zarządzający w Devart – Wywiad

Wywiady

Anton Onufriienko, Dyrektor Zarządzający w Devart – Wywiad

mm

Anton Onufriienko, Dyrektor Zarządzający w Devart, jest executive i operatorem z głębokim doświadczeniem w skalowaniu firm oprogramowania, generowaniu wzrostu przychodu i kierowaniu dużymi zespołami cross-funkcjonalnymi w dziedzinie oprogramowania jako usługi, oprogramowania przedsiębiorstw i usług finansowych. W trakcie swojej kariery przeszedł od budowania organizacji sprzedaży i uruchamiania startupów do nadzorowania pełnych operacji P&L dla głównych jednostek biznesowych, w tym największej dywizji Devart z ponad 130 pracownikami. Przed objęciem stanowiska Dyrektora Zarządzającego pełnił funkcję Chief Revenue Officer i Head of Sales w Devart, gdzie kierował strategią go-to-market, transformacją cen i inicjatywami wzrostu międzynarodowego. Jest również CEO TMetric, platformy do śledzenia czasu i rentowności, która pomaga firmom usługowym zyskać klarowność operacyjną.

Devart to firma oprogramowania specjalizująca się w rozwoju bazy danych, łączności danych, integracji i narzędzi produktywności dla deweloperów, administratorów baz danych, analityków i zespołów przedsiębiorstw. Założona w 1997 roku, firma jest najlepiej znana ze swojego pakietu narzędzi do zarządzania bazami danych dbForge, który obsługuje główne systemy baz danych, w tym SQL Server, MySQL, Oracle i PostgreSQL. Devart rozwija również rozwiązania łączności danych, takie jak ODBC, ADO.NET, Python i Delphi, a także Skyvia, swoją platformę integracji danych w chmurze bez kodu dla ETL, automatyzacji, kopii zapasowych i workflow. Firma obsługuje ponad 500 000 użytkowników na całym świecie, w tym dużą część firm z listy Fortune 100, i coraz bardziej koncentruje się na integrowaniu funkcji zasilanych przez sztuczną inteligencję do swoich produktów za pomocą narzędzi takich jak dbForge AI Assistant, który pomaga deweloperom generować, optymalizować, debugować i wyjaśniać zapytania SQL przy użyciu języka naturalnego.

Przeszedłeś od budowania i prowadzenia zespołów sprzedaży do zarządzania pełnymi operacjami P&L i obecnie kierujesz największą jednostką biznesową Devart. Jak ta podróż ukształtowała twoje podejście do integracji sztucznej inteligencji z strategią produktową i podejmowaniem decyzji na dużą skalę?

Sprzedaż nauczyła mnie mierzyć ROI wszystkiego. Przechodząc do roli CRO, skalowałem tę dyscyplinę na wszystkie funkcje. Zarządzanie jednostką biznesową zmusiło mnie do zastosowania tego do samej sztucznej inteligencji.

Mam praktyczne podejście do sztucznej inteligencji. Nie jestem sceptyczny: trzy z czterech naszych zakładów produktowych na 2026 rok są rodzime dla sztucznej inteligencji. Ale wierzę, że hossa przeszkadza w osiąganiu prawdziwych, trwałych wyników.

Istnieje mem, który podsumowuje, gdzie branża często się myli. Firmy zamieniają subskrypcje SaaS za 400 dolarów na narzędzia własne, które kosztują 1000 dolarów miesięcznie w opłatach za API i wymagają ciągłych napraw. To nie jest prawdziwa zmiana, to tylko drogi pokaz.

Przysłowie, które wyniosłem ze sprzedaży, jest proste: każda inicjatywa musi się sama finansować, lub ginie. Zarządzam naszym wdrożeniem sztucznej inteligencji w ten sam sposób, w jaki kiedyś zarządzałem terytorium sprzedaży. Jawny ROI za każdy workflow, trzyfazowe wdrożenie i udokumentowany wpływ przed skalowaniem.

Naszą gwiazdą północną jest przychód na pracownika, a naszym celem jest podwojenie go do końca 2028 roku. Nie zamykasz tej luki, rekrutując nowych pracowników. Zamykasz ją, zmieniając wygląd pracy, a sztuczna inteligencja jest jedynym realistycznym mechanizmem na taką skalę.

Mój filtr na każdą inicjatywę sztucznej inteligencji, wewnętrzną lub produktową, jest taki sam: jaki jest zmierzony wartość, kto za to płaci i jak wiemy, że działa? Cokolwiek, co nie spełnia tych trzech pytań, nie powinno być w produkcji. Koszt popełnienia błędu szybko się kumuluje, a większość firm to odkryje drogą drogą.

Devart zbudował silną reputację wokół narzędzi baz danych i produktywności deweloperów. Jak wbudowujesz sztuczną inteligencję w te produkty w sposób, który dostarcza prawdziwą wartość, a nie tylko powierzchowną automatyzację?

Nasi użytkownicy to hardcore specjaliści techniczni: administratorzy baz danych, starsi inżynierowie, architekci danych. Wykrywają powierzchowną automatyzację w ciągu kilku sekund i niechętnie kupują marketingowe zabawki przebrane za innowacje. Dwa lata temu, gdy hossa sztucznej inteligencji osiągnęła szczyt, a konkurenci wyścigali się, aby dodać panele czatu do każdego elementu interfejsu, była realna pokusa, aby im folować. Widziałem ten wzorzec wcześniej, w mobilności, w chmurze, w niskim kodzie, i odmówiłem powtarzania go.

Disciplina była prosta: wartość klienta na pierwszym miejscu. Budowanie funkcji sztucznej inteligencji, których nikt nie prosił, które nie dostarczają prawdziwej wartości, jest najgorszym możliwym użyciem skończonych zasobów inżynieryjnych. Jest to szczególnie prawdziwe, gdy twoja publiczność może od razu zauważyć różnicę.

Co się zmieniło w 2026 roku, to to, że sztuczna inteligencja przeszła od hossy do prawdziwej rewolucji technicznej. Przerwa między tym, co te systemy mogły robić w 2023 roku, a tym, co mogą robić dzisiaj, nie jest incrementalna. To zupełnie inna kategoria możliwości. Możemy teraz rozwiązywać problemy, które wcześniej były naprawdę nierozwiązywalne: bezpieczny dostęp do danych przedsiębiorstwa dla agentów sztucznej inteligencji, kontekstowa inteligencja baz danych w środowisku deweloperskim, a także autonomiczna analityka biznesowa, która nie wymaga dedykowanego analityka.

Te są nowe linie produktowe, które istnieją, ponieważ sztuczna inteligencja uczyniła podstawowy problem rozwiązywalnym. To jest poprzeczka, do której się przywiązujemy: prawdziwy produkt sztucznej inteligencji to taki, z którego usunięcie warstwy sztucznej inteligencji łamie produkt. Branża przez dwa lata nazywała panele czatu “produktami sztucznej inteligencji”. To są funkcje, nie produkty.

Braliśmy więcej czasu, bo chcieliśmy to zrobić dobrze. Następne dwanaście miesięcy pokaże, czy ta dyscyplina się opłaci.

Sztuczna inteligencja coraz częściej pisze, optymalizuje i debuguje kod. Jak widzisz zmianę roli deweloperów pracujących z bazami danych w ciągu najbliższych kilku lat?

Wartość znajomości składni SQL szybko maleje. Jeśli sztuczna inteligencja może wygenerować złożone zapytanie JOIN w ciągu kilku sekund i zidentyfikować brakujące indeksy z logów w ciągu kilku minut, wartość inżyniera nie pochodzi już z pisania kodu SQL. Ta część pracy staje się towarem.

Ale jest tu kluczowy niuans, który zwolennicy całkowitej automatyzacji zawsze pomijają. Błąd sztucznej inteligencji na froncie może być błędem przycisku, który można odświeżyć. Błąd sztucznej inteligencji w bazie danych może być skasowanym środowiskiem produkcyjnym, wyciekiem PII lub transakcyjnym wyłączeniem całego biznesu.

Bazy danych przechowują stan. Nie wybaczają halucynacji.

Ta asymetria całkowicie zmienia rolę. W ciągu najbliższych dwóch lub trzech lat deweloperzy baz danych i administratorzy baz danych ewoluują z kodujących w architektów i audytorów. Ich praca przechodzi do trzech rzeczy:

  • Projektowania niezawodnych architektur, których sztuczna inteligencja nie może sama zrozumieć, ponieważ brakuje jej kontekstu biznesowego.
  • Ustawiania twardych barier i zabezpieczeń dla agentów sztucznej inteligencji, które dotykają systemów produkcyjnych.
  • Przeglądania i audytowania kodu generowanego przez maszyny przed jego wprowadzeniem do bazy danych.

Mentalny model, do którego wracam: inżynierowie będą zarządzać armiami asystentów sztucznej inteligencji. Narzędzia takie jak dbForge muszą ewoluować z tradycyjnych środowisk deweloperskich w centra dowodzenia i audytu. Praca staje się mniej związana z ręcznym pisanie kodu SQL i bardziej z przeglądaniem tego, co generuje sztuczna inteligencja, walidacją i egzekwowaniem granic, których sztuczna inteligencja nie może bezpiecznie przekroczyć.

Profesjonalna szansa jest znacząca. Deweloperzy, którzy podnoszą się do architektury i nadzoru, pomnożą swoją wartość na rynku. Stają się niezastąpioną warstwą między produktywnością sztucznej inteligencji a bezpieczeństwem produkcji. Premia za ekspertyzę baz danych nie znika; przechodzi w górę w kierunku projektowania, zarządzania i oceny, co jest dokładnie tym, gdzie sztuczna inteligencja nie może działać sama.

Jakie są największe ograniczenia obecnych narzędzi sztucznej inteligencji w zarządzaniu bazami danych dzisiaj, i gdzie widzisz najbardziej znaczące przełomy?

Obecna sztuczna inteligencja wciąż utknęła w powierzchownej automatyzacji. Generowanie podstawowego zapytania SELECT lub kodu szablonu nie jest już imponujące. Większym problemem jest to, że większość systemów sztucznej inteligencji wciąż zachowuje się jak ślepi pisarze, a nie architekci systemów. Mogą generować składnię, ale nie rozumieją środowiska, w którym działają. Prawdziwy przełom następuje, gdy sztuczna inteligencja zaczyna rozumieć kontekst, zależności, stan i logikę biznesową razem.

Widzę trzy główne ograniczenia, które utrudniają sztucznej inteligencji w środowiskach baz danych.

Po pierwsze, jest problem kontekstu. Duże modele językowe mogą widzieć schematy, DDL i nazwy kolumn, ale nie rozumieją planów wykonania, fragmentacji indeksów, wzorców dystrybucji danych ani rzeczywistej logiki biznesowej za danymi. Bez tego głębszego zrozumienia wiele porad optymalizacyjnych staje się statystycznym zgadywaniem przebrane za ekspertyzę.

Po drugie, jest problem halucynacji, a przedsiębiorstwa mają prawie zero tolerancji dla niego na poziomie bazy danych. Halucynowany JOIN może spowolnić systemy produkcyjne. Błędna aktualizacja może skasować krytyczne rekordy. Na tym poziomie nawet małe błędy dokładności stają się bardzo kosztowne bardzo szybko.

Trzecia kwestia to bezpieczeństwo i zarządzanie. Żadna poważna firma nie wklei schematów produkcyjnych lub PII do publicznego narzędzia sztucznej inteligencji bez silnych gwarancji dotyczących izolacji danych i kontroli. Dopóki dostawcy nie rozwiążą tego właściwie, przyjęcie sztucznej inteligencji w branżach regulowanych pozostanie ograniczone.

Prawdziwe przełomy nastąpią, gdy sztuczna inteligencja przejdzie od generowania składni do działania jak tło architekta lub analityka.

Jedną częścią tego jest warstwa semantyczna: przechodzenie od surowych nazw tabel do rzeczywistego znaczenia biznesowego. Nie tylko “tabela_użytkownicy”, ale zrozumienie pojęć takich jak grupy klientów, ryzyko churnu lub trendy LTV w Q3.

Inną zmianą jest sztuczna inteligencja działająca jak doświadczony administrator baz danych w tle. Ciągłe analizowanie obciążeń, identyfikowanie wąskich gardeł, sugerowanie indeksów, wykrywanie ryzykownych zapytań i łapanie problemów przed awarią systemów.

Potem masz operacje maszyna-maszyna, gdzie autonomiczne agenci monitorują obciążenie bazy danych, testują strategie optymalizacji w izolowanych środowiskach i wdrażają ulepszenia pod nadzorem ludzkim.

To są te rozwoje, które ukształtują następne pięć lat narzędzi baz danych.

Ze swojego doświadczenia w prowadzeniu przychodu i strategii go-to-market, jak sztuczna inteligencja zmienia modele cenowe, pakowanie produktów i pozyskiwanie klientów w firmach oprogramowania?

Tradycyjna książka go-to-market jest złamana. Widzimy to w naszych własnych liczbach i w całej kategorii narzędzi deweloperskich.

Śmierć klasycznego pozyskiwania. Pomimo znaczących popraw w rankingach wyszukiwania naszych produktów w 2026 roku, uderzamy w rzeczywistość zero-kliknięć. Wyszukiwanie sztucznej inteligencji dostarcza odpowiedzi bezpośrednio na stronie wyników i pozbawia witryny ruchu. Silne rankingi nie przekładają się już na leady tak, jak to miało miejsce nawet dwa lata temu.

Pięć lat temu silna strategia treści była wystarczająca, aby napędzać wzrost. Dzisiaj jest to minimum. LLM-y ważą siłę marki, pozytywne wzmianki i gęstość społeczności, gdy tworzą odpowiedzi. Jeśli twoja marka nie jest widoczna i zaufana, systemy sztucznej inteligencji przestają ją konsekwentnie wyświetlać. Nie tylko tracisz ruch. Znikasz z procesu zakupowego całkowicie. Co gorsza, cały rynek panikuje i przechodzi do płatnych reklam, co powoduje, że CPC osiąga absurdalne poziomy i cicho niszczy ekonomię jednostkową większości firm SaaS.

Ta zmiana uderza szczególnie hard w tradycyjne firmy tworzące narzędzia deweloperskie. Kanały pozyskiwania oparte na SEO, które finansowały generację B2B SaaS, tracą wydajność szybko. Każdy, kto nadal polega na nich jako na podstawowym impulsie wzrostu, musi aktywnie budować alternatywy: dystrybucję ekosystemu, społeczność i partnerstwa.

Ewolucja cen: od miejsc do PLG 3.0. Wchodzimy w następną fazę PLG. Cenowanie per-seat zaczyna się łamać, gdy jeden agent sztucznej inteligencji może wykonać pracę wielu pracowników. W takim środowisku pobieranie opłat za głowy przestaje mieć sens. Firmy, które nie przepakują produktów wokół wartości, a nie głów, stracą MRR w ciągu najbliższych 24 miesięcy.

Następny krok to PLG 3.0: moment, w którym autonomiczny agent sztucznej inteligencji, a nie człowiek, ocenia, testuje i kupuje oprogramowanie przedsiębiorstwa. Powszechne przyjęcie tego wzorca jest jeszcze kilka lat przed nami, ale architektura produktów i cen dla kupującego maszyny jest zadaniem na 2026 rok, a nie 2028.

Wiele organizacji ma trudności z przejściem od eksperymentowania z sztuczną inteligencją do realnego wpływu produkcyjnego. Jakie są kluczowe czynniki, które determinują, czy inicjatywy sztucznej inteligencji naprawdę się udają?

Większość funkcji sztucznej inteligencji zawodzi, zanim zostaną zbudowane. Zawodzą one w pokoju, w którym ktoś mówi “potrzebujemy sztucznej inteligencji w tym produkcie”, nie dlatego, że użytkownicy o to proszą, ale dlatego, że zarząd chce historii sztucznej inteligencji lub marketing uważa, że przyciągnie nową publiczność. To jest pierwotny grzech większości inicjatyw sztucznej inteligencji, i kształtuje wszystko, co następuje.

Ciągle widzę te same błędy powtarzane w firmach, które mają trudności z przeniesieniem sztucznej inteligencji z eksperymentowania do realnego wpływu produkcyjnego.

Pierwszym błędem jest budowanie funkcji sztucznej inteligencji, których nikt nie prosił. Gdy funkcja sztucznej inteligencji jest nakazana bez prawdziwej potrzeby użytkownika, zespół pracuje wstecz od technologii, aby wymyślić przypadku użycia. Wynik jest przewidywalny: panel czatu przymocowany do istniejącego interfejsu, autocomplete, który przeszkadza, przycisk “podsumuj”, który produkuje gorszy wynik niż użytkownik mógłby napisać sam. Te funkcje są wysyłane, dostają prasę, i cicho nie spełniają prognoz adopcji. Głębsza szkoda polega na tym, że pochłaniają pojemność inżynieryjną, która powinna pójść do funkcji, o które użytkownicy naprawdę proszą.

Drugim problemem jest to, że zespoły znacznie niedoceniają różnicę między czystymi danymi demo a prawdziwymi danymi produkcyjnymi. Dema sztucznej inteligencji działają na czystych, opracowanych przykładach. Produkcja działa na prawdziwym bałaganie danych klienta: duplikaty, brakujące pola, dziesięć różnych sposobów nazwania tego samego produktu, piętnaście lat przypadków brzegowych. Model, który osiąga imponującą dokładność w ocenie, może się znacznie pogorszyć na danych na żywo, a większość zespołów nie odkrywa tego, dopóki użytkownicy nie zaczną skarżyć. Koszt tego odkrycia w zaufaniu produkcyjnym jest rzadko odzyskiwalny.

Innym powszechnym punktem awarii jest badanie użytkowników. Standardowe wywiady produktowe nie działają dla funkcji sztucznej inteligencji. Użytkownicy nie mogą artykułować, czego oczekują od sztucznej inteligencji, ponieważ nie wiedzą, co jest możliwe. Zadawanie pytania “czy użyjesz sztucznej inteligencji, aby zrobić X?” dostaje grzeczne odpowiedzi tak, które nie mają żadnej wartości predykcyjnej dla adopcji. Skuteczne badanie produktu sztucznej inteligencji wymaga pokazywania prototypów, obserwowania prawdziwego użycia i mierzenia, czy użytkownicy wracają, gdy nowość minie. Mało zespołów produktowych odbudowało swoją praktykę badawczą dla tego. Nadal stosują podręczniki z 2019 roku do problemów z 2026 roku.

I wreszcie, wiele firm mierzy aktywność sztucznej inteligencji, a nie wpływ biznesowy. “Dwieście osób użyło funkcji sztucznej inteligencji w tym tygodniu” to metryka adopcji, a nie metryka wpływu. Prawdziwy wpływ to skrócony czas cyklu, poprawiona jakość, wygenerowany przychód lub usunięty koszt. Jeśli nie możesz poprowadzić prostej linii od funkcji sztucznej inteligencji do liczby w P&L, nie masz wpływu produkcyjnego. Masz drogi zestaw.

Jest piąty czynnik, który staje się coraz bardziej krytyczny i który większość zespołów produktowych całkowicie pomija.

Zgodność i ścieżka budowy bez sztucznej inteligencji. Znaczący udział użytkowników przedsiębiorstw w finansach, opiece zdrowotnej, rządzie, obronie i sektorze prawnym działa pod zasadami, które zabraniają lub ograniczają funkcje sztucznej inteligencji w oprogramowaniu dostawców. Jeśli twój produkt ściśle łączy sztuczną inteligencję z podstawowym doświadczeniem, bez możliwości wyłączenia lub obejścia jej, nie rozszerzasz swojej publiczności, dodając sztuczną inteligencję. Tracisz segment swojej istniejącej.

To jest dokładnie problem, który rozwiązujemy z łącznością sztucznej inteligencji. Zespoły compliance w branżach regulowanych nie sprzeciwiają się samej sztucznej inteligencji. Sprzeciwiają się opuszczaniu danych poza ich obwodem. Rozwiązaniem nie jest usunięcie sztucznej inteligencji; jest to dostarczenie tym organizacjom architektury sztucznej inteligencji, która spełnia ich ograniczenia. Dlatego łączność sztucznej inteligencji jest dostarczana jako narzędzie na miejscu: zdolność sztucznej inteligencji pozostaje, dane nigdy nie opuszczają infrastruktury klienta, a zakup przechodzi przegląd w pierwszej rundzie, zamiast w trzeciej.

Zespoły, które to robią dobrze, architekturę zgodności od samego początku. Zespoły, które to robią źle, odkrywają problem podczas przeglądu zakupu, gdy już jest zbyt późno.

Devart działa w wielu ekosystemach baz danych. Jak sztuczna inteligencja może pomóc uprościć rosnącą złożoność zarządzania danymi w różnych platformach?

Ból jest realny. Typowa firma z listy Fortune 500 prowadzi jednocześnie osiem do dwunastu różnych silników baz danych: legacy Oracle dla finansów, PostgreSQL dla nowych usług, SQL Server dla operacji, Snowflake lub BigQuery dla analityki i coraz częściej magazyn wektorowy dla osadzania. Każdy z nich ma swój własny dialekt, własne narzędzia, własny reżim zarządzania. Deweloper, który dołącza do tego środowiska, może spędzić trzy miesiące, tylko ucząc się, gdzie dane mieszkają i kto ma do nich dostęp.

Sztuczna inteligencja nie rozwiązuje tej złożoności sama. Zwiększa to, co dostaje. Osiem niepołączonych baz danych produkuje osiem niepołączonych zestawów płytkich sugestii. To jest dokładnie tryb awarii, jaki widzimy w większości wdrożeń przedsiębiorstw na stosach.

Okazja leży w warstwie kontekstu, która siedzi między agentami sztucznej inteligencji a podstawowymi bazami danych. Jedna, która mówi do wszystkich, normalizuje metadane, egzekwuje jednolite zasady zarządzania i ujawnia czysty interfejs MCP, aby każdy agent sztucznej inteligencji, czy to Claude, GPT, czy wewnętrzny model, działał w całym majątku z jednolitymi zasadami.

To jest architektura, którą budujemy w kierunku łączności sztucznej inteligencji: serwer MCP na miejscu z obsługą wielu baz danych, warstwa semantyczna, która ujmuje definicje biznesowe raz, a nie zmusza każdego agenta sztucznej inteligencji do ponownego ich uczenia, kontrola dostępu oparta na rolach na poziomie operacji SQL i pełne rejestry inspekcji.

Uproszczenie nie jest darmowe. Ktoś musi jeszcze modelować warstwę semantyczną i ustalać zasady. Ale ta praca odbywa się raz, a nie wielokrotnie dla każdego agenta sztucznej inteligencji, którego dodajesz.

Jak sztuczna inteligencja zmienia wewnętrzną współpracę i podejmowanie decyzji między produktami, inżynierią, marketingiem i sprzedażą?

Większość tarcia cross-funkcjonalnego było po prostu ludźmi, którzy czekali na informacje od innych zespołów. Sztuczna inteligencja rozpręża to tarcie szybciej, niż jakikolwiek framework zarządzania mógłby.

Zmiany są praktyczne i natychmiastowe.

W produkcie i inżynierii: menedżer produktu zadaje pytanie dotyczące bazy danych w prostych słowach biznesowych, “jaka jest variance LTV w naszych najlepszych trzech poziomach cenowych?”, i dostaje odpowiedź, z którą można coś zrobić, na miejscu, zamiast składać wniosek do analityki i czekać trzy dni.

W marketingu i danych: analiza kohorty odbywa się w linii, a nie przez kolejkę wniosków. Menedżer marketingu pyta, dostaje numery i buduje kampanię, wszystko w tym samym poranku.

W sprzedaży i inżynierii: odpowiedzi techniczne dla potencjalnych klientów nie wymagają już planowania rozmowy z seniorem inżynierem. Reprezentant sprzedaży dostaje wiarygodną odpowiedź techniczną w czasie rzeczywistym, a cykl sprzedaży się kurczy.

Decyzje przechodzą w rozmowę, a nie w follow-up. Wzorzec “pozwól, że się wycofam z tym numerem” umiera. Spotkania kurczą się, ponieważ sztuczna inteligencja obsługuje pre-reads i podsumowania, które wcześniej pochłaniały pierwszą połowę każdej sesji.

To wymusza głębszą zmianę zarządzania, i jest to ta, której większość zespołów kierowniczych niedocenia.

Każda firma twierdzi, że jest zorientowana na wyniki. Spójrz pod pokrywę i większość nadal działa na proxy-metrykach: punkty historii, linie kodu, zamknięte bilety, godziny zalogowane. Używaliśmy aktywności jako proxy dla wartości, ponieważ wartość była trudna do pomiaru. Sztuczna inteligencja łamie to proxy na zawsze. Gdy agent może napisać 10 000 linii kodu lub zamknąć 500 biletów wsparcia w minutę, mierzenie aktywności staje się niebezpiecznie mylące.

Przechodzimy wyraźnie do Prawdziwego Zarządzania Wynikami, gdzie wyniki są mierzone ściśle przez wynik i ocenę. Okrutne w praktyce, ponieważ większość systemów wydajności nie jest zbudowana do tego. Ludzie, którzy ukrywali się za wysoką aktywnością, stają się widoczni natychmiast, a kierownictwo musi być gotowe działać na tej widoczności.

Strukturalną konsekwencją jest płaskie schematy organizacyjne. Warstwy koordynacji i routingu informacji kurczą się. Organizacje, które dostosują się najszybciej, będą działać ze strukturalnie mniejszą liczbą ludzi przy wyższym współczynniku wydajności.

Czy z powodu rozwoju sztucznej inteligencji i narzędzi bez kodu zmierzamy ku przyszłości, w której zarządzanie bazami danych staje się dostępne dla użytkowników nie-tech?

Istnieje niebezpieczna konfuzja w branży. Ludzie traktują bazę danych dla małego projektu i bazę danych dla przedsiębiorstwa jako to samo. Nie są.

Dla małych projektów zielonych pole, demokratyzacja jest już tutaj. Osobiście zbudowałem małe aplikacje od podstaw bez głębokiej wiedzy na temat zarządzania bazami danych. Jeśli cały twój schemat mieści się w oknie kontekstowym LLM, sztuczna inteligencja działa jak magia. Obywatele-deweloperzy budujący wewnętrzne narzędzia na małą skalę będą prawdziwą i rosnącą kategorią.

Rzeczywistość przedsiębiorstw jest zupełnie inna. Ogromne bazy danych dziedziczą ten sam problem, co ogromne monolityczne kodowanie: ścianę kontekstu. Nie możesz zmieścić piętnastu lat ewolucji schematu, zależności międzybazowych i niestandardowej logiki wyzwalaczy w podpowiedzi. Gdy sztuczna inteligencja traci kontekst na dużej bazie danych, halucynacje nie degradują się łagodnie. Mnożą się wykładniczo.

Ryzyko, które jest niedyskutowane, jest fałszywą ufnością w skali. Interfejsy języka naturalnego są wyjątkowo dobre w produkcji wiarygodnie wyglądających, ale subtelnie błędnych odpowiedzi. Jeśli zapytanie SQL ma błąd składni, dostajesz komunikat o błędzie. Jeśli interfejs języka naturalnego myli “aktywnych klientów”, ponieważ twoje dane mają sześć różnych definicji aktywności, dostajesz numer. Numer wygląda dobrze. Może być błędny o 30%. Użytkownik nie ma sposobu, aby to wiedzieć.

Więc nie, zarządzanie bazami danych w przedsiębiorstwie nie staje się placem zabaw dla użytkowników nie-tech.

Cywilny administrator baz danych to mit w skali.

Przyszłość należy do ekspertów architektów danych, którzy używają profesjonalnych narzędzi, aby zbudować infrastrukturę, która pozwoli sztucznej inteligencji działać bezpiecznie na górze.

Rozwiązanie strukturalne to warstwa semantyczna: kontrolowany słownik, w którym definicje biznesowe są ustalone raz i ponownie wykorzystywane w każdej interakcji sztucznej inteligencji. To jest rdzeń architektury, którą budujemy w Insightis. Bez niego dostępność staje się odpowiedzialnością.

Spójrzając w przyszłość, jaki wygląda “rodzimy” zestaw narzędzi deweloperskich sztucznej inteligencji, i jak zespoły powinny zacząć przygotowywać się do tej zmiany dzisiaj?

Rodzimy zestaw narzędzi sztucznej inteligencji nie jest panelem czatu przymocowanym do środowiska deweloperskiego. Większość tego, co jest sprzedawane jako “rodzime dla sztucznej inteligencji” dzisiaj, to interfejs czatu plus model autocomplete. To jest minimum, nie destynacja.

Dla mnie prawdziwie rodzimy zestaw narzędzi sztucznej inteligencji potrzebuje trzech rzeczy.

Po pierwsze, sztuczna inteligencja potrzebuje głębokiego kontekstu. Musi rozumieć twoją bazę kodu, twoją infrastrukturę, twoje historyczne decyzje i twoje środowisko danych w sposób ciągły, a nie tylko przez wklejone podpowiedzi w oknie czatu. Większość obecnych narzędzi nie spełnia tego testu. Ich kontekst resetuje się z każdą sesją, a użytkownik płaci koszt odbudowywania go stale.

Po drugie, same narzędzia muszą komunikować się ze sobą prawidłowo. Twoje środowisko deweloperskie musi mówić do twojej bazy danych, bazy danych do twojego stosu obserwowalności, a CI/CD do twojego przeglądu sztucznej inteligencji itd. Protokół Kontekstu Modelu staje się standardową warstwą tutaj, z 97 milionami pobranych SDK miesięcznie w Q1 2026, w górę z 100 000 pod koniec 2024 roku. To jest 970-krotny wzrost w ciągu piętnastu miesięcy i najstromszy krzywa adopcji, jaką widziałem w infrastrukturze deweloperskiej.

Po trzecie, produkcyjna sztuczna inteligencja wymaga poważnych barier bezpieczeństwa. Podgląd promienia wybuchu przed operacjami destrukcyjnymi. Analiza zależności. Automatyczne plany rollback. Rejestry inspekcji domyślnie. Sztuczna inteligencja bez tego jest w porządku dla prototypów i niebezpieczna w produkcji.

Jak się przygotować, konkretnie.

Przeglądaj swój stos wobec tych trzech składników. Czy każde narzędzie ujawnia API i MCP? Czy mówi do innych, czy siedzi w izolacji? Czy ma kontrolę bezpieczeństwa? Narzędzia, które nie spełniają dwóch z trzech, są krótkoterminowymi aktywami.

Buduj infrastrukturę kontekstu teraz. Udokumentuj schemat, definicje biznesowe i decyzje architektoniczne w formatach czytelnych maszynowo. Bogaty kontekst nie jest zbudowany w kwartale. Zespoły, których sztuczna inteligencja ma to w 2027 roku, są tymi, które dokumentują dzisiaj.

Uruchom sztuczną inteligencję w produkcji, zanim będziesz myślał, że jesteś gotowy. Zespoły, które czekają na formalną “strategię sztucznej inteligencji”, zanim wyślą, będą osiemnaście miesięcy za zespołami, które już uczą się na prawdziwych awariach produkcyjnych. Wybierz przypadku użycia o niskim ryzyku. Wyślij. Zbuduj mięśnie.

Zespoły, które podejmują te decyzje dzisiaj, zdefiniują następne dziesięć lat, jak oprogramowanie jest zbudowane. Okno jest wąskie i jest otwarte teraz.

Dziękuję za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Devart.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.