Liderzy opinii
Rozwijanie Porządku z Bałaganu: Rola LLM w Ekstrakcji Danych Niestrukturyzowanych
Ostatnie postępy w dziedzinie sprzętu, takie jak Nvidia H100 GPU, znacznie zwiększyły możliwości obliczeniowe. Z dziewięciokrotną szybkością Nvidia A100, te karty graficzne wyróżniają się w przetwarzaniu głębokich sieci neuronowych. Ten postęp spowodował komercyjne wykorzystanie generatywnego AI w przetwarzaniu języka naturalnego (NLP) i wizji komputerowej, umożliwiając automatyczne i inteligentne ekstrakcję danych. Przedsiębiorstwa mogą teraz łatwo przekształcić dane niestrukturyzowane w cenne informacje, co stanowi znaczący skok w integracji technologii.
Tradycyjne Metody Ekstrakcji Danych
Wprowadzanie Danych Ręcznie
Zaskakująco, wiele firm nadal polega na wprowadzaniu danych ręcznie, pomimo dostępności bardziej zaawansowanych technologii. Metoda ta polega na ręcznym wprowadzaniu informacji bezpośrednio do systemu docelowego. Często jest łatwiejsza do przyjęcia ze względu na niższe początkowe koszty. Jednak wprowadzanie danych ręcznie nie tylko jest nudne i czasochłonne, ale także bardzo podatne na błędy. Ponadto stanowi zagrożenie dla bezpieczeństwa podczas pracy z wrażliwymi danymi, co czyni ją mniej pożądaną opcją w erze automatyzacji i bezpieczeństwa cyfrowego.
Rozpoznawanie Znaku Optycznego (OCR)
Technologia OCR, która przekształca obrazy i teksty odręczne w dane czytelne dla maszyn, oferuje szybsze i bardziej opłacalne rozwiązanie dla ekstrakcji danych. Jednak jakość może być niepewna. Na przykład znaki takie jak “S” mogą być błędnie interpretowane jako “8” i odwrotnie.
Wydajność OCR jest znacznie uzależniona od złożoności i cech danych wejściowych; działa dobrze z wysokiej jakości zeskanowanymi obrazami, wolnymi od problemów takich jak nachylenie, znaki wodne lub nadpisy. Jednak napotyka trudności z tekstem odręcznym, szczególnie gdy wizualizacje są skomplikowane lub trudne do przetworzenia. Adaptacje mogą być konieczne do poprawy wyników podczas pracy z danymi tekstowymi. Narzędzia do ekstrakcji danych na rynku z OCR jako podstawową technologią często nakładają warstwy i warstwy przetwarzania pośredniego, aby poprawić dokładność wyodrębnionych danych. Jednak te rozwiązania nie mogą gwarantować 100% dokładnych wyników.
Dopasowanie Wzorca Tekstowego
Dopasowanie wzorca tekstowego jest metodą identyfikacji i ekstrakcji określonych informacji z tekstu przy użyciu predefiniowanych reguł lub wzorców. Jest szybsze i oferuje wyższy zwrot z inwestycji niż inne metody. Skuteczne jest we wszystkich poziomach złożoności i osiąga 100% dokładności dla plików o podobnej strukturze.
Jednak jego sztywność w dopasowaniach słowo po słowie może ograniczać elastyczność, wymagając 100% dokładnego dopasowania do udanej ekstrakcji. Trudności z synonimami mogą prowadzić do trudności w identyfikowaniu równoważnych terminów, takich jak różnicowanie “pogody” i “klimatu”. Ponadto dopasowanie wzorca tekstowego wykazuje wrażliwość kontekstową, brakując świadomości wielu znaczeń w różnych kontekstach. Znalezienie odpowiedniej równowagi między sztywnością a elastycznością pozostaje stałym wyzwaniem w efektywnym zastosowaniu tej metody.
Rozpoznawanie Nazwanych Jednostek (NER)
Rozpoznawanie nazwanych jednostek (NER), technika NLP, identyfikuje i kategoryzuje kluczowe informacje w tekście.
Ekstrakcje NER są ograniczone do predefiniowanych jednostek, takich jak nazwy organizacji, lokalizacje, nazwy osobowe i daty. Innymi słowy, systemy NER obecnie nie posiadają wewnętrznej możliwości ekstrakcji niestandardowych jednostek poza tym predefiniowanym zestawem, który mógłby być specyficzny dla określonej dziedziny lub przypadku użycia. Po drugie, skupienie NER na kluczowych wartościach związanych z rozpoznanymi jednostkami nie rozciąga się na ekstrakcję danych z tabel, ograniczając jej stosowalność do bardziej złożonych lub ustrukturyzowanych typów danych.
Ponieważ organizacje mają do czynienia z coraz większymi ilościami danych niestrukturyzowanych, te wyzwania podkreślają potrzebę kompleksowego i skalowalnego podejścia do metod ekstrakcji.
Odblokowanie Danych Niestrukturyzowanych z LLM
Wykorzystanie dużych modeli językowych (LLM) do ekstrakcji danych niestrukturyzowanych jest kuszącym rozwiązaniem z wyraźnymi zaletami, które rozwiązują krytyczne wyzwania.
Ekstrakcja Danych Świadoma Kontekstu
LLM posiadają silne zrozumienie kontekstu, wykształcone poprzez obszerny trening na dużych zbiorach danych. Ich zdolność do wykraczania poza powierzchnię i zrozumienia kontekstowych niuansów sprawia, że są wartościowe w obsłudze różnorodnych zadań ekstrakcji informacji. Na przykład, gdy zostaną poproszone o ekstrakcję wartości pogody, przechwytują zamierzone informacje i uwzględniają powiązane elementy, takie jak wartości klimatu, płynnie integrując synonimy i semantykę. Ten zaawansowany poziom zrozumienia ustanawia LLM jako dynamiczny i adaptacyjny wybór w dziedzinie ekstrakcji danych.
Wykorzystanie Możliwości Przetwarzania Równoległego
LLM wykorzystują przetwarzanie równoległe, co sprawia, że zadania są szybsze i bardziej efektywne. W przeciwieństwie do modeli sekwencyjnych, LLM optymalizują dystrybucję zasobów, co skutkuje przyspieszeniem zadań ekstrakcji danych. To zwiększa szybkość i przyczynia się do ogólnej wydajności procesu ekstrakcji.
Adaptacja do Różnych Typów Danych
Podczas gdy niektóre modele, takie jak Sieci Neuronowe Rekurencyjne (RNN), są ograniczone do określonych sekwencji, LLM radzą sobie z danymi niezwiązanymi z sekwencjami, bezproblemowo radząc sobie z różnorodnymi strukturami zdań.
Poprawa Potoków Przetwarzania
Użycie LLM oznacza znaczącą zmianę w automatyzacji zarówno etapów wstępnego, jak i końcowego przetwarzania. LLM zmniejszają potrzebę wysiłku ręcznego, automatyzując procesy ekstrakcji z dokładnością, usprawniając obsługę danych niestrukturyzowanych. Ich obszerny trening na różnorodnych zbiorach danych pozwala im identyfikować wzorce i korelacje, których nie wykrywają tradycyjne metody.

Źródło: Potok generatywnego AI
Ten rysunek potoku generatywnego AI ilustruje zastosowanie modeli takich jak BERT, GPT i OPT w ekstrakcji danych. Te LLM mogą wykonywać różne operacje NLP, w tym ekstrakcję danych. Zazwyczaj model generatywny AI dostarcza prompty opisujące pożądane dane, a odpowiedź zawiera wyodrębnione dane. Na przykład, prompty “Wyodrębnij nazwy wszystkich dostawców z tego zamówienia” mogą spowodować odpowiedź zawierającą wszystkie nazwy dostawców obecne w półstrukturyzowanym raporcie. Następnie wyodrębnione dane mogą być sparsowane i załadowane do tabeli bazy danych lub pliku płaskiego, ułatwiając płynną integrację z workflow organizacji.
Ewolucja Ram AI: RNN do Transformerów w Nowoczesnej Ekstrakcji Danych
Generatywne AI działa w ramach struktury encoder-decoder z dwoma współpracującymi sieciami neuronowymi. Encoder przetwarza dane wejściowe, kondensując istotne cechy w “wektor kontekstowy”. Ten wektor jest następnie wykorzystywany przez decoder do zadań generatywnych, takich jak tłumaczenie języka. Ta architektura, wykorzystująca sieci neuronowe takie jak RNN i Transformatory, znajduje zastosowanie w różnych dziedzinach, w tym w tłumaczeniu maszynowym, generowaniu obrazów, syntezie mowy i ekstrakcji jednostek danych. Te sieci wyróżniają się w modelowaniu skomplikowanych relacji i zależności w sekwencjach danych.
Sieci Neuronowe Rekurencyjne
Sieci Neuronowe Rekurencyjne (RNN) zostały zaprojektowane do radzenia sobie z zadaniami sekwencyjnymi, takimi jak tłumaczenie i podsumowanie, wyróżniając się w pewnych kontekstach. Jednak mają trudności z dokładnością w zadaniach obejmujących dalekosiężne zależności.
RNN wyróżniają się w ekstrakcji par klucz-wartość z zdań, jednak mają trudności z strukturami tabelarycznymi. Rozwiązanie tego wymaga starannej uwagi na sekwencję i rozmieszczenie pozycyjne, wymagając specjalnych podejść do optymalizacji ekstrakcji danych z tabel. Jednak ich przyjęcie było ograniczone ze względu na niski zwrot z inwestycji i słabą wydajność w większości zadań przetwarzania tekstu, nawet po treningu na dużych ilościach danych.
Sieci Neuronowe z Pamięcią Krótkotrwałą
Sieci Neuronowe z Pamięcią Krótkotrwałą (LSTM) pojawiają się jako rozwiązanie, które rozwiązuje ograniczenia RNN, szczególnie poprzez mechanizm selektywnego aktualizowania i zapominania. Podobnie jak RNN, LSTM wyróżniają się w ekstrakcji par klucz-wartość z zdań. Jednak mają podobne trudności z strukturami tabelarycznymi, wymagając strategicznego rozważenia sekwencji i elementów pozycyjnych.
Karty graficzne były po raz pierwszy użyte do głębokiego uczenia się w 2012 roku, aby opracować słynny model AlexNet CNN. Następnie niektóre RNN również były szkolone przy użyciu kart graficznych, chociaż nie dawały dobrych wyników. Dziś, pomimo dostępności kart graficznych, te modele w dużej mierze wyszły z użycia i zostały zastąpione przez transformatory oparte na LLM.
Transformator – Mechanizm Uwagi
Wprowadzenie transformatorek, szczególnie w przełomowym artykule “Uwaga jest wszystkim, czego potrzebujesz” (2017), rewolucjonizowało NLP, proponując architekturę “transformatora”. Ta architektura umożliwia obliczenia równoległe i sprawnie przechwytuje dalekosiężne zależności, otwierając nowe możliwości dla modeli językowych. LLM takie jak GPT, BERT i OPT wykorzystały technologię transformatorek. W sercu transformatorek leży mechanizm “uwagi”, kluczowy czynnik przyczyniający się do poprawy wydajności w przetwarzaniu sekwencyjnym.
Mechanizm “uwagi” w transformatorek oblicza ważoną sumę wartości na podstawie zgodności między “zapytaniem” (promtem) a “kluczem” (zrozumieniem modelu każdego słowa). To podejście pozwala na skupioną uwagę podczas generowania sekwencji, zapewniając precyzyjną ekstrakcję. Dwa kluczowe komponenty w mechanizmie uwagi to Uwaga Własna, przechwytująca znaczenie między słowami w sekwencji wejściowej, oraz Uwaga Wielogłowa, umożliwiająca różne wzorce uwagi dla konkretnych relacji.
W kontekście ekstrakcji faktur Uwaga Własna rozpoznaje znaczenie wcześniej wspomnianej daty podczas ekstrakcji kwot płatności, podczas gdy Uwaga Wielogłowa skupia się niezależnie na wartościach numerycznych (kwotach) i wzorcach tekstowych (nazwach dostawców). W przeciwieństwie do RNN, transformatory nie mają wewnętrznego zrozumienia kolejności słów. Aby rozwiązać ten problem, wykorzystują kodowanie pozycyjne, aby śledzić miejsce każdego słowa w sekwencji. Ta technika jest stosowana zarówno do wejściowych, jak i wyjściowych wektorów, pomagając w identyfikacji kluczy i odpowiadających im wartości w dokumencie.
Połączenie mechanizmów uwagi i kodowania pozycyjnego jest kluczowe dla zdolności dużych modeli językowych do rozpoznania struktury jako tabelarycznej, biorąc pod uwagę jej zawartość, odstępy i znaczniki tekstowe. Ta umiejętność wyróżnia je spośród innych technik ekstrakcji danych niestrukturyzowanych.
Aktualne Tendencje i Rozwój
Przestrzeń AI ewoluuje z obietnicznymi trendami i rozwojem, zmieniając sposób, w jaki ekstrahujemy informacje z danych niestrukturyzowanych. Przejdźmy do głównych aspektów kształtujących przyszłość tej dziedziny.
Postępy w Dużych Modelach Językowych (LLM)
Generatywne AI przechodzi przez transformacyjną fazę, z LLM na czele w radzeniu sobie z złożonymi i różnorodnymi zbiorami danych do ekstrakcji danych niestrukturyzowanych. Dwie godne uwagi strategie napędzają te postępy:
- Uczenie Wielomodalne: LLM rozszerzają swoje możliwości, przetwarzając jednocześnie różne typy danych, w tym tekst, obrazy i dźwięk. Ten rozwój zwiększa ich zdolność do ekstrakcji cennych informacji z różnych źródeł, zwiększając ich przydatność w ekstrakcji danych niestrukturyzowanych. Badacze badają efektywne sposoby wykorzystania tych modeli, dążąc do wyeliminowania potrzeby kart graficznych i umożliwienia działania dużych modeli z ograniczonymi zasobami.
- Aplikacje RAG: Pobieranie Uzupełnionej Generacji (RAG) to pojawiający się trend, który łączy duże wstępnie wytrenowane modele językowe z zewnętrznymi mechanizmami wyszukiwania, aby zwiększyć ich możliwości. Poprzez dostęp do ogromnej kolekcji dokumentów podczas generowania, RAG przekształca podstawowe modele językowe w dynamiczne narzędzia dostosowane do zastosowań biznesowych i konsumenckich.
Ocena Wydajności LLM
Wyzwanie oceny wydajności LLM jest podejmowane z strategicznym podejściem, łączącym metryki specyficzne dla zadań i innowacyjne metody oceny. Kluczowe rozwoje w tej dziedzinie obejmują:
- Dopasowane metryki: Pojawiają się metryki oceny dopasowane do zadań ekstrakcji informacji. Metryki precyzji, odwołania i F1 są skuteczne, szczególnie w zadaniach takich jak ekstrakcja jednostek.
- Ocena Ludzka: Ocena ludzka pozostaje kluczowa obok metryk automatycznych, zapewniając kompleksową ocenę LLM. Integracja metryk automatycznych z ludzką oceną, hybrydowe metody oceny oferują nuansowany widok poprawności kontekstowej i istotności wyodrębnionych informacji.
Przetwarzanie Obrazów i Dokumentów
Wielomodalne LLM całkowicie zastąpiły OCR. Użytkownicy mogą przekształcić zeskanowany tekst z obrazów i dokumentów w tekst czytelny dla maszyn, z możliwością identyfikacji i ekstrakcji informacji bezpośrednio z zawartości wizualnej przy użyciu modułów opartych na widzeniu.
Ekstrakcja Danych z Linków i Stron Internetowych
LLM ewoluują, aby sprostać rosnącemu zapotrzebowaniu na ekstrakcję danych ze stron internetowych i linków. Te modele są coraz bardziej zdolne do wykorzystania danych z sieci, konwertując dane ze stron internetowych w strukturyzowane formaty. Ten trend jest niezwykle cenny dla zadań takich jak agregacja wiadomości, gromadzenie danych e-commerce i wywiadownictwo konkurencyjne, zwiększając zrozumienie kontekstowe i wyodrębnianie danych relacyjnych z sieci.
Wzrost Małych Gigantów w Generatywnym AI
Pierwsza połowa 2023 roku była skupiona na tworzeniu ogromnych modeli językowych opartych na założeniu “im większy, tym lepszy”. Jednak ostatnie wyniki pokazują, że mniejsze modele, takie jak TinyLlama i Dolly-v2-3B, z mniej niż 3 miliardami parametrów, wyróżniają się w zadaniach takich jak rozumowanie i podsumowanie, zdobywając tytuł “małych gigantów”. Te modele wykorzystują mniej mocy obliczeniowej i miejsca do magazynowania, czyniąc AI bardziej dostępnym dla mniejszych firm bez potrzeby drogich kart graficznych.
Podsumowanie
Wczesne modele generatywnego AI, w tym sieci generatywne (GAN) i auto-encode VAE, wprowadziły nowe podejścia do zarządzania danymi opartymi na obrazach. Jednak prawdziwy przełom nastąpił z modelem językowym opartym na transformatorek. Te modele przewyższyły wszystkie poprzednie techniki w przetwarzaniu danych niestrukturyzowanych dzięki swojej strukturze encoder-decoder, uwadze własnej i uwadze wielogłowej, nadając im głębokie zrozumienie języka i umiejętności rozumowania podobne do ludzkich.
Podczas gdy generatywne AI oferuje obiecujący start w wydobywaniu danych tekstowych z raportów, skalowalność takich podejść jest ograniczona. Początkowe kroki często obejmują przetwarzanie OCR, które może prowadzić do błędów, a wyzwania utrzymują się w ekstrakcji tekstu z obrazów w raportach.
Natomiast ekstrakcja tekstu wewnątrz obrazów w raportach jest kolejnym wyzwaniem. Przyjęcie rozwiązań, takich jak przetwarzanie danych wielomodalnych i rozszerzenia limitu tokenów w GPT-4, Claud3, Gemini, oferuje obiecującą ścieżkę do przodu. Jednak ważne jest, aby zauważyć, że te modele są dostępne wyłącznie za pośrednictwem API. Podczas gdy korzystanie z API do ekstrakcji danych z dokumentów jest skuteczne i efektywne pod względem kosztów, wiąże się z własnymi ograniczeniami, takimi jak opóźnienia, ograniczona kontrola i ryzyka bezpieczeństwa.
Bardziej bezpieczne i dostosowalne rozwiązanie leży w dostrajaniu wewnętrznego LLM. To podejście nie tylko łagodzi problemy z prywatnością i bezpieczeństwem danych, ale także zwiększa kontrolę nad procesem ekstrakcji danych. Dostrajanie LLM do zrozumienia układu dokumentu i pojmowania znaczenia tekstu na podstawie jego kontekstu oferuje solidną metodę ekstrakcji par klucz-wartość i pozycji liniowych. Wykorzystując uczenie zero-shot i few-shot, dostrajany model może dostosować się do różnorodnych układów dokumentów, zapewniając wydajną i dokładną ekstrakcję danych niestrukturyzowanych w różnych dziedzinach.












