Kontakt z nami

Artificial Intelligence

W stronę zautomatyzowanego pisania artykułów naukowych

mm

Dziś rano, przeszukując sekcje informatyki w Arxiv, jak to robię przez większość poranków, natknąłem się na niedawny artykuł papier z Federalnego Uniwersytetu w Ceara w Brazylii, oferującą nową platformę przetwarzania języka naturalnego w celu zautomatyzowania podsumowań i ekstrakcji podstawowych danych z artykułów naukowych.

Ponieważ robię to mniej więcej na co dzień, artykuł przywołał mi na myśl komentarz z wątku dziennikarzy na Reddicie z początku tego roku – prognozę, że pisanie tekstów naukowych będzie jednym z pierwszych zajęć dziennikarskich, które zostaną przejęte przez uczenie maszynowe.

Żeby było jasne – ja absolutnie wierzyć że nadchodzi zautomatyzowany pisarz naukowy i że wszystkie wyzwania, które zarysuję w tym artykule, albo można teraz rozwiązać, albo w przyszłości tak się stanie. Tam, gdzie to możliwe, podaję przykłady. Ponadto nie odnoszę się do tego, czy obecne lub przyszłe AI piszące artykuły naukowe będą w stanie to zrobić napisać przekonująco; na podstawie aktualny poziom zainteresowania Zakładam, że w tym sektorze NLP to wyzwanie zostanie w końcu rozwiązane.

Raczej pytam, czy sztuczna inteligencja pisząca teksty naukowe będzie w stanie zidentyfikować odpowiednie historie naukowe zgodne z (bardzo zróżnicowanymi) pożądanymi wynikami wydawców.

Nie sądzę, żeby to było nieuchronne; na podstawie przeglądania nagłówków i/lub kopii około 2000 nowych artykułów naukowych na temat uczenia maszynowego co tydzień, mam dość cyniczne podejście do tego, w jakim stopniu prace naukowe można rozłożyć algorytmicznie, zarówno na potrzeby indeksowania akademickiego, jak i dziennikarstwa naukowego. Jak zwykle, to ci cholerni… ludzie które stają na przeszkodzie.

Wymagania dla automatycznego pisarza naukowego

Rozważmy wyzwanie automatyzacji sprawozdawczości naukowej na temat najnowszych badań akademickich. Aby zachować uczciwość, ograniczymy się głównie do kategorii CS bardzo popularnych, niepłatnych treści. domena Arxiv z Cornell University, który ma przynajmniej szereg systematycznych, szablonowych funkcji, które można podłączyć do potoku ekstrakcji danych.

Załóżmy również, że zadanie, które mamy przed sobą, podobnie jak w przypadku nowego artykułu z Brazylii, polega na iteracyjnym przeglądaniu tytułów, streszczeń, metadanych i (jeśli jest to uzasadnione) treści nowych artykułów naukowych w poszukiwaniu stałych, wiarygodnych parametrów, tokenów i możliwych do podjęcia działań, zredukowanych informacji dziedzinowych.

Jest to przecież zasada, na której osiąga się duże sukcesy nowe ramy zyskują na popularności w obszarach raportowanie o trzęsieniu ziemi, pisanie sportowe, dziennikarstwo finansowe oraz ubezpieczenie zdrowotnei rozsądny punkt wyjścia dla dziennikarza naukowego wykorzystującego sztuczną inteligencję.

Przepływ pracy w nowej brazylijskiej ofercie. Artykuł naukowy w formacie PDF jest konwertowany na zwykły tekst w formacie UTF-8 (choć spowoduje to usunięcie podkreśleń kursywą, które mogą mieć znaczenie semantyczne), a sekcje artykułów zostaną oznaczone i wyodrębnione przed przejściem do filtrowania tekstu. Zdekonstruowany tekst jest dzielony na zdania w formie ramek danych, a ramki danych łączone przed identyfikacją tokena i wygenerowaniem dwóch macierzy tokenów dokumentów Źródło: https://arxiv.org/ftp/arxiv/papers/2107/2107.14638.pdf

Przepływ pracy w nowej brazylijskiej ofercie. Artykuł naukowy w formacie PDF jest konwertowany na zwykły tekst w formacie UTF-8 (choć spowoduje to usunięcie podkreśleń kursywą, które mogą mieć znaczenie semantyczne), a sekcje artykułów zostaną oznaczone i wyodrębnione przed przejściem do filtrowania tekstu. Zdekonstruowany tekst jest dzielony na zdania w postaci ramek danych, a ramki danych łączone przed identyfikacją tokena i wygenerowaniem dwóch macierzy tokenów dokumentów   Źródło: https://arxiv.org/ftp/arxiv/papers/2107/2107.14638.pdf

Komplikowanie szablonu

Zachęcającą warstwą zgodności i regularyzacji jest to, że Arxiv narzuca całkiem dobrze egzekwowany szablon zgłoszeń, a zawiera szczegółowe wytyczne do zgłaszania autorów. Dlatego też artykuły są na ogół zgodne z dowolną częścią protokołu mającą zastosowanie do opisywanej pracy.

Zatem system wstępnego przetwarzania AI dla domniemanego zautomatyzowanego pisarza naukowego może ogólnie traktować takie sekcje jako subdomeny: abstrakcyjny, wprowadzenie, powiązana/wcześniejsza praca, metodologia/dane, wyniki/ustalenia, badania ablacyjne, dyskusja, konkluzja.

Jednak w praktyce niektóre z tych sekcji mogą być nieobecne, mieć zmienioną nazwę lub zawierać treści, które, ściśle rzecz biorąc, należą do innej sekcji. Co więcej, autorzy naturalnie dodadzą nagłówki i podtytuły, które nie są zgodne ze schematem. W związku z tym identyfikacja treści związanych z daną sekcją na podstawie kontekstu będzie zadaniem NLP/NLU.

Zmierzając w stronę kłopotów

Hierarchia nagłówków to łatwy sposób na wstępną kategoryzację bloków treści przez systemy przetwarzania języka naturalnego. Wiele materiałów przesłanych do Arxiv jest eksportowanych z programu Microsoft Word (o czym świadczą nieprawidłowo obsługiwane pliki PDF Arxiv, które pozostawiają „Microsoft Word” w nagłówku tytułu – patrz ilustracja poniżej). Jeśli używasz odpowiedniego nagłówki sekcji w programie Word, eksport do formatu PDF spowoduje odtworzenie ich jako hierarchicznych nagłówków, które są przydatne w procesach ekstrakcji danych przez reportera maszynowego.

Zakłada to jednak, że autorzy faktycznie korzystają z takich funkcji w programie Word lub innych platformach do tworzenia dokumentów, takich jak TeX i pochodne (rzadko dostarczane jako natywne formaty alternatywne w zgłoszeniach Arxiv, przy czym większość ofert ogranicza się do plików PDF i czasami jeszcze bardziej nieprzejrzystych formatów). Postscriptum).

Na podstawie wieloletnich lektur artykułów Arxiv zauważyłem, że zdecydowana większość z nich nie zawiera każdy interpretowalne metadane strukturalne, z tytułem podanym w czytniku (np. przeglądarce internetowej lub czytniku plików PDF) jako pełny tytuł (wraz z rozszerzeniem) samego dokumentu.

W tym przypadku semantyczna interpretowalność artykułu jest ograniczona, a system do tworzenia tekstów naukowych oparty na sztucznej inteligencji będzie musiał programowo ponownie połączyć go z powiązanymi metadanymi w domenie Arxiv. Konwencja Arxiv nakazuje, aby podstawowe metadane były również wstawiane poziomo, dużą, szarą czcionką, na stronie 1 przesłanego pliku PDF (patrz ilustracja poniżej). Niestety – nie tylko dlatego, że jest to jedyne wiarygodne miejsce, w którym można znaleźć datę publikacji lub numer wersji – często są one pomijane.

Wielu autorów albo w ogóle nie używa stylów, albo używa tylko stylu H1 (najwyższy nagłówek/tytuł), pozostawiając NLU ponowne wyodrębnienie nagłówków z kontekstu (prawdopodobnie nie jest to takie trudne) lub analizując numer referencyjny, który zawiera tytuł w ścieżce dokumentu (tj. https://arxiv.org/pdf/2110.00168.pdf) i korzystając przy składaniu wniosków z metadanych sieciowych (a nie lokalnych).

Chociaż to drugie nie rozwiąże problemu brakujących nagłówków, przynajmniej ustali, której sekcji informatyki dotyczy zgłoszenie, oraz poda informacje o dacie i wersji.

GluedText i zwroty akapitu

Ponieważ PDF i PostScript to najpopularniejsze formaty Arxiv przesyłane przez autorów, system NLP będzie potrzebował procedury oddzielającej słowa znajdujące się na końcu wiersza od słów znajdujących się na początku następnego wiersza, które są do nich „dołączane” w ramach niefortunnych domyślnych metod optymalizacji formatu PDF.

Dekonkatenacja (i de-łącznik) słowa można spełnić w Perlu i wiele innych prostych procedur rekurencyjnych, chociaż a Podejście oparte na Pythonie może być mniej czasochłonne i lepiej dostosowane do struktury uczenia maszynowego. Firma Adobe, twórca formatu PDF, opracowała również system konwersji oparty na sztucznej inteligencji, zwany Tryb płynny, zdolny do „przeformatowania” wstępnie utworzonego tekstu w plikach PDF, choć jego wdrażanie poza przestrzenią mobilną okazało się powolne.

Słaby angielski                                                

Język angielski pozostaje światowym standardem naukowym dotyczącym przesyłania artykułów naukowych, mimo że tak jest kontrowersyjny. Dlatego czasami zawierają interesujące i warte opublikowania artykuły przerażające standardy języka angielskiego, od badaczy nieanglojęzycznych. Jeśli umiejętne posługiwanie się językiem angielskim zostanie uwzględnione jako miernik wartości podczas oceniania pracy przez system maszynowy, wówczas nie tylko często dobre historie zostaną utracone, ale także pedantyczne prace o niższej wartości będą oceniane wyżej po prostu dlatego, że mówią bardzo mało i bardzo dobrze.

Systemy NLP, które są pod tym względem nieelastyczne, prawdopodobnie napotkają dodatkową warstwę przeszkód w ekstrakcji danych, z wyjątkiem najbardziej sztywnych i sparametryzowanych nauk, takich jak chemia i fizyka teoretyczna, gdzie wykresy i wykresy są bardziej jednolite we wszystkich globalnych społecznościach naukowych. Chociaż artykuły dotyczące uczenia maszynowego często zawierają formuły, mogą one nie przedstawiać decydującej wartości zgłoszenia w przypadku braku w pełni ugruntowanego konsensusu naukowego w sprawie metodologii, z którego korzystają starsze nauki.

Selekcja: Określanie wymagań publiczności

Wkrótce powrócimy do licznych problemów związanych z rozkładaniem ekscentrycznych artykułów naukowych na dyskretne punkty danych. Teraz zastanówmy się nad naszymi odbiorcami i celami, ponieważ będą one niezbędne, aby pomóc sztucznej inteligencji piszącej artykuły naukowe w przeszukiwaniu tysięcy artykułów tygodniowo. Przewidywanie sukcesu potencjalnych artykułów jest już… obszar aktywny w uczeniu maszynowym.

Jeśli na przykład na stronie internetowej, na której pisanie o tematyce naukowej stanowi tylko jeden z elementów szerszej oferty dziennikarskiej (jak w przypadku brytyjskiej strony internetowej), jedynym celem jest „duży ruch naukowy” Daily Mail sekcja naukowa), sztuczna inteligencja może być wymagana w celu określenia tematów najbardziej dochodowych pod względem ruchu i zoptymalizowania pod tym kątem swojego wyboru. W procesie tym prawdopodobnie priorytetem będą (stosunkowo) nisko wiszące owoce, takie jak roboty, drony, deepfakes, prywatność oraz luki w zabezpieczeniach.

Zgodnie z obecnym stanem wiedzy w zakresie systemów rekomendacyjnych, zbiory na wysokim poziomie prawdopodobnie doprowadzą do tego „bańka filtrująca” problemy dla naszego naukowego autora tekstów AI, ponieważ algorytm poświęca więcej uwagi dużej liczbie fałszywych prac naukowych, które zawierają „pożądane” często występujące słowa kluczowe i frazy dotyczące tych tematów (ponownie, ponieważ można na nich zarobić, zarówno pod względem ruchu dla agencji informacyjnych, jak i finansowania dla wydziałów akademickich), ignorując jednocześnie niektóre z o wiele łatwiejszych do zapisania „pisanek” (patrz poniżej), które można znaleźć w wielu mniej uczęszczanych zakątkach Arxiv.

Jeden i gotowe!

Dobre źródło informacji naukowych może pochodzić z dziwnych i nieoczekiwanych źródeł, a także z dotychczas nieefektywnych sektorów i tematów. Aby jeszcze bardziej zmylić naszego autora zajmującego się sztuczną inteligencją, który miał nadzieję stworzyć produktywny indeks „efektywnych” źródeł wiadomości, źródłem nietypowego „hitu” (takiego jak serwer Discord, akademicki wydział badawczy czy startup technologiczny) często będzie… nigdy więcej nie twórz materiałów przydatnych do działania, jednocześnie generując obszerny i zaszumiony strumień informacji o mniejszej wartości.

Co iteracyjna architektura uczenia maszynowego może z tego wywnioskować? Że tysiące wcześniejszych „odstających” źródeł informacji, które kiedyś zidentyfikowała i wykluczyła, nagle zostaną potraktowane priorytetowo (choć z uwagi na dużą liczbę artykułów publikowanych każdego roku doprowadziłoby to do niemożliwego do opanowania stosunku sygnału do szumu)? Że sam temat bardziej zasługuje na warstwę aktywacyjną niż źródło informacji, z którego pochodzi (co w przypadku popularnego tematu jest działaniem zbędnym)?

Bardziej użyteczne byłoby nauczenie systemu, że musi poruszać się w górę lub w dół hierarchii wymiarowości danych w poszukiwaniu wzorców – jeśli w ogóle takie istnieją – które stanowią to, co mój zmarły dziadek dziennikarz nazywał „nosem do wiadomości” i definiują funkcję warty opublikowania jako cecha wędrowna i abstrakcyjna, której nie można dokładnie przewidzieć wyłącznie na podstawie pochodzenia i która, jak można się spodziewać, będzie ulegać codziennym mutacjom.

Identyfikacja niepowodzenia hipotezy

Spowodowany presja kwotowa, wydziały akademickie czasami publikują prace, w których główna hipoteza okazała się całkowicie (lub prawie całkowicie) nieskuteczna w testach, nawet jeśli metody i wyniki projektu zasługują mimo wszystko na zainteresowanie.

Tego rodzaju rozczarowania często nie są sygnalizowane w podsumowaniach; w najgorszych przypadkach obalone hipotezy można rozpoznać jedynie czytając wykresy wyników. Wymaga to nie tylko wywnioskowania szczegółowego zrozumienia metodologii na podstawie bardzo wybranych i ograniczonych informacji, jakie może dostarczyć artykuł, ale wymaga również doświadczonych algorytmów interpretacji wykresów, które potrafią w znaczący sposób zinterpretować wszystko, od wykresu kołowego po wykres punktowy, w kontekście.

System oparty na NLP, który ufa podsumowaniom, ale nie potrafi zinterpretować wykresów i tabel, może być bardzo podekscytowany nowym artykułem już przy pierwszej lekturze. Niestety, wcześniejsze przykłady „ukrytego błędu” w pracach naukowych trudno (dla celów szkoleniowych) uogólnić na wzorce, ponieważ to „przestępstwo akademickie” polega przede wszystkim na pominięciu lub niedostatecznym podkreśleniu, a zatem jest trudne do uchwycenia.

W skrajnym przypadku nasz autor AI może być zmuszony zlokalizować i przetestować dane z repozytorium (np. z GitHuba) lub przeanalizować dostępne materiały dodatkowe, aby zrozumieć, co wyniki oznaczają w kontekście celów autorów. Zatem system uczenia maszynowego musiałby przeglądać wiele niezmapowanych źródeł i formatów, które są z tym związane, co sprawia, że ​​automatyzacja procesów weryfikacji stanowi pewne wyzwanie architektoniczne.

Scenariusze „białego pudełka”

Okazuje się, że niektóre z najbardziej oburzających twierdzeń w publikacjach poświęconych bezpieczeństwu sztucznej inteligencji (AI) wymagają nadzwyczajnego i bardzo mało prawdopodobnego poziomu dostępu do kodu źródłowego lub infrastruktury źródłowej – ataków typu „white box”. Choć jest to przydatne do ekstrapolacji nieznanych dotąd dziwactw w architekturze systemów AI, prawie nigdy nie stanowi realistycznie podatnej na ataki powierzchni. Dlatego autorzy tekstów naukowych o AI będą potrzebować niezłego detektora bzdur, aby rozłożyć twierdzenia dotyczące bezpieczeństwa na prawdopodobieństwa skutecznego wdrożenia.

Zautomatyzowany autor tekstów naukowych będzie potrzebował sprawnej procedury NLU, która umożliwi mu wyizolowanie wzmianek w „białej ramce” i umieszczenie ich w znaczącym kontekście (tj. odróżnienie wzmianek od zasadniczych implikacji dla artykułu) oraz umożliwi wywnioskowanie metodologii białej ramki w przypadkach, gdy dana fraza nigdy nie pojawia się w artykule.

Inne pułapki

Inne miejsca, w których niewykonalność i niepowodzenie hipotezy mogą zostać całkowicie pogrzebane, to: badania ablacyjne, które systematycznie usuwają kluczowe elementy nowej formuły lub metody, aby sprawdzić, czy wyniki są negatywnie wpływane, lub czy „rdzenne” odkrycie jest odporne. W praktyce artykuły zawierające badania ablacyjne są zazwyczaj dość pewne swoich ustaleń, choć uważna lektura często może ujawnić „blef”. W badaniach nad sztuczną inteligencją ten blef często oznacza… nadmierne dopasowanie, w którym system uczenia maszynowego radzi sobie znakomicie z oryginalnymi danymi badawczymi, ale nie dokonuje uogólnień na nowe dane lub działa w oparciu o inne, niemożliwe do odtworzenia ograniczenia.

Innym przydatnym nagłówkiem sekcji do potencjalnej systematycznej ekstrakcji jest OgraniczeniaTo jest pierwsza sekcja, do której każdy autor tekstów naukowych (sztuczna inteligencja lub człowiek) powinien przejść, ponieważ może zawierać informacje, które podważają całą hipotezę artykułu, a przejście do niej może zaoszczędzić straconych godzin pracy (przynajmniej dla człowieka). W najgorszym przypadku artykuł faktycznie zawiera Ograniczenia sekcja, ale uwzględniono w niej „kompromisowe” fakty gdzie indziej w pracy, a nie tutaj (lub są tutaj niedoceniane).

Następne jest Wcześniejsze prace. Dzieje się to na początku szablonu Arxiv i często ujawnia, że ​​bieżący artykuł stanowi jedynie niewielki postęp w znacznie bardziej innowacyjnym projekcie, zwykle z poprzednich 12–18 miesięcy. Na tym etapie autor AI będzie potrzebował możliwości ustalenia, czy poprzednia praca zyskała popularność; czy jest tu jeszcze jakaś historia? Czy wcześniejsze dzieło niezasłużenie umknęło uwadze opinii publicznej w momencie publikacji? A może nowy artykuł jest jedynie pobieżnym postscriptum do dobrze opisanego poprzedniego projektu?

Ocena bieżnikowania i „świeżości”

Poza poprawkami błędów we wcześniejszej wersji, bardzo często wersja 2 artykułu to niewiele więcej niż autorzy domagający się uwagi, której nie otrzymali po opublikowaniu wersji 1. Często jednak artykuł zasługuje na drugą szansę, ponieważ uwaga mediów mogła być skierowana gdzie indziej w momencie pierwotnej publikacji lub praca została przyćmiona przez duży napływ zgłoszeń w przepełnionych okresach sympozjów i konferencji (takich jak jesień i późna zima).

Jedną z przydatnych funkcji Arxiv, pozwalającą odróżnić powtórki, jest znacznik [AKTUALIZACJA] dodawany do tytułów zgłoszeń. Wewnętrzny „system rekomendacji” naszego autora opartego na sztucznej inteligencji będzie musiał dokładnie rozważyć, czy… [AKTUALIZACJA]=='Rozegrano', zwłaszcza, że ​​może (prawdopodobnie) ocenić ponownie podgrzany papier o wiele szybciej niż żmudna, naukowa manipulacja. Pod tym względem ma znaczną przewagę nad ludźmi, dzięki konwencji nazewnictwa, która prawdopodobnie się utrzyma, przynajmniej w Arxiv.

Arxiv na stronie podsumowania podaje również informacje o tym, czy artykuł został zidentyfikowany jako zawierający „znaczne nakładanie się” tekstu z innym artykułem (często tych samych autorów). System piszący AI może potencjalnie określić ten fakt jako „duplikat/powtórny” w przypadku braku znacznika [AKTUALIZACJA].

Określanie dyfuzji

Podobnie jak większość dziennikarzy, nasz przewidywany pisarz zajmujący się sztuczną inteligencją szuka niezgłaszanych lub niedostatecznie zgłaszanych wiadomości, aby dodać wartość do obsługiwanego strumienia treści. W większości przypadków ponowne zgłaszanie przełomów naukowych po raz pierwszy pojawiało się w głównych mediach, takich jak TechCrunch, The Verge i EurekaAlert i wsp nie ma sensu, skoro tak duże platformy wspierają swoje treści wyczerpującymi maszynami reklamowymi, praktycznie gwarantującymi medialne nasycenie gazety.

Dlatego nasz autor AI musi określić, czy historia jest na tyle świeża, że ​​warto ją kontynuować.

Teoretycznie najłatwiej byłoby zidentyfikować najnowsze linków do głównych stron badań (podsumowanie, plik PDF, sekcja aktualności na stronie wydziału akademickiego itp.). Ogólnie rzecz biorąc, platformy, które mogą zapewnić aktualne informacje o linkach przychodzących, nie są rozwiązaniami typu open source ani nie są tanie, ale główni wydawcy prawdopodobnie mogliby ponieść koszty SaaS w ramach ram oceny wartości informacyjnej.

Zakładając taki dostęp, nasza autorka artykułów naukowych AI staje wówczas przed problemem polegającym na tym, że duża liczba serwisów zajmujących się raportami naukowymi nie cytuj artykuły, o których piszą, nawet w przypadkach, gdy te informacje są ogólnodostępne. W końcu redakcja chce, aby wtórne źródła informacji linkowały do ​​niej, a nie do źródła. Ponieważ w wielu przypadkach uzyskała ona uprzywilejowany lub półuprzywilejowany dostęp do artykułu badawczego (zob. Pisarz nauk społecznych poniżej), mają ku temu nieszczery pretekst.

W związku z tym nasz autor sztucznej inteligencji będzie musiał wyodrębnić z artykułu przydatne słowa kluczowe i przeprowadzić ograniczone czasowo wyszukiwania, aby ustalić, gdzie (jeśli w ogóle) historia już się rozpadła – a następnie ocenić, czy można odrzucić wszelkie wcześniejsze rozpowszechnienie lub czy historia się rozgrywa. .

Czasami artykuły udostępniają uzupełniający materiał wideo na YouTube, gdzie „liczba wyświetleń” może służyć jako wskaźnik rozpowszechnienia. Dodatkowo, nasza sztuczna inteligencja potrafi wyodrębnić obrazy z artykułu i przeprowadzić systematyczne wyszukiwanie oparte na obrazach, aby ustalić, czy, gdzie i kiedy któreś z nich zostały ponownie opublikowane.

Easter Eggs

Czasami „suchy” artykuł ujawnia odkrycia, które mają głębokie i godne uwagi implikacje, ale są bagatelizowane (lub nawet pomijane bądź lekceważone) przez autorów i można je odkryć dopiero po przeczytaniu całego artykułu i przeprowadzeniu obliczeń.

W rzadkich przypadkach, jak sądzę, dzieje się tak dlatego, że autorzy są o wiele bardziej zainteresowani odbiorem w środowisku akademickim niż wśród ogółu społeczeństwa, być może dlatego, że czują (nie zawsze niesłusznie), że podstawowych koncepcji po prostu nie da się wystarczająco uprościć, aby były zrozumiałe dla ogółu odbiorców, pomimo często przesadnych wysiłków działów PR ich instytucji.

Jednak równie często autorzy mogą bagatelizować lub w inny sposób nie dostrzegać lub nie przyznawać się do implikacji swojej pracy, działając oficjalnie z „naukową dyskrecją”. Czasami te „niespodzianki” nie są pozytywnymi wskaźnikami dla pracy, jak wspomniano powyżej, i mogą być cynicznie przesłonięte w skomplikowanych tabelach ustaleń.

Poza Arxivem

Należy wziąć pod uwagę, że parametryzowanie prac naukowych z zakresu informatyki do postaci dyskretnych tokenów i encji będzie znacznie łatwiejsze w domenie takiej jak Arxiv, która udostępnia szereg spójnych i szablonowych „haków” do analizy i nie wymaga logowania w celu korzystania z większości funkcji.

Nie wszystkie publikacje naukowe mają charakter open source i okaże się, czy (z praktycznego lub prawnego punktu widzenia) nasz autor artykułów naukowych poświęconych sztucznej inteligencji może lub będzie uciekał się do omijania zapór płatnych za pośrednictwem Centrum nauki; do korzystania z witryn archiwizacyjnych omijać paywalle; oraz czy możliwe jest skonstruowanie podobnych architektur eksploracji domen dla szerokiej gamy innych platform publikacji naukowych, z których wiele jest strukturalnie odpornych na systematyczne sondowanie.

Należy ponadto wziąć pod uwagę, że nawet Arxiv ma limity stawek co prawdopodobnie spowolni proces oceny wiadomości przez autora pracującego na podstawie sztucznej inteligencji do bardziej „ludzkiej” prędkości.

„Społeczny” autor tekstów naukowych o sztucznej inteligencji

Poza otwartym i dostępnym obszarem Arxiv i podobnych „otwartych” platform do publikacji naukowych, samo uzyskanie dostępu do interesującego nowego artykułu może stanowić wyzwanie. Wymaga ono znalezienia kanału kontaktu dla autora i zwrócenia się do niego z prośbą o przeczytanie jego pracy, a nawet o uzyskanie cytatów (w przypadkach, gdy presja czasu nie jest czynnikiem decydującym – co jest obecnie rzadką sytuacją w przypadku reporterów zajmujących się naukami humanistycznymi).

Może to wiązać się z automatycznym przeszukiwaniem domen naukowych i tworzeniem kont (aby wyświetlić adres e-mail autora artykułu, trzeba się zalogować, nawet w Arxiv). Zazwyczaj LinkedIn to najszybszy sposób uzyskania odpowiedzi, ale obecnie systemy sztucznej inteligencji… zakaz kontaktowania się z członkami.

Jeśli chodzi o to, w jaki sposób badacze będą otrzymywać e-maile z zaproszeniami od AI, pisarza naukowego – cóż, podobnie jak w przypadku świata pisarzy naukowych zajmujących się mięsem, prawdopodobnie zależy to od wpływu placówki. Jeśli domniemany pisarz oparty na sztucznej inteligencji z Przewodowa jeśli skontaktowano się z autorem, który chciał rozpowszechnić swoją pracę, można założyć, że nie spotka się to z wrogą reakcją.

W większości przypadków można sobie wyobrazić, że autor ma nadzieję, iż te półautomatyczne wymiany informacji w końcu umożliwią zaangażowanie człowieka, ale nie jest wykluczone, że późniejsze wywiady VOIP mogłyby być ułatwione przez sztuczną inteligencję, przynajmniej w przypadkach, gdy prognozowana wykonalność artykułu jest poniżej pewnego progu, a publikacja ma wystarczającą popularność, aby zachęcić człowieka do udziału w rozmowie z „badaczem zajmującym się sztuczną inteligencją”.

Identyfikacja wiadomości za pomocą sztucznej inteligencji

Wiele z przedstawionych tutaj zasad i wyzwań ma zastosowanie do potencjału automatyzacji w innych sektorach dziennikarstwa i, jak zawsze, głównym wyzwaniem jest zidentyfikowanie potencjalnej historii. Większość dziennikarzy przyzna, że ​​napisanie historii to zaledwie ostatnie 10% wysiłku i że zanim klawiatura zacznie dzwonić, praca jest w większości skończona.

Głównym wyzwaniem jest zatem opracowanie systemów sztucznej inteligencji, które będą w stanie wykryć, zbadać i uwierzytelnić historię w oparciu o wiele tajemniczych perypetii w grze informacyjnej i przemierzając ogromną gamę platform, które są już odporne na sondowanie i eksfiltrację, ludzką lub W przeciwnym razie.

W przypadku doniesień naukowych autorzy nowych artykułów mają równie głęboki cel egoistyczny, jak każde inne potencjalne główne źródło wiadomości, a dekonstrukcja ich dorobku będzie wymagała osadzenia wcześniejszej wiedzy na temat motywacji socjologicznych, psychologicznych i ekonomicznych. Dlatego domniemany zautomatyzowany pisarz naukowy będzie potrzebował czegoś więcej niż redukcyjnych procedur NLP, aby ustalić, gdzie są dzisiejsze wiadomości, chyba że domena wiadomości jest szczególnie rozwarstwiona, jak ma to miejsce w przypadku akcji, danych dotyczących pandemii, wyników sportowych, aktywności sejsmicznej i innych źródeł wiadomości o charakterze czysto statystycznym .