Umělá inteligence
Monetizování výzkumu pro školení AI: Rizika a nejlepší postupy
Jak roste poptávka po generativním AI, tak roste i hlad po vysokokvalitních datech pro školení těchto systémů. Vědecké vydavatelství začalo monetizovat svůj výzkumný obsah, aby poskytovalo školicí data pro velké jazykové modely (LLM). Zatímco tento vývoj vytváří nový zdroj příjmů pro vydavatelství a posiluje generativní AI pro vědecká objevy, vyvolává kritické otázky o integritě a spolehlivosti použitého výzkumu. To vyvolává zásadní otázku: Jsou datové sady, které se prodávají, důvěryhodné, a jaké jsou důsledky této praxe pro vědeckou komunitu a modely generativního AI?
Vzestup monetizovaných výzkumných dohod
Velké akademické vydavatelství, včetně Wiley, Taylor & Francis a dalších, hlásily podstatné příjmy z licencování svého obsahu technologickým společnostem, které vyvíjejí generativní AI modely. Například Wiley odhalilo více než 40 milionů dolarů ve výnosech z těchto dohod pouze letos. Tyto dohody umožňují AI společnostem přístup k různorodým a rozsáhlým vědeckým datovým sadám, které předpokládaně zlepšují kvalitu jejich AI nástrojů.
Argument vydavatelství je přímý: licencování zajišťuje lepší AI modely, prospěšné pro společnost, zatímco odměňuje autory tantiémami. Tento obchodní model prospívá jak technologickým společnostem, tak vydavatelstvům. Nicméně, rostoucí trend monetizovat vědecké znalosti má rizika, zejména když pochybný výzkum infiltrace do těchto AI školicích datových sad.
Stín pochybného výzkumu
Vědecká komunita není cizí s problémy podvodného výzkumu. Studie naznačují, že mnoho zveřejněných zjištění je vadných, zkreslených nebo prostě nespolehlivých. Průzkum z roku 2020 ukázal, že téměř polovina výzkumníků uváděla problémy, jako je selektivní reporting dat nebo špatně navržené terénní studie. V roce 2023 bylo více než 10 000 článků staženo kvůli padělaným nebo nespolehlivým výsledkům, číslo, které každoročně roste. Odborníci se domnívají, že toto číslo představuje špičku ledovce, s nesčetnými pochybnými studiemi, které cirkulují ve vědeckých databázích.
Krizi主要ně způsobují “paper mills“, stínové organizace, které vyrábějí falešné studie, často v reakci na akademické tlaky v regionech, jako je Čína, Indie a východní Evropa. Odhaduje se, že asi 2% odeslaných článků po celém světě pocházejí z paper mills. Tyto falešné články mohou připomínat legitimní výzkum, ale jsou prošpikovány fiktivními daty a bezdůvodnými závěry. Zarážející je, že takové články procházejí recenzním řízením a skončí v uznávaných časopisech, čímž ohrožují spolehlivost vědeckých poznatků. Například během pandemie COVID-19 pochybné studie o ivermektinu falešně naznačovaly jeho účinnost jako léčbu, čímž způsobily zmatení a zpozdily účinné veřejné zdravotnické reakce. Tento příklad zdůrazňuje potenciální újmu způsobenou šířením nespolehlivého výzkumu, kde vadné výsledky mohou mít významný dopad.
Důsledky pro školení AI a důvěru
Důsledky jsou hluboké, když LLMs školuje na databázích, které obsahují podvodný nebo nízkokvalitní výzkum. AI modely používají vzory a vztahy uvnitř svých školicích dat k generování výstupů. Pokud jsou vstupní data poškozená, výstupy mohou šířit nepřesnosti nebo je dokonce zesilovat. Toto riziko je zvláště vysoké v oblastech, jako je medicína, kde nesprávné AI-generované poznatky mohou mít život ohrožující důsledky.
Kromě toho tato otázka ohrožuje důvěru veřejnosti ve vědu a AI. Když vydavatelství uzavírají dohody, musí řešit obavy o kvalitě prodávaných dat. Selhání v tomto ohledu by mohlo poškodit pověst vědecké komunity a podkopat potenciální společenské výhody AI.
Zajištění důvěryhodných dat pro AI
Snížení rizik poškozeného výzkumu, který narušuje školení AI, vyžaduje společné úsilí od vydavatelství, AI společností, vývojářů, výzkumníků a širší komunity. Vydavatelství musí zlepšit svůj recenzní proces, aby chytnuli nespolehlivé studie, než se dostanou do školicích datových sad. Nabízení lepších odměn pro recenzenty a stanovení vyšších standardů může pomoci. Otevřený recenzní proces je zde kritický. Přináší více transparentnosti a odpovědnosti, což pomáhá budovat důvěru ve výzkum.
AI společnosti musí být více pečlivé při výběru partnerů pro získání výzkumu pro školení AI. Volba vydavatelství a časopisů s dobrou pověstí pro vysokokvalitní, důkladně recenzovaný výzkum je klíčová. V tomto kontextu je vhodné se blíže podívat na historii vydavatelství – jako na to, jak často stahují články nebo jak otevřeně hovoří o svém recenzním procesu. Selektivita zlepšuje spolehlivost dat a buduje důvěru napříč AI a výzkumnou komunitou.
AI vývojáři musí nést odpovědnost za data, která používají. To znamená spolupráci s odborníky, pečlivé kontrolu výzkumu a srovnání výsledků z více studií. AI nástroje samy o sobě mohou být navrženy tak, aby identifikovaly podezřelá data a snižovaly rizika šíření pochybného výzkumu.
Transparentnost je také zásadním faktorem. Vydavatelství a AI společnosti by měly otevřeně sdílet informace o tom, jak se výzkum používá a kam jdou tantiémy. Nástroje, jako je Generative AI Licensing Agreement Tracker, ukazují slib, ale potřebují širší přijetí. Výzkumníci by také měli mít možnost říci, jak se jejich práce používá. Opt-in politiky, jako ty od Cambridge University Press, nabízejí autorům kontrolu nad svými příspěvky. To buduje důvěru, zajišťuje spravedlnost a činí autory aktivními účastníky tohoto procesu.
Kromě toho by se měla podporovat otevřená přístupnost k vysokokvalitním výzkumům, aby se zajistila inkluzivita a spravedlnost ve vývoji AI. Vládny, neziskové organizace a hráči z průmyslu mohou financovat iniciativy otevřeného přístupu, snižují závislost na komerčních vydavatelstvích pro kritická školicí data. Navíc, AI průmysl potřebuje jasná pravidla pro etické získávání dat. Soustředěním se na spolehlivý, důkladně recenzovaný výzkum můžeme budovat lepší AI nástroje, chránit vědeckou integritu a udržovat důvěru veřejnosti ve vědu a technologii.
Podstatné
Monetizace výzkumu pro školení AI představuje jak příležitosti, tak výzvy. Zatímco licencování akademického obsahu umožňuje vývoj výkonnějších AI modelů, také vyvolává obavy o integritě a spolehlivosti použitého výzkumu. Vadný výzkum, včetně toho z “paper mills”, může poškodit AI školicí datové sady, vedoucí k nepřesnostem, které mohou podkopat důvěru veřejnosti a potenciální výhody AI. Aby se zajistilo, že AI modely jsou postaveny na důvěryhodných datech, vydavatelství, AI společnosti a vývojáři musí spolupracovat, aby zlepšili recenzní procesy, zvýšili transparentnost a priorizovali vysokokvalitní, důkladně recenzovaný výzkum. Takto můžeme ochránit budoucnost AI a udržet integritu vědecké komunity.












