Connect with us

Inteligență artificială

Monetizarea cercetării pentru antrenarea IA: Riscuri și cele mai bune practici

mm

Pe măsură ce crește cererea de inteligență artificială generativă, crește și foamea de date de înaltă calitate pentru a antrena aceste sisteme. Editorii academici au început să-și monetizeze conținutul de cercetare pentru a furniza date de antrenament pentru modelele lingvistice mari (LLM). În timp ce acest lucru creează un nou flux de venituri pentru editori și împuternicește inteligența artificială generativă pentru descoperiri științifice, ridică întrebări critice despre integritatea și fiabilitatea cercetării utilizate. Acest lucru ridică o întrebare crucială: sunt seturile de date vândute de încredere și ce implicații are această practică pentru comunitatea științifică și modelele de inteligență artificială generativă?

Apariția acordurilor de cercetare monetizate

Editorii academici majori, inclusiv Wiley, Taylor & Francis și alții, au raportat venituri substanțiale din licențierea conținutului lor către companiile de tehnologie care dezvoltă modele de inteligență artificială generativă. De exemplu, Wiley a dezvăluit peste 40 de milioane de dolari din astfel de acorduri în acest an singur. Aceste acorduri permit companiilor de inteligență artificială să aibă acces la seturi de date științifice diverse și extinse, îmbunătățind probabil calitatea instrumentelor lor de inteligență artificială.

Propunerea editorilor este una simplă: licențierea asigură modele de inteligență artificială mai bune, beneficiind societatea și răsplătind autorii cu drepturi de autor. Acest model de afaceri beneficiază atât companiile de tehnologie, cât și editorii. Cu toate acestea, tendința tot mai mare de a monetiza cunoașterea științifică are riscuri, în special atunci când cercetările discutabile pătrund în aceste seturi de date de antrenament pentru inteligență artificială.

Umbra cercetării false

Comunitatea academică nu este străină de problemele cercetărilor frauduloase. Studiile sugerează că multe dintre constatările publicate sunt defectuoase, părtinitoare sau pur și simplu nefiabile. Un sondaj din 2020 a arătat că aproape jumătate dintre cercetători au raportat probleme precum raportarea selectivă a datelor sau studii de teren prost proiectate. În 2023, peste 10.000 de articole au fost retrase din cauza rezultatelor falsificate sau neverosimile, un număr care continuă să crească anual. Experții cred că această cifră reprezintă vârful aisbergului, cu nenumărate studii discutabile care circulă în bazele de date științifice.

Crisisul a fost provocat în principal de “fabricile de articole de cercetare“, organizații obscure care produc studii fabricate, adesea ca răspuns la presiunile academice din regiuni precum China, India și Europa de Est. Se estimează că aproximativ 2% din depunerile de reviste la nivel global provin de la aceste fabrici de articole. Aceste articole false pot semăna cu cercetări legitime, dar sunt pline de date fictive și concluzii nefondate. În mod îngrijorător, astfel de articole trec prin procesul de peer review și ajung în reviste respectate, compromițând fiabilitatea insight-urilor științifice. De exemplu, în timpul pandemiei COVID-19, studiile defectuoase despre ivermectină au sugerat în mod fals eficacitatea sa ca tratament, semănând confuzie și întârziind răspunsurile eficiente de sănătate publică. Acest exemplu subliniază potențialul de prejudiciu al diseminării cercetărilor neverosimile, unde rezultatele defectuoase pot avea un impact semnificativ.

Consecințe pentru antrenarea IA și încredere

Implicațiile sunt profunde atunci când LLM-urile se antrenează pe baze de date care conțin cercetări frauduloase sau de calitate scăzută. Modelele de inteligență artificială folosesc modele și relații din datele de antrenament pentru a genera ieșiri. Dacă datele de intrare sunt corupte, ieșirile pot perpetua inexactități sau chiar le pot amplifica. Acest risc este deosebit de ridicat în domenii precum medicina, unde insight-urile generate de inteligența artificială incorecte pot avea consecințe care pun viața în pericol.
Mai mult, problema amenință încrederea publică în academia și inteligența artificială. Pe măsură ce editorii continuă să încheie acorduri, ei trebuie să abordeze preocupările legate de calitatea datelor vândute. Eșecul de a face acest lucru poate dăuna reputației comunității științifice și submina beneficiile potențiale ale inteligenței artificiale.

Asigurarea datelor de încredere pentru IA

Reducerea riscurilor cercetărilor defectuoase care perturbă antrenamentul IA necesită un efort comun din partea editorilor, companiilor de inteligență artificială, dezvoltatorilor, cercetătorilor și comunității mai largi. Editorii trebuie să îmbunătățească procesul de peer review pentru a prinde studii neverosimile înainte de a ajunge în seturile de date de antrenament. Oferta de recompense mai bune pentru recenzori și stabilirea unor standarde mai înalte poate ajuta. Un proces de peer review deschis este critic aici. Acesta aduce mai multă transparență și responsabilitate, ajutând la construirea încrederii în cercetare.
Companiile de inteligență artificială trebuie să fie mai atente cu privire la cu cine lucrează atunci când procură cercetări pentru antrenamentul IA. Alegerea editorilor și revistelor cu o reputație puternică pentru cercetări de înaltă calitate, bine revizuite, este cheia. În acest context, este important să se examineze îndeaproape istoricul unui editor – cum ar fi cât de des retrag articole sau cât de deschis sunt cu privire la procesul de peer review. A fi selectiv îmbunătățește fiabilitatea datelor și construiește încredere în cadrul comunităților de inteligență artificială și cercetare.

Dezvoltatorii de inteligență artificială trebuie să-și asume responsabilitatea pentru datele pe care le utilizează. Acest lucru înseamnă colaborarea cu experți, verificarea atentă a cercetărilor și compararea rezultatelor din multiple studii. Instrumentele de inteligență artificială însele pot fi proiectate pentru a identifica date suspecte și a reduce riscurile cercetărilor discutabile care se răspândesc mai departe.

Transparența este, de asemenea, un factor esențial. Editorii și companiile de inteligență artificială ar trebui să facă publice detalii despre modul în care se utilizează cercetarea și unde merg drepturile de autor. Unelte precum Generative AI Licensing Agreement Tracker arată promițător, dar necesită o adoptare mai largă. Cercetătorii ar trebui, de asemenea, să aibă un cuvânt de spus în ceea ce privește modul în care este utilizată lucrarea lor. Politicile de opt-in, precum cele de la Cambridge University Press, oferă autorilor control asupra contribuțiilor lor. Acest lucru construiește încredere, asigură echitate și face ca autorii să participe activ la acest proces.

Mai mult, accesul liber la cercetări de înaltă calitate ar trebui încurajat pentru a asigura includerea și echitatea în dezvoltarea inteligenței artificiale. Guvernele, organizațiile non-profit și jucătorii din industrie pot finanța inițiative de acces liber, reducând dependența de editorii comerciali pentru seturile de date de antrenament critice. În plus, industria inteligenței artificiale are nevoie de reguli clare pentru obținerea datelor în mod etic. Concentrându-ne pe cercetări fiabile, bine revizuite, putem construi instrumente de inteligență artificială mai bune, proteja integritatea științifică și menține încrederea publică în știință și tehnologie.

Rezumat

Monetizarea cercetării pentru antrenarea IA prezintă atât oportunități, cât și provocări. În timp ce licențierea conținutului academic permite dezvoltarea unor modele de inteligență artificială mai puternice, ridică și preocupări cu privire la integritatea și fiabilitatea datelor utilizate. Cercetarea defectuoasă, inclusiv cea de la “fabricile de articole”, poate corupe seturile de date de antrenament pentru IA, ducând la inexactități care pot submina încrederea publică și beneficiile potențiale ale inteligenței artificiale. Pentru a asigura ca modelele de inteligență artificială să fie construite pe date de încredere, editorii, companiile de inteligență artificială și dezvoltatorii trebuie să colaboreze pentru a îmbunătăți procesele de peer review, a crește transparența și a prioriza cercetarea de înaltă calitate, bine verificată. Prin aceasta, putem proteja viitorul inteligenței artificiale și menține integritatea comunității științifice.

Dr. Tehseen Zia este un profesor asociat titular la Universitatea COMSATS Islamabad, deținând un doctorat în IA de la Universitatea Tehnică din Viena, Austria. Specializându-se în Inteligență Artificială, Învățare Automată, Știință a Datelor și Viziune Computațională, el a făcut contribuții semnificative cu publicații în reviste științifice reputate. Dr. Tehseen a condus, de asemenea, diverse proiecte industriale ca Investigator Principal și a servit ca Consultant IA.