peň Transparentnosť AI a potreba modelov s otvoreným zdrojom – Unite.AI
Spojte sa s nami

Myšlienkoví vodcovia

Transparentnosť AI a potreba modelov s otvoreným zdrojom

mm
Aktualizované on

V snahe ochrániť ľudí pred možnými škodami spôsobenými umelou inteligenciou niektoré regulačné orgány v Spojených štátoch a Európskej únii čoraz viac obhajujú kontroly a kontroly a vyváženie výkonu modelov umelej inteligencie s otvoreným zdrojom. Čiastočne je to motivované túžbou veľkých korporácií kontrolovať vývoj AI a formovať vývoj AI spôsobom, ktorý im prinesie úžitok. Regulačné orgány sa tiež obávajú tempa vývoja AI, pretože sa obávajú, že AI sa vyvíja príliš rýchlo a že nie je dostatok času na zavedenie bezpečnostných opatrení, aby sa zabránilo jej používaniu na škodlivé účely.

Listina práv AI a Rámec riadenia rizík NIST AI v USA spolu s Zákon EÚ o AIpodporujú rôzne princípy, ako je presnosť, bezpečnosť, nediskriminácia, bezpečnosť, transparentnosť, zodpovednosť, vysvetliteľnosť, interpretovateľnosť a ochrana údajov. Okrem toho EÚ aj USA očakávajú, že organizácie pre normalizáciu, či už vládne alebo medzinárodné subjekty, budú zohrávať kľúčovú úlohu pri vytváraní usmernení pre AI.

Vzhľadom na túto situáciu je nevyhnutné usilovať sa o budúcnosť, ktorá zahŕňa transparentnosť a schopnosť kontrolovať a monitorovať systémy AI. To by umožnilo vývojárom na celom svete dôkladne preskúmať, analyzovať a zlepšiť AI, najmä so zameraním na tréningové údaje a procesy.

Aby sme úspešne vniesli transparentnosť do AI, musíme pochopiť rozhodovacie algoritmy, ktoré sú jej základom, a tým odhaliť prístup AI „čiernej skrinky“. Modely s otvoreným zdrojom a kontrolovateľné modely zohrávajú neoddeliteľnú súčasť pri dosahovaní tohto cieľa, pretože poskytujú prístup k základnému kódu, architektúre systému a školiacim údajom na kontrolu a audit. Táto otvorenosť podporuje spoluprácu, poháňa inovácie a chráni pred monopolizáciou.

Aby sme boli svedkami realizácie tejto vízie, je nevyhnutné uľahčiť politické zmeny, iniciatívy na miestnej úrovni a podporiť aktívnu účasť všetkých zainteresovaných strán, vrátane vývojárov, korporácií, vlád a verejnosti.

Aktuálny stav AI: Koncentrácia a kontrola

V súčasnosti sa vývoj AI týka najmä veľké jazykové modely (LLMs), je primárne centralizovaný a kontrolovaný veľkými korporáciami. Táto koncentrácia moci vzbudzuje obavy týkajúce sa možného zneužitia a vyvoláva otázky o spravodlivom prístupe a spravodlivom rozdelení výhod z pokroku v oblasti AI.

Najmä populárne modely, ako sú LLM, nemajú počas školiaceho procesu alternatívy s otvoreným zdrojom kvôli rozsiahlym potrebným výpočtovým zdrojom, ktoré sú zvyčajne dostupné len veľkým spoločnostiam. Napriek tomu, aj keď táto situácia zostane nezmenená, zabezpečenie transparentnosti údajov a procesov odbornej prípravy je kľúčové pre uľahčenie kontroly a zodpovednosti.

Nedávne zavedenie licenčného systému pre určité typy AI od OpenAI vyvolalo obavy a obavy z regulačného zachytenia, pretože by to mohlo ovplyvniť nielen trajektóriu AI, ale aj širšie sociálne, ekonomické a politické aspekty.

Potreba transparentnej AI

Predstavte si, že sa spoliehate na technológiu, ktorá robí dôležité rozhodnutia na ľudský/osobný život, no nezanecháva žiadnu omrvinkovú stopu, žiadne pochopenie zdôvodnenia týchto záverov. Tu sa transparentnosť stáva nevyhnutnou.

V prvom rade je kľúčová transparentnosť a buduje dôveru. Keď sa modely AI stanú pozorovateľnými, vzbudia dôveru v ich spoľahlivosť a presnosť. Okrem toho by takáto transparentnosť umožnila vývojárom a organizáciám oveľa väčšiu zodpovednosť za výsledky ich algoritmov.

Ďalším kritickým aspektom transparentnosti je identifikácia a zmiernenie skreslenia algoritmov. Skreslenie možno do modelov AI vložiť niekoľkými spôsobmi.

  • Ľudský prvok: Vedci zaoberajúci sa údajmi sú náchylní na zachovávanie svojich vlastných predsudkov do modelov.
  • Strojové učenie: Aj keby vedci vytvorili čisto objektívnu AI, modely sú stále veľmi náchylné na zaujatosť. Strojové učenie sa začína definovanou množinou údajov, ale potom sa uvoľní, aby absorbovalo nové údaje a vytvorilo nové vzdelávacie cesty a nové závery. Tieto výsledky môžu byť neúmyselné, zaujaté alebo nepresné, pretože model sa pokúša vyvíjať sám o sebe v takzvanom „posúvaní údajov“.

Je dôležité si uvedomiť tieto potenciálne zdroje zaujatosti, aby ich bolo možné identifikovať a zmierniť. Jedným zo spôsobov, ako identifikovať skreslenie, je audit údajov použitých na trénovanie modelu. To zahŕňa hľadanie vzorov, ktoré môžu naznačovať diskrimináciu alebo nespravodlivosť. Ďalším spôsobom, ako zmierniť zaujatosť, je použiť techniky odklonu. Tieto techniky môžu pomôcť odstrániť alebo znížiť zaujatosť modelu. Tým, že budeme transparentní, pokiaľ ide o potenciál zaujatosti a podnikneme kroky na jej zmiernenie, môžeme pomôcť zabezpečiť, aby sa umelá inteligencia používala spravodlivým a zodpovedným spôsobom.

Transparentné modely AI umožňujú výskumníkom a používateľom skúmať tréningové údaje, identifikovať zaujatosti a podniknúť nápravné opatrenia na ich vyriešenie. Zviditeľnením rozhodovacieho procesu nám transparentnosť pomáha usilovať sa o spravodlivosť a predchádzať šíreniu diskriminačných praktík. Okrem toho je potrebná transparentnosť počas životnosti modelu, ako je vysvetlené vyššie, aby sa zabránilo posunu údajov, zaujatosti a halucináciám AI, ktoré produkujú nepravdivé informácie. Tieto halucinácie sú obzvlášť rozšírené vo veľkých jazykových modeloch, ale existujú aj vo všetkých formách produktov AI. Pozorovateľnosť AI tiež zohráva dôležitú úlohu pri zabezpečovaní výkonu a presnosti modelov, ktoré vytvárajú bezpečnejšiu a spoľahlivejšiu AI, ktorá je menej náchylná na chyby alebo neúmyselné následky.

Dosiahnutie transparentnosti v AI však nie je bez problémov. Na riešenie problémov, akými sú súkromie údajov, bezpečnosť a duševné vlastníctvo, je potrebná starostlivá rovnováha. To znamená implementáciu techník na ochranu súkromia, anonymizáciu citlivých údajov a vytvorenie priemyselných noriem a predpisov, ktoré podporujú zodpovedné postupy transparentnosti.

Transparentná AI sa stáva realitou

Vývoj nástrojov a technológií, ktoré môžu umožniť kontrolu v AI, je rozhodujúci pre podporu transparentnosti a zodpovednosti v modeloch AI.

Okrem vývoja nástrojov a technológií, ktoré umožňujú kontrolu v AI, môže technický vývoj podporiť transparentnosť aj vytvorením jej kultúry okolo AI. Povzbudzovanie podnikov a organizácií, aby boli transparentné pri používaní AI, môže tiež pomôcť vybudovať dôveru. Uľahčením kontroly modelov AI a vytvorením kultúry transparentnosti okolo AI môže technický vývoj pomôcť zabezpečiť, aby sa AI používala spravodlivým a zodpovedným spôsobom.

Technologický vývoj však môže mať aj opačný efekt. Napríklad, ak technologické spoločnosti vyvíjajú proprietárne algoritmy, ktoré nie sú prístupné verejnej kontrole, môže to sťažiť pochopenie toho, ako tieto algoritmy fungujú, a identifikovať akékoľvek potenciálne predsudky alebo riziká. Zabezpečenie toho, aby umelá inteligencia bola prínosom pre spoločnosť ako celok, a nie pre pár vyvolených, si vyžaduje vysokú úroveň spolupráce.

Výskumníci, tvorcovia politík a dátoví vedci môžu vytvoriť predpisy a normy, ktoré dosiahnu správnu rovnováhu medzi otvorenosťou, súkromím a bezpečnosťou bez toho, aby potláčali inovácie. Tieto nariadenia môžu vytvárať rámce, ktoré podporujú zdieľanie poznatkov a zároveň riešia potenciálne riziká a definujú očakávania týkajúce sa transparentnosti a vysvetliteľnosti v kritických systémoch.

Všetky strany súvisiace s vývojom a nasadením AI by mali uprednostňovať transparentnosť dokumentovaním svojich rozhodovacích procesov, sprístupnením zdrojového kódu a transparentnosťou ako základnou zásadou vývoja systému AI. Každému to umožňuje zohrávať dôležitú úlohu pri skúmaní metód, vďaka ktorým budú algoritmy AI lepšie interpretovateľné, a pri vývoji techník, ktoré uľahčia pochopenie a vysvetlenie zložitých modelov.

Napokon, zapojenie verejnosti je v tomto procese kľúčové. Zvyšovaním povedomia a podporovaním verejných diskusií o transparentnosti umelej inteligencie môžeme zabezpečiť, aby sa pri vývoji a zavádzaní systémov umelej inteligencie odrážali spoločenské hodnoty.

záver

Ako sa AI čoraz viac integruje do rôznych aspektov nášho života, transparentnosť AI a používanie modelov s otvoreným zdrojovým kódom sa stávajú kritickými faktormi. Prijatie kontrolovateľnej AI nielenže zaisťuje spravodlivosť a zodpovednosť, ale tiež stimuluje inovácie, zabraňuje koncentrácii moci a podporuje spravodlivý prístup k pokrokom AI.

Uprednostňovaním transparentnosti, umožnením kontroly modelov AI a podporou spolupráce môžeme spoločne formovať budúcnosť AI, z ktorej budú mať prospech všetci, a zároveň riešiť etické, sociálne a technické výzvy spojené s touto transformačnou technológiou.

Liran Hason je spoluzakladateľom a generálnym riaditeľom spoločnosti Apória, kompletná platforma na ovládanie AI, ktorú používajú spoločnosti z rebríčka Fortune 500 a tímy pre vedu o údajoch na celom svete na zabezpečenie zodpovednej AI. Aporia sa bezproblémovo integruje s akoukoľvek infraštruktúrou ML. Či už je to server FastAPI nad Kubernetes, nástroj na nasadenie s otvoreným zdrojom, ako je MLFlow, alebo platforma strojového učenia, ako je AWS Sagemaker.