csonk Az AI átláthatósága és a nyílt forráskódú modellek szükségessége – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

Az AI átláthatósága és a nyílt forráskódú modellek szükségessége

mm
korszerűsített on

Annak érdekében, hogy megvédjék az embereket a mesterséges intelligencia lehetséges ártalmaitól, az Egyesült Államokban és az Európai Unióban egyes szabályozók egyre inkább a nyílt forráskódú mesterségesintelligencia-modellek erejének ellenőrzését, valamint a fékek és ellensúlyok kiegyensúlyozását szorgalmazzák. Ezt részben a nagyvállalatok azon vágya motiválja, hogy irányítsák a mesterséges intelligencia fejlesztését, és úgy alakítsák a mesterséges intelligencia fejlődését, hogy az számukra előnyös legyen. A szabályozó hatóságokat a mesterséges intelligencia fejlődésének üteme is aggasztja, mivel attól tartanak, hogy a mesterséges intelligencia túl gyorsan fejlődik, és nincs elég idő a biztosítékok bevezetésére, amelyek megakadályozzák, hogy rosszindulatú célokra használják fel.

Az AI Bill of Rights és a NIST AI kockázatkezelési keretrendszer az USA-ban, valamint a EU AI törvény, támogatják az olyan elveket, mint a pontosság, a biztonság, a megkülönböztetésmentesség, a biztonság, az átláthatóság, az elszámoltathatóság, a megmagyarázhatóság, az értelmezhetőség és az adatvédelem. Ezenkívül mind az EU, mind az USA arra számít, hogy a szabványügyi szervezetek – akár kormányzati, akár nemzetközi szervezetek – döntő szerepet fognak játszani a mesterséges intelligencia iránymutatásainak kialakításában.

E helyzet fényében feltétlenül törekedni kell egy olyan jövőre, amely magában foglalja az átláthatóságot és az AI-rendszerek vizsgálatának és felügyeletének képességét. Ez lehetővé tenné a fejlesztők számára világszerte, hogy alaposan megvizsgálják, elemezzék és javítsák az AI-t, különös tekintettel a képzési adatokra és folyamatokra.

Ahhoz, hogy sikeresen átláthatóvá tegyük az AI-t, meg kell értenünk a döntéshozatali algoritmusokat, amelyek az alapját képezik, és ezzel meg kell oldanunk az AI „fekete doboz” megközelítését. A nyílt forráskódú és ellenőrizhető modellek szerves szerepet játszanak e cél elérésében, mivel hozzáférést biztosítanak a mögöttes kódhoz, rendszerarchitektúrához és képzési adatokhoz ellenőrzés és audit céljából. Ez a nyitottság elősegíti az együttműködést, ösztönzi az innovációt, és védelmet nyújt a monopolizálás ellen.

E vízió megvalósulásának szemtanúinak szemtanújaként elengedhetetlen a szakpolitikai változások, az alulról építkező kezdeményezések elősegítése, valamint az összes érdekelt fél aktív részvételének ösztönzése, beleértve a fejlesztőket, a vállalatokat, a kormányokat és a nyilvánosságot.

A mesterséges intelligencia jelenlegi állapota: Koncentráció és ellenőrzés

Jelenleg a mesterséges intelligencia fejlesztése, különösen az nagy nyelvi modellek (LLM) elsősorban központosított és nagyvállalatok által ellenőrzött. A hatalom ilyen koncentrációja aggályokat vet fel a visszaélések lehetőségével kapcsolatban, és kérdéseket vet fel az egyenlő hozzáféréssel és a mesterséges intelligencia fejlődéséből származó előnyök igazságos elosztásával kapcsolatban.

Különösen az olyan népszerű modelleknél, mint az LLM-ek, hiányoznak a nyílt forráskódú alternatívák a képzési folyamat során, mivel a szükséges nagy számítási erőforrások jellemzően csak a nagyvállalatok számára állnak rendelkezésre. Mindazonáltal, még ha ez a helyzet változatlan marad is, a képzési adatok és folyamatok átláthatóságának biztosítása kulcsfontosságú az ellenőrzés és az elszámoltathatóság elősegítése érdekében.

Az OpenAI által nemrégiben bevezetett engedélyezési rendszer bizonyos mesterségesintelligencia-típusokra aggodalmakat és aggodalmakat váltott ki a szabályozási befogással kapcsolatban, mivel nemcsak az AI pályáját, hanem szélesebb társadalmi, gazdasági és politikai szempontokat is befolyásolhat.

Az átlátszó mesterséges intelligencia szükségessége

Képzeld el, hogy egy olyan technológiára támaszkodsz, amely hatásos döntéseket hoz az emberi/magánéletre vonatkozóan, de nem hagy nyomot a morzsában, és nem érti a következtetések mögött rejlő okokat. Itt válik nélkülözhetetlenné az átláthatóság.

Mindenekelőtt az átláthatóság kulcsfontosságú, és bizalmat épít. Amikor az AI-modellek megfigyelhetővé válnak, bizalmat keltenek megbízhatóságuk és pontosságuk iránt. Ezenkívül az ilyen átláthatóság a fejlesztőket és a szervezeteket sokkal jobban elszámoltatná algoritmusaik eredményeivel.

Az átláthatóság másik kritikus szempontja az algoritmikus torzítás azonosítása és enyhítése. A torzítás többféleképpen is beadható az AI modellekbe.

  • Emberi elem: Az adattudósok ki vannak téve annak, hogy saját elfogultságukat modellekben örökítsék meg.
  • Gépi tanulás: Még ha a tudósok tisztán objektív AI-t is létrehoznának, a modellek még mindig nagyon érzékenyek az elfogultságra. A gépi tanulás egy meghatározott adatkészlettel kezdődik, majd szabaddá válik az új adatok befogadására, valamint új tanulási utak és új következtetések létrehozására. Ezek az eredmények nem szándékosak, elfogultak vagy pontatlanok lehetnek, mivel a modell önmagában próbál fejlődni az úgynevezett „adatsodródásban”.

Fontos, hogy tisztában legyünk ezekkel a lehetséges torzítási forrásokkal, hogy azonosítani és enyhíteni lehessen őket. A torzítás azonosításának egyik módja a modell betanításához használt adatok auditálása. Ez magában foglalja a diszkriminációra vagy méltánytalanságra utaló minták keresését is. Az elfogultság csökkentésének másik módja az elfogultság csökkentő technikák alkalmazása. Ezek a technikák segíthetnek eltávolítani vagy csökkenteni a torzítást a modellből. Azáltal, hogy átláthatóak vagyunk az elfogultság lehetőségét illetően, és lépéseket teszünk annak enyhítésére, hozzájárulhatunk a mesterséges intelligencia méltányos és felelősségteljes használatához.

Az átlátszó mesterséges intelligencia modellek lehetővé teszik a kutatók és a felhasználók számára, hogy megvizsgálják a képzési adatokat, azonosítsák a torzításokat, és korrekciós lépéseket tegyenek azok kezelésére. Az átláthatóság a döntéshozatali folyamat láthatóvá tételével segíti a méltányosságra való törekvést és megakadályozza a diszkriminatív gyakorlatok terjedését. Ezen túlmenően a fentebb kifejtetteknek megfelelően átláthatóságra van szükség a modell teljes élettartama során, hogy megelőzzük az adatsodródást, a torzítást és a hamis információkat produkáló mesterséges intelligencia hallucinációkat. Ezek a hallucinációk különösen elterjedtek a nagy nyelvi modellekben, de előfordulnak az AI-termékek minden formájánál is. A mesterséges intelligencia megfigyelhetősége is fontos szerepet játszik a modellek teljesítményének és pontosságának biztosításában, így biztonságosabb, megbízhatóbb mesterséges intelligencia jön létre, amely kevésbé hajlamos a hibákra vagy a nem kívánt következményekre.

Az AI átláthatóságának elérése azonban nem mentes a kihívásoktól. A gondos egyensúly megteremtése szükséges az olyan aggályok kezeléséhez, mint az adatvédelem, a biztonság és a szellemi tulajdon. Ez magában foglalja a magánélet védelmét szolgáló technikák bevezetését, az érzékeny adatok anonimizálását, valamint olyan iparági szabványok és szabályozások létrehozását, amelyek elősegítik a felelős átláthatósági gyakorlatokat.

Az átlátszó mesterséges intelligencia megvalósítása

Az AI-modellek átláthatóságának és elszámoltathatóságának előmozdítása szempontjából kulcsfontosságú az olyan eszközök és technológiák fejlesztése, amelyek lehetővé teszik a mesterséges intelligencia áttekinthetőségét.

Amellett, hogy olyan eszközöket és technológiákat fejlesztenek ki, amelyek lehetővé teszik a mesterséges intelligencia áttekinthetőségét, a technológiai fejlesztés az átláthatóságot is elősegítheti azáltal, hogy kultúráját hoz létre az AI körül. A bizalom és a magabiztosság kiépítését is elősegítheti, ha a vállalkozásokat és szervezeteket arra ösztönzik, hogy legyenek átláthatóak a mesterséges intelligencia használatával kapcsolatban. Az AI-modellek ellenőrzésének megkönnyítésével és a mesterséges intelligencia körüli átláthatóság kultúrájának megteremtésével a technológiai fejlesztés hozzájárulhat a mesterséges intelligencia tisztességes és felelősségteljes használatának biztosításához.

A technológiai fejlesztésnek azonban ellenkező hatása is lehet. Például, ha a technológiai vállalatok olyan szabadalmaztatott algoritmusokat fejlesztenek ki, amelyek nem nyilvánosak, ez megnehezítheti ezen algoritmusok működésének megértését és az esetleges torzítások vagy kockázatok azonosítását. Magas szintű együttműködést igényel annak biztosítása, hogy a mesterséges intelligencia a társadalom egészének javát szolgálja, nem pedig néhány kiválasztottnak.

A kutatók, döntéshozók és adattudósok olyan szabályozásokat és szabványokat hozhatnak létre, amelyek megfelelő egyensúlyt teremtenek a nyitottság, a magánélet és a biztonság között az innováció elfojtása nélkül. Ezek a szabályozások olyan kereteket hozhatnak létre, amelyek ösztönzik a tudás megosztását, miközben kezelik a potenciális kockázatokat, és meghatározzák a kritikus rendszerek átláthatóságára és magyarázhatóságára vonatkozó elvárásokat.

A mesterséges intelligencia fejlesztésével és telepítésével kapcsolatos valamennyi félnek előnyben kell részesítenie az átláthatóságot azáltal, hogy dokumentálja döntéshozatali folyamatait, elérhetővé teszi a forráskódot, és az átláthatóságot az AI-rendszerek fejlesztésének alapelveként kezeli. Ez lehetővé teszi mindenkinek, hogy létfontosságú szerepet játsszon az AI algoritmusok értelmezhetőbbé tételére szolgáló módszerek feltárásában, valamint olyan technikák kifejlesztésében, amelyek megkönnyítik az összetett modellek megértését és magyarázatát.

Végül a nyilvánosság szerepvállalása döntő fontosságú ebben a folyamatban. A tudatosság növelésével és a mesterséges intelligencia átláthatóságával kapcsolatos nyilvános viták előmozdításával biztosíthatjuk, hogy a társadalmi értékek tükröződjenek az AI-rendszerek fejlesztésében és telepítésében.

Következtetés

Ahogy a mesterséges intelligencia egyre inkább beépül életünk különböző területeibe, az AI átláthatósága és a nyílt forráskódú modellek használata kritikus szempontokká válnak. A megtekinthető mesterséges intelligencia elfogadása nemcsak a méltányosságot és az elszámoltathatóságot biztosítja, hanem ösztönzi az innovációt, megakadályozza a hatalom koncentrációját, és elősegíti az MI fejlesztéseihez való méltányos hozzáférést.

Az átláthatóság előtérbe helyezésével, a mesterséges intelligencia modellek ellenőrzésének lehetővé tételével és az együttműködés előmozdításával közösen alakíthatjuk ki a mesterséges intelligencia jövőjét, amely mindenki számára előnyös, miközben megbirkózik az ezzel az átalakuló technológiával kapcsolatos etikai, társadalmi és technikai kihívásokkal.

Liran Hason a társaság társalapítója és vezérigazgatója aporia, egy full-stack AI-vezérlőplatform, amelyet a Fortune 500-as cégek és adattudományi csapatok használnak szerte a világon a felelős AI biztosítására. Az Aporia zökkenőmentesen integrálható bármely ML infrastruktúrával. Legyen szó egy FastAPI-kiszolgálóról a Kubernetes tetején, egy nyílt forráskódú telepítőeszközről, mint az MLFlow, vagy egy gépi tanulási platformról, mint az AWS Sagemaker.