cung Bailey Kacsmar, kandidat për doktoraturë në Universitetin e Waterloo - Seria e intervistave - Unite.AI
Lidhu me ne

intervistat

Bailey Kacsmar, kandidat për doktoraturë në Universitetin e Waterloo – Seria e intervistave

mm

Publikuar

 on

Bailey Kacsmar është një kandidat për doktoraturë në Shkollën e Shkencave Kompjuterike në Universiteti i Waterloos dhe një anëtar i ardhshëm i fakultetit në Universiteti i Alberta. Interesat e saj kërkimore janë në zhvillimin e teknologjive të ndërgjegjshme për rritjen e privatësisë, përmes studimit paralel të qasjeve teknike për llogaritjen private së bashku me perceptimet, shqetësimet dhe të kuptuarit përkatës të përdoruesve të këtyre teknologjive. Puna e saj synon të identifikojë potencialin dhe kufizimet për privatësinë në aplikacionet e mësimit të makinerive.

Interesat tuaja kërkimore janë në zhvillimin e teknologjive të ndërgjegjshme për rritjen e privatësisë, pse është kaq e rëndësishme privatësia në AI?

Privatësia në AI është kaq e rëndësishme, në një pjesë të madhe sepse AI në botën tonë nuk ekziston pa të dhëna. Të dhënat, megjithëse janë një abstraksion i dobishëm, në fund të fundit janë diçka që përshkruan njerëzit dhe sjelljet e tyre. Ne rrallë po punojmë me të dhëna për popullsinë e pemëve dhe nivelet e ujit; Pra, sa herë që jemi duke punuar me diçka që mund të prekë njerëzit e vërtetë, duhet ta dimë këtë dhe të kuptojmë se si sistemi ynë mund të bëjë mirë ose dëm. Kjo është veçanërisht e vërtetë për AI ku shumë sisteme përfitojnë nga sasi masive të dhënash ose shpresojnë të përdorin të dhëna shumë të ndjeshme (si të dhënat shëndetësore) për të provuar të zhvillojnë kuptime të reja të botës sonë.

Cilat janë disa mënyra që keni parë se mësimi i makinerive ka tradhtuar privatësinë e përdoruesve?

E tradhtuar është një fjalë e fortë. Megjithatë, sa herë që një sistem përdor informacione për njerëzit pa pëlqimin e tyre, pa i informuar ata dhe pa marrë parasysh dëmet e mundshme, rrezikon të tradhtojë normat e privatësisë individuale ose shoqërore. Në thelb, kjo rezulton në tradhti me një mijë prerje të vogla. Praktika të tilla mund të jenë trajnimi i një modeli në kutitë e postës elektronike të përdoruesve, trajnimi për mesazhet me tekst të përdoruesve ose mbi të dhënat shëndetësore; të gjitha pa informuar subjektet e të dhënave.

A mund të përcaktoni se çfarë është privatësia diferenciale dhe cilat janë pikëpamjet tuaja për të?  

Privatësia diferenciale është një përkufizim ose teknikë që është bërë e njohur për sa i përket përdorimit për arritjen e privatësisë teknike. Përkufizimet teknike të privatësisë, në përgjithësi, përfshijnë dy aspekte kryesore; çfarë mbrohet dhe nga kush. Brenda privatësisë teknike, garancitë e privatësisë janë mbrojtje që arrihen duke pasur parasysh një sërë supozimesh që janë përmbushur. Këto supozime mund të jenë në lidhje me kundërshtarët e mundshëm, kompleksitetin e sistemit ose statistikat. Është një teknikë tepër e dobishme që ka një gamë të gjerë aplikimesh. Megjithatë, ajo që është e rëndësishme të kihet parasysh është se privatësia diferenciale nuk është ekuivalente me privatësinë.

Privatësia nuk kufizohet në një përkufizim ose koncept, dhe është e rëndësishme të jesh i vetëdijshëm për nocionet përtej kësaj. Për shembull, integriteti kontekstual i cili është një nocion konceptual i privatësisë që llogarit gjëra të tilla si mënyra se si aplikacione të ndryshme ose organizata të ndryshme ndryshojnë perceptimet e privatësisë së një individi në lidhje me një situatë. Ekzistojnë gjithashtu nocione ligjore të privatësisë si ato të përfshira nga PIPEDA e Kanadasë, GDPR e Evropës dhe akti i mbrojtjes së konsumatorit të Kalifornisë (CCPA). E gjithë kjo do të thotë se ne nuk mund t'i trajtojmë sistemet teknike sikur ato ekzistojnë në një vakum pa faktorë të tjerë të privatësisë, edhe nëse përdoret privatësia diferenciale.

Një lloj tjetër i mësimit të makinerisë që përmirëson privatësinë është mësimi i federuar, si do ta përcaktonit se çfarë është kjo dhe cilat janë pikëpamjet tuaja për të?

Mësimi i federuar është një mënyrë për të kryer mësimin e makinerive kur modeli do të trajnohet në një koleksion grupesh të dhënash që shpërndahen në disa pronarë ose vendndodhje. Nuk është në thelb një lloj mësimi i makinerisë që përmirëson privatësinë. Një lloj i mësimit të makinerisë që përmirëson privatësinë duhet të përcaktojë zyrtarisht se çfarë mbrohet, nga kush mbrohet dhe kushtet që duhet të plotësohen që këto mbrojtje të mbahen. Për shembull, kur mendojmë për një llogaritje të thjeshtë diferenciale private, garanton që dikush që shikon daljen nuk do të jetë në gjendje të përcaktojë nëse një pikë e caktuar e të dhënave është kontribuar apo jo.

Për më tepër, privatësia diferenciale nuk e jep këtë garanci nëse, për shembull, ka korrelacion midis pikave të të dhënave. Mësimi i federuar nuk e ka këtë veçori; ai thjesht trajnon një model mbi një koleksion të dhënash pa kërkuar që mbajtësit e atyre të dhënave t'i japin drejtpërdrejt grupet e tyre të të dhënave njëri-tjetrit ose një pale të tretë. Ndërsa kjo tingëllon si një veçori e privatësisë, ajo që nevojitet është një garanci formale që nuk mund të mësohet informacioni i mbrojtur duke pasur parasysh ndërmjetësit dhe rezultatet që palët e pabesuara do të vëzhgojnë. Ky formalitet është veçanërisht i rëndësishëm në mjedisin federativ ku palët e pabesuara përfshijnë të gjithë ata që ofrojnë të dhëna për të trajnuar modelin kolektiv.

Cilat janë disa nga kufizimet aktuale të këtyre qasjeve?

Kufizimet aktuale mund të përshkruhen më së miri si natyra e shkëmbimit të privatësisë dhe shërbimeve. Edhe nëse bëni gjithçka tjetër, komunikoni implikimet e privatësisë me ata që janë prekur, vlerësoni sistemin për atë që po përpiqeni të bëni, etj., megjithatë, bëhet fjalë për arritjen e privatësisë së përsosur do të thotë se ne nuk e bëjmë sistemin, arritja e dobisë së përsosur në përgjithësi do të nuk kemi asnjë mbrojtje të privatësisë, kështu që pyetja është se si ta përcaktojmë se cila është kompensimi "ideal". Si mund ta gjejmë pikën e duhur kthese dhe të ndërtojmë drejt saj në mënyrë që të arrijmë ende funksionalitetin e dëshiruar duke ofruar mbrojtjen e nevojshme të privatësisë.

Aktualisht synoni të zhvilloni teknologjinë e privatësisë së vetëdijshme për përdoruesit përmes studimit paralel të zgjidhjeve teknike për llogaritjet private. A mund të hyni në disa detaje se cilat janë disa nga këto zgjidhje?

Ajo që dua të them me këto zgjidhje është se ne mundemi, duke folur lirshëm, të zhvillojmë çdo numër sistemesh teknike të privatësisë. Megjithatë, kur veproni kështu, është e rëndësishme të përcaktohet nëse garancitë e privatësisë po arrijnë ato të zbatuara. Kjo mund të nënkuptojë zhvillimin e një sistemi pasi të zbulohet se çfarë lloj mbrojtjesh vlerëson popullsia. Kjo mund të nënkuptojë përditësimin e një sistemi pasi të zbulohet se si njerëzit përdorin në të vërtetë një sistem duke pasur parasysh kërcënimin e tyre në jetën reale dhe konsideratat e rrezikut. Një zgjidhje teknike mund të jetë një sistem korrekt që plotëson përkufizimin që përmenda më parë. Një zgjidhje e ndërgjegjshme për përdoruesit do të dizajnonte sistemin e saj bazuar në të dhëna nga përdoruesit dhe të tjerët të realizuara në domenin e synuar të aplikacionit.

Aktualisht po kërkoni studentë të interesuar të diplomuar për të filluar në shtator 2024, pse mendoni se studentët duhet të jenë të interesuar për privatësinë e AI?

Unë mendoj se studentët duhet të jenë të interesuar sepse është diçka që do të rritet vetëm në përhapjen e saj në shoqërinë tonë. Për të pasur një ide se sa shpejt këto sisteme nuk duken më larg se sa përforcimi i fundit Chat-GPT përmes artikujve të lajmeve, mediave sociale dhe debateve për implikimet e tij. Ne ekzistojmë në një shoqëri ku mbledhja dhe përdorimi i të dhënave është aq i ngulitur në jetën tonë të përditshme saqë pothuajse vazhdimisht po u ofrojmë informacione për veten tonë kompanive dhe organizatave të ndryshme. Këto kompani duan të përdorin të dhënat, në disa raste për të përmirësuar shërbimet e tyre, në të tjera për përfitim. Në këtë pikë, duket joreale të mendohet se këto praktika të përdorimit të të dhënave të korporatës do të ndryshojnë. Megjithatë, ekzistenca e sistemeve të ruajtjes së privatësisë që mbrojnë përdoruesit duke lejuar ende analiza të caktuara të dëshiruara nga kompanitë mund të ndihmojë në balancimin e shkëmbimit të rrezikut-shpërblimeve që është bërë një pjesë kaq e nënkuptuar e shoqërisë sonë.

Faleminderit për intervistën e mrekullueshme, lexuesit që janë të interesuar të mësojnë më shumë duhet ta vizitojnë Faqja Github e Bailey Kacsmar.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.