stub Bailey Kacsmar, Waterloo ülikooli doktorikandidaat – intervjuusari – Unite.AI
Ühenda meile

intervjuud

Bailey Kacsmar, Waterloo ülikooli doktorikandidaat – intervjuusari

mm

avaldatud

 on

Bailey Kacsmar on doktorikandidaat Ameerika Ühendriikide arvutiteaduste koolis University of Waterloo ja sissetulev õppejõud Alberta ülikool. Tema uurimisvaldkonnad on kasutajateadlike privaatsust suurendavate tehnoloogiate väljatöötamine, paralleelselt uurides tehnilisi lähenemisviise eraarvutusteks koos kasutajate vastavate arusaamade, murede ja nende tehnoloogiate mõistmisega. Tema töö eesmärk on tuvastada masinõpperakenduste privaatsuse potentsiaal ja piirangud.

Teie uurimisvaldkonnad on kasutajateadlike privaatsust suurendavate tehnoloogiate arendamine, miks on privaatsus AI-s nii oluline?

Privaatsus AI-s on nii oluline, kuna meie maailmas ei eksisteeri tehisintellekti ilma andmeteta. Kuigi andmed on kasulikud abstraktsioonid, kirjeldavad need lõpuks inimesi ja nende käitumist. Me töötame harva andmetega puude populatsioonide ja veetasemete kohta; Seega, kui töötame millegagi, mis võib tegelikke inimesi mõjutada, peame sellest teadlikud olema ja mõistma, kuidas meie süsteem võib kasu või kahju teha. See kehtib eriti tehisintellekti kohta, kus paljud süsteemid saavad kasu suurest andmehulgast või loodavad kasutada väga tundlikke andmeid (nt terviseandmeid), et püüda luua uusi arusaamu meie maailmast.

Milliseid viise olete näinud, et masinõpe on kasutajate privaatsust reetnud?

Reetmine on kõva sõna. Kuid iga kord, kui süsteem kasutab inimeste kohta teavet ilma nende nõusolekuta, neid teavitamata ja võimalikke kahjusid arvesse võtmata, on oht, et see rikub üksikisiku või ühiskonna privaatsusnorme. Sisuliselt toob see kaasa reetmise tuhande pisikese kärpe võrra. Sellised praktikad võivad olla kasutajate e-posti postkastide mudeli väljaõpe, kasutajate tekstisõnumite või terviseandmete koolitus; seda kõike andmete subjekte teavitamata.

Kas saaksite määratleda, mis on erinev privaatsus ja millised on teie seisukohad selle kohta?  

Diferentsiaalne privaatsus on määratlus või tehnika, mis on tehnilise privaatsuse saavutamiseks kasutusel silmapaistvamaks muutunud. Privaatsuse tehnilised määratlused hõlmavad üldiselt kahte peamist aspekti; mida ja kelle eest kaitstakse. Tehnilise privaatsuse raames on privaatsusgarantiid kaitse, mis saavutatakse eeldusel, et on täidetud mitmed eeldused. Need eeldused võivad puudutada potentsiaalseid vastaseid, süsteemi keerukust või statistikat. See on uskumatult kasulik tehnika, millel on lai valik rakendusi. Siiski on oluline meeles pidada, et erinev privaatsus ei ole samaväärne privaatsusega.

Privaatsus ei piirdu ühe määratluse või mõistega ning oluline on olla teadlik ka sellest, mis on mõisted. Näiteks kontekstuaalne terviklikkus, mis on privaatsuse kontseptuaalne mõiste, mis kajastab näiteks seda, kuidas erinevad rakendused või organisatsioonid muudavad üksikisiku arusaama privaatsusest olukorra suhtes. Samuti on olemas eraelu puutumatuse juriidilised mõisted, näiteks need, mida hõlmavad Kanada PIPEDA, Euroopa GDPR ja California tarbijakaitseseadus (CCPA). See kõik tähendab, et me ei saa käsitleda tehnilisi süsteeme nii, nagu need eksisteeriksid vaakumis, kus ei ole muid privaatsusfaktoreid, isegi kui kasutatakse erinevat privaatsust.

Teine privaatsust suurendav masinõppe tüüp on liitõpe. Kuidas te määratleksite, mis see on ja millised on teie seisukohad selle kohta?

Liitõpe on masinõppe teostamise viis, kui mudelit tuleb koolitada andmekogumite kogumi kohta, mis on jagatud mitme omaniku või asukoha vahel. See ei ole olemuselt privaatsust suurendav masinõppe tüüp. Privaatsust suurendav masinõppe tüüp peab ametlikult määratlema, mida kaitstakse, kelle eest kaitstakse, ja tingimused, mis peavad olema täidetud, et need kaitsed kehtiksid. Näiteks kui mõtleme lihtsale diferentsiaalselt privaatsele arvutustööle, garanteerib see, et väljundit vaatav inimene ei suuda kindlaks teha, kas teatud andmepunkt on lisatud või mitte.

Lisaks ei anna erinev privaatsus seda garantiid, kui näiteks andmepunktide vahel on korrelatsioon. Liitõppel seda funktsiooni pole; see lihtsalt koolitab mudelit andmete kogumi kohta, ilma et nende andmete valdajad peaksid oma andmekogumeid üksteisele või kolmandale osapoolele otse esitama. Kuigi see kõlab privaatsusfunktsioonina, on vaja formaalset tagatist, et kaitstud teavet ei saa õppida, arvestades vahendajaid ja väljundeid, mida ebausaldusväärsed osapooled jälgivad. See formaalsus on eriti oluline liitkeskkonnas, kus ebausaldusväärsed osapooled hõlmavad kõiki, kes esitavad andmeid kollektiivse mudeli koolitamiseks.

Millised on nende lähenemisviiside praegused piirangud?

Praeguseid piiranguid saab kõige paremini kirjeldada kui privaatsuse ja kasuliku kompromissi olemust. Isegi kui teete kõike muud, edastate mõjutatud isikutele privaatsusmõjud, hindate süsteemi selle jaoks, mida proovite teha jne, taandub see ikkagi täiusliku privaatsuse saavutamisele, mis tähendab, et me ei loo süsteemi, täiusliku kasulikkuse saavutamine neil pole privaatsuskaitset, seega on küsimus selles, kuidas teha kindlaks, milline on "ideaalne" kompromiss. Kuidas leiame õige pöördepunkti ja liigume selle poole nii, et saavutaksime soovitud funktsionaalsuse, pakkudes samal ajal vajalikku privaatsuskaitset.

Praegu on teie eesmärk arendada kasutajateadlikku privaatsustehnoloogiat eraarvutuste tehniliste lahenduste paralleelse uurimise kaudu. Kas saaksite üksikasjalikult kirjeldada, millised need lahendused on?

Nende lahenduste all pean silmas seda, et me saame välja töötada suvalise arvu tehnilisi privaatsussüsteeme. Seda tehes on aga oluline kindlaks teha, kas privaatsusgarantiid jõuavad kehtinud isikuteni. See võib tähendada süsteemi väljatöötamist pärast seda, kui on teada, millist kaitset elanikkond hindab. See võib tähendada süsteemi värskendamist pärast seda, kui on teada, kuidas inimesed süsteemi tegelikult kasutavad, võttes arvesse nende tegelikke ohte ja riske. Tehniline lahendus võiks olla korrektne süsteem, mis vastab definitsioonile, mida ma varem mainisin. Kasutajateadlik lahendus kujundaks oma süsteemi kasutajate ja teiste kavandatud rakendusvaldkonnas tehtud sisendite põhjal.

Otsite praegu 2024. aasta septembris alustama huvitatud kraadiõppureid. Miks peaks teie arvates üliõpilased olema AI privaatsusest huvitatud?

Ma arvan, et õpilased peaksid olema huvitatud, sest see on midagi, mis meie ühiskonnas ainult kasvab. Et saada aimu, kui kiiresti need süsteemid välja näevad vaid hiljutine Chat-GPT võimendus uudisteartiklite, sotsiaalmeedia ja selle mõjude arutelude kaudu. Me eksisteerime ühiskonnas, kus andmete kogumine ja kasutamine on meie igapäevaellu niivõrd juurdunud, et pakume peaaegu pidevalt enda kohta teavet erinevatele ettevõtetele ja organisatsioonidele. Need ettevõtted soovivad andmeid kasutada mõnel juhul oma teenuste täiustamiseks, mõnel juhul kasumi teenimiseks. Praegu tundub ebareaalne arvata, et need ettevõtte andmete kasutamise tavad muutuvad. Privaatsuse säilitamise süsteemide olemasolu, mis kaitsevad kasutajaid, võimaldades samal ajal siiski teatud ettevõtete soovitud analüüse, võivad aidata tasakaalustada riski ja tulu kompromissi, mis on muutunud meie ühiskonna niivõrd kaudseks osaks.

Täname suurepärase intervjuu eest, lugejad, kes soovivad rohkem teada saada, peaksid külastama Bailey Kacsmari Githubi leht.

Unite.AI asutajapartner ja liige Forbesi tehnoloogianõukogu, Antoine on a futurist kes on kirglik tehisintellekti ja robootika tuleviku vastu.

Ta on ka asutaja Securities.io, veebisait, mis keskendub häirivasse tehnoloogiasse investeerimisele.