cung Arjun Narayan, Shef i Besimit dhe Sigurisë Globale për SmartNews - Seria e intervistave - Unite.AI
Lidhu me ne

intervistat

Arjun Narayan, Shef i Besimit dhe Sigurisë Globale për SmartNews – Seria e Intervistave

mm

Publikuar

 on

Arjun Narayan, është Shefi i Besimit dhe Sigurisë Globale për SmartNews një aplikacion për grumbullimin e lajmeve, ai është gjithashtu një ekspert i etikës së AI dhe politikave të teknologjisë. SmartNews përdor AI dhe një ekip njerëzor editorial ndërsa grumbullon lajme për lexuesit.

Ju ndihmuat në krijimin e qendrës së Azi-Paqësorit të Trustit dhe Sigurisë së Google në Singapor, cilat ishin disa mësime kryesore që mësuat nga kjo përvojë?

Kur ndërtoni ekipe të besimit dhe sigurisë, ekspertiza në nivel vendi është kritike sepse abuzimi është shumë i ndryshëm në bazë të vendit që po rregulloni. Për shembull, mënyra se si u abuzuan produktet e Google në Japoni ishte e ndryshme nga mënyra se si ato abuzoheshin në Azinë Juglindore dhe Indi. Kjo do të thotë se vektorët e abuzimit janë shumë të ndryshëm në varësi të asaj se kush abuzon dhe në cilin vend jeni me bazë; kështu që nuk ka homogjenitet. Kjo ishte diçka që e mësuam herët.

Mësova gjithashtu se diversiteti kulturor është tepër i rëndësishëm kur ndërtohen ekipe të besimit dhe sigurisë jashtë vendit. Në Google, ne siguruam që kishte diversitet dhe mirëkuptim të mjaftueshëm kulturor brenda njerëzve që punësuam. Ne po kërkonim njerëz me ekspertizë specifike të fushës, por edhe për ekspertizë gjuhësore dhe tregu.

Gjithashtu gjeta se zhytja kulturore ishte tepër e rëndësishme. Kur po ndërtojmë ekipe të besimit dhe sigurisë përtej kufijve, na duhej të siguronim që ekipet tona inxhinierike dhe të biznesit të mund të zhyten në vetvete. Kjo ndihmon për t'u siguruar që të gjithë të jenë më afër çështjeve që po përpiqeshim të menaxhonim. Për ta bërë këtë, ne bëmë seanca zhytjeje tremujore me personelin kryesor dhe kjo ndihmoi në rritjen e IQ-ve kulturore të të gjithëve.

Së fundi, të kuptuarit ndërkulturor ishte kaq i rëndësishëm. Unë drejtova një ekip në Japoni, Australi, Indi dhe Azinë Juglindore, dhe mënyra në të cilën ata ndërvepruan ishte jashtëzakonisht e ndryshme. Si udhëheqës, ju dëshironi të siguroheni që të gjithë të mund të gjejnë zërin e tyre. Në fund të fundit, e gjithë kjo është krijuar për të ndërtuar një ekip me performancë të lartë që mund të ekzekutojë detyra të ndjeshme si Besimi dhe Siguria.

Më parë, keni qenë gjithashtu në ekipin Trust & Safety me ByteDance për aplikacionin TikTok, si monitorohen në mënyrë efektive për sigurinë videot që janë shpesh më të shkurtra se një minutë?

Dua ta riformuloj pak këtë pyetje, sepse nuk ka shumë rëndësi nëse një video është e shkurtër apo e gjatë. Ky nuk është një faktor kur vlerësojmë sigurinë e videos dhe gjatësia nuk ka peshë reale nëse një video mund të shpërndajë abuzim.

Kur mendoj për abuzimin, e mendoj abuzimin si "çështje". Cilat janë disa nga çështjet ndaj të cilave përdoruesit janë të prekshëm? Dezinformata? Dezinformata? Pavarësisht nëse ajo video është 1 minutë apo 1 orë, ka ende dezinformata që shpërndahen dhe niveli i abuzimit mbetet i krahasueshëm.

Në varësi të llojit të problemit, ju filloni të mendoni për zbatimin e politikave dhe parmakët e sigurisë dhe se si mund të mbroni përdoruesit e cenueshëm. Si shembull, le të themi se ekziston një video e dikujt që po vetëdëmton. Kur marrim njoftimin se kjo video ekziston, duhet vepruar me urgjencë, sepse dikush mund të humbasë një jetë. Ne varemi shumë nga mësimi i makinës për të bërë këtë lloj zbulimi. Lëvizja e parë është të kontaktoni gjithmonë autoritetet për të provuar të shpëtoni atë jetë, asgjë nuk është më e rëndësishme. Nga atje, ne synojmë të pezullojmë videon, transmetimin e drejtpërdrejtë ose çfarëdo formati në të cilin shpërndahet. Ne duhet të sigurohemi që po minimizojmë ekspozimin ndaj atij lloji të përmbajtjes së dëmshme sa më shpejt që të jetë e mundur.

Po kështu, nëse bëhet fjalë për gjuhë urrejtjeje, ka mënyra të ndryshme për ta zbërthyer atë. Ose në rastin e ngacmimit dhe ngacmimit, në të vërtetë varet nga lloji i çështjes, dhe në varësi të kësaj, ne do të rregullojmë opsionet tona të zbatimit dhe parmakët e sigurisë. Një shembull tjetër i një parmak të mirë sigurie ishte se ne zbatuam mësimin e makinerive që mund të zbulonte kur dikush shkruan diçka të papërshtatshme në komente dhe t'i jepte një nxitje për t'i bërë ata të mendojnë dy herë përpara se të postojnë atë koment. Ne nuk do t'i ndalonim ata domosdoshmërisht, por shpresa jonë ishte që njerëzit të mendoheshin dy herë përpara se të ndanin diçka të keqe.

Bëhet fjalë për një kombinim të rregullave të mësimit të makinës dhe fjalëve kyçe. Por, kur bëhet fjalë për transmetimet e drejtpërdrejta, ne kishim gjithashtu moderatorë njerëzorë që shqyrtonin ato transmetime që u raportuan nga AI, në mënyrë që ata të mund të raportonin menjëherë dhe të zbatonin protokollet. Për shkak se ato po ndodhin në kohë reale, nuk mjafton të mbështetemi tek përdoruesit për të raportuar, kështu që ne duhet të kemi monitorim nga njerëzit në kohë reale.

Që nga viti 2021, ju keni qenë Shefi i Mirëbesimit, Sigurisë dhe përvojës së klientit në SmartNews, një aplikacion për grumbullimin e lajmeve. A mund të diskutoni se si SmartNews përdor mësimin e makinerive dhe përpunimin e gjuhës natyrore për të identifikuar dhe për t'i dhënë përparësi përmbajtjes së lajmeve me cilësi të lartë?

Koncepti qendror është se ne kemi disa "rregulla" ose teknologji të mësimit të makinerive që mund të analizojnë një artikull ose reklamë dhe të kuptojnë se për çfarë bëhet fjalë ai artikull.

Kurdoherë që ka diçka që shkel "rregullat" tona, le të themi se diçka është faktikisht e pasaktë ose mashtruese, ne kemi të dhëna të mësimit të makinerive që e raportojmë atë përmbajtje tek një recensues njerëzor në ekipin tonë editorial. Në atë fazë, ata i kuptojnë vlerat tona editoriale dhe mund ta rishikojnë shpejt artikullin dhe të bëjnë një gjykim për përshtatshmërinë ose cilësinë e tij. Prej aty, ndërmerren veprime për zgjidhjen e tij.

Si e përdor SmartNews AI për të siguruar që platforma të jetë e sigurt, gjithëpërfshirëse dhe objektive?

SmartNews u themelua me premisën se hiper-personalizimi është i mirë për egon, por gjithashtu po na polarizon të gjithëve duke përforcuar paragjykimet dhe duke i vendosur njerëzit në një flluskë filtri.

Mënyra në të cilën SmartNews përdor AI është pak më ndryshe sepse ne nuk po optimizojmë ekskluzivisht për angazhim. Algoritmi ynë dëshiron t'ju kuptojë, por nuk është domosdoshmërisht hiper-personalizues për shijen tuaj. Kjo sepse ne besojmë në zgjerimin e perspektivave. Motori ynë i AI do t'ju prezantojë me koncepte dhe artikuj përtej koncepteve ngjitur.

Ideja është se ka gjëra që njerëzit duhet të dinë në interes të publikut, dhe ka gjëra që njerëzit duhet të dinë për të zgjeruar fushën e tyre. Balanca që ne përpiqemi të arrijmë është të japim këto analiza kontekstuale pa qenë vëllazërore. Ndonjëherë njerëzve nuk u pëlqejnë gjërat që algoritmi ynë vendos në burimin e tyre. Kur kjo ndodh, njerëzit mund të zgjedhin të mos e lexojnë atë artikull. Megjithatë, ne jemi krenarë për aftësinë e motorit të AI për të promovuar qetësinë, kuriozitetin, sido që të doni ta quani.

Nga ana e sigurisë, SmartNews ka diçka të quajtur "Rezultati i botuesit", ky është një algoritëm i krijuar për të vlerësuar vazhdimisht nëse një botues është i sigurt apo jo. Në fund të fundit, ne duam të përcaktojmë nëse një botues ka një zë autoritar. Si shembull, ne të gjithë mund të pajtohemi kolektivisht që ESPN është një autoritet në sport. Por, nëse jeni një blog i rastësishëm që kopjon përmbajtjen ESPN, ne duhet të sigurohemi që ESPN të renditet më lart se ai blog i rastësishëm. Rezultati i botuesit gjithashtu merr në konsideratë faktorë si origjinaliteti, kur janë postuar artikujt, si duken komentet e përdoruesve, etj. Në fund të fundit, është një spektër i shumë faktorëve që ne konsiderojmë.

Një gjë që tejkalon gjithçka është "Çfarë dëshiron të lexojë një përdorues?" Nëse një përdorues dëshiron të shikojë artikuj të klikimeve, ne nuk do t'i ndalojmë nëse nuk është i paligjshëm ose nëse shkel udhëzimet tona. Ne nuk i imponojmë përdoruesit, por nëse diçka është e pasigurt ose e papërshtatshme, ne kemi kujdesin tonë të duhur përpara se diçka të hyjë në furnizim.

Cilat janë pikëpamjet tuaja për gazetarët që përdorin AI gjeneruese për t'i ndihmuar ata në prodhimin e përmbajtjes?

Unë besoj se kjo pyetje është një pyetje etike, dhe diçka që ne po debatojmë aktualisht këtu në SmartNews. Si duhet t'i shikojë SmartNews botuesit që paraqesin përmbajtje të krijuar nga AI gjeneruese në vend që gazetarët ta shkruajnë atë?

Besoj se treni është larguar zyrtarisht nga stacioni. Sot, gazetarët po përdorin AI për të shtuar shkrimin e tyre. Është një funksion i shkallës, ne nuk kemi kohë në botë për të prodhuar artikuj me një normë komerciale të qëndrueshme, veçanërisht pasi organizatat e lajmeve vazhdojnë të shkurtojnë stafin. Më pas lind pyetja, sa kreativitet shkon në këtë? A është i lëmuar artikulli nga gazetari? Apo gazetari është plotësisht i varur?

Në këtë moment, AI gjeneruese nuk është në gjendje të shkruajë artikuj mbi ngjarjet e fundit të lajmeve, sepse nuk ka të dhëna trajnimi për të. Sidoqoftë, ai ende mund t'ju japë një model mjaft të mirë gjenerik për ta bërë këtë. Për shembull, të shtënat në shkollë janë kaq të zakonshme, mund të supozojmë se AI gjeneruese mund t'i japë një gazetari një nxitje për të shtënat në shkollë dhe një gazetar mund të fusë shkollën që ishte prekur për të marrë një shabllon të plotë.

Nga këndvështrimi im duke punuar me SmartNews, janë dy parime që mendoj se ia vlen të merren parasysh. Së pari, ne duam që botuesit të na tregojnë se kur përmbajtja është krijuar nga AI, dhe ne duam ta etiketojmë atë si të tillë. Në këtë mënyrë kur njerëzit po lexojnë artikullin, ata nuk mashtrohen se kush e ka shkruar artikullin. Kjo është transparenca në shkallën më të lartë.

Së dyti, ne duam që ai artikull të jetë faktikisht i saktë. Ne e dimë se inteligjenca artificiale gjeneruese priret t'i krijojë gjërat kur të dojë, dhe çdo artikull i shkruar nga AI gjeneruese duhet të korrigjohet nga një gazetar ose personel redaktues.

Ju keni argumentuar më parë që platformat e teknologjisë të bashkohen dhe të krijojnë standarde të përbashkëta për të luftuar toksicitetin dixhital, sa e rëndësishme është kjo çështje?

Unë besoj se kjo çështje është e një rëndësie kritike, jo vetëm që kompanitë të operojnë në mënyrë etike, por të ruajnë një nivel dinjiteti dhe civilizimi. Për mendimin tim, platformat duhet të bashkohen dhe të zhvillojnë standarde të caktuara për të ruajtur këtë humanizëm. Si shembull, askush nuk duhet të inkurajohet kurrë të marrë jetën e vet, por në disa situata, ne e gjejmë këtë lloj abuzimi në platforma dhe unë besoj se kjo është diçka që kompanitë duhet të bashkohen për t'u mbrojtur.

Në fund të fundit, kur bëhet fjalë për problemet e njerëzimit, nuk duhet të ketë konkurrencë. Nuk duhet të ketë domosdoshmërisht konkurrencë se kush është komuniteti më i pastër ose më i sigurt - ne të gjithë duhet të synojmë të sigurojmë që përdoruesit tanë të ndihen të sigurt dhe të kuptuar. Le të konkurrojmë për veçori, jo për shfrytëzim.

Cilat janë disa mënyra se si kompanitë dixhitale mund të punojnë së bashku?

Kompanitë duhet të bashkohen kur ka vlera të përbashkëta dhe mundësi bashkëpunimi. Gjithmonë ka hapësira ku ka ndërlidhje midis kompanive dhe industrive, veçanërisht kur bëhet fjalë për luftimin e abuzimit, sigurimin e civilizimit në platforma ose reduktimin e polarizimit. Këto janë momente kur kompanitë duhet të punojnë së bashku.

Sigurisht që ekziston një këndvështrim tregtar me konkurrencën, dhe zakonisht konkurrenca është e mirë. Ndihmon në sigurimin e fuqisë dhe diferencimit midis kompanive dhe ofron zgjidhje me një nivel të efikasitetit që monopolet nuk mund të garantojnë.

Por, kur bëhet fjalë për mbrojtjen e përdoruesve, ose promovimin e mirësjelljes, ose reduktimin e vektorëve të abuzimit, këto janë tema që janë thelbësore për ne për të ruajtur botën e lirë. Këto janë gjëra që duhet të bëjmë për të siguruar që të mbrojmë atë që është e shenjtë për ne dhe njerëzimin tonë. Për mendimin tim, të gjitha platformat kanë përgjegjësinë për të bashkëpunuar në mbrojtje të vlerave njerëzore dhe vlerave që na bëjnë një botë të lirë.

Cilat janë pikëpamjet tuaja aktuale për AI përgjegjëse?

Jemi në fillim të diçkaje shumë të përhapur në jetën tonë. Kjo fazë tjetër e AI gjeneruese është një problem që ne nuk e kuptojmë plotësisht, ose mund ta kuptojmë vetëm pjesërisht në këtë moment.

Kur bëhet fjalë për inteligjencën artificiale të përgjegjshme, është shumë e rëndësishme që të zhvillojmë parmakë të fortë mbrojtës, ose përndryshe mund të përfundojmë me një përbindësh Frankenstein të teknologjive gjeneruese të AI. Ne duhet të kalojmë kohën duke menduar për gjithçka që mund të shkojë keq. Qoftë ky paragjykim që zvarritet në algoritme, apo vetë modelet e mëdha gjuhësore që përdoren nga njerëzit e gabuar për të bërë veprime të liga.

Vetë teknologjia nuk është e mirë apo e keqe, por mund të përdoret nga njerëzit e këqij për të bërë gjëra të këqija. Kjo është arsyeja pse investimi i kohës dhe burimeve në etikën e AI për të bërë testime kundërshtare për të kuptuar gabimet e dizajnit është kaq kritike. Kjo do të na ndihmojë të kuptojmë se si të parandalojmë abuzimin dhe mendoj se ky është ndoshta aspekti më i rëndësishëm i inteligjencës artificiale të përgjegjshme.

Për shkak se AI nuk mund të mendojë ende vetë, ne kemi nevojë për njerëz të zgjuar që mund të ndërtojnë këto standarde kur AI është duke u programuar. Aspekti i rëndësishëm për t'u marrë parasysh tani është koha - ne kemi nevojë që këta aktorë pozitivë t'i bëjnë këto gjëra TANI para se të jetë tepër vonë.

Ndryshe nga sistemet e tjera që kemi projektuar dhe ndërtuar në të kaluarën, AI është i ndryshëm sepse mund të përsëritet dhe të mësojë vetë, kështu që nëse nuk vendosni parmakë të fortë se çfarë dhe si po mëson, ne nuk mund të kontrollojmë se çfarë mund të bëhet. .

Tani për tani, ne po shohim disa kompani të mëdha që pushojnë bordet e etikës dhe ekipet përgjegjëse të AI si pjesë e pushimeve të mëdha nga puna. Mbetet për t'u parë se sa seriozisht po e marrin teknologjinë këto diploma të teknologjisë dhe sa seriozisht po shqyrtojnë rëniet e mundshme të AI në vendimmarrjen e tyre.

A ka ndonjë gjë tjetër që dëshironi të ndani në lidhje me punën tuaj me Smartnews?

Unë u bashkua me SmartNews sepse besoj në misionin e tij, misioni ka njëfarë pastërtie në të. Unë besoj fuqimisht se bota po polarizohet më shumë dhe sot nuk ka njohuri të mjaftueshme mediatike për të ndihmuar në luftimin e kësaj prirjeje.

Fatkeqësisht, ka shumë njerëz që i marrin mesazhet WhatsApp si ungjill dhe i besojnë ato me vlerë. Kjo mund të çojë në pasoja të jashtëzakonshme, duke përfshirë - dhe veçanërisht - dhunën. E gjithë kjo vjen në faktin se njerëzit nuk kuptojnë se çfarë mund dhe çfarë nuk mund të besojnë.

Nëse nuk i edukojmë njerëzit ose nuk i informojmë se si të marrin vendime për besueshmërinë e asaj që konsumojnë. Nëse nuk prezantojmë nivele të edukimit mediatik për të dalluar lajmet dhe lajmet e rreme, do të vazhdojmë të mbrojmë problemin dhe të rrisim çështjet që historia na ka mësuar të mos bëjmë.

Një nga komponentët më të rëndësishëm të punës sime në SmartNews është të ndihmoj në uljen e polarizimit në botë. Unë dua të përmbush misionin e themeluesit për të përmirësuar edukimin mediatik ku ata mund të kuptojnë se çfarë po konsumojnë dhe të bëjnë opinione të informuara për botën dhe perspektivat e shumta të ndryshme.

Faleminderit për intervistën e mrekullueshme, lexuesit që dëshirojnë të mësojnë më shumë ose duan të provojnë një lloj tjetër aplikacioni lajmesh duhet ta vizitojnë SmartNews.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.