Connect with us

Alexander Hudek, forfatter af AI for Lawyers – Interview Serie

Interviews

Alexander Hudek, forfatter af AI for Lawyers – Interview Serie

mm

Alex Hudek er medstifter og CTO af Kira Systems. Han har en Ph.D. og M.Math.-grad i datalogi fra University of Waterloo og en B.Sc.-grad i fysik og datalogi fra University of Toronto.

Hans tidligere forskning på bioinformatik-området fokuserede på at finde ligheder mellem DNA-sekvenser. Han har også arbejdet med bevis-systemer og databaseforespørgselskompilation.

I dag har han udgivet en ny bog med titlen AI for Lawyers, en bog, der udforsker fem store emner omkring etikken for advokater, der bruger – og ikke bruger – AI.

Hvad var inspirationen bag at skrive AI for Lawyers?

Min medstifter, Noah Waisberg, og jeg driver et juridisk AI-softwarefirma (Kira Systems) og har arbejdet med juridisk AI i næsten et årti. Vi er blandt de længst aktive personer i branchen. Under denne tid har vi indset, at der er en bred vifte af accept og modstand, og blandede følelser, når det kommer til AI’s rolle i loven. Vi følte, at der var en mulighed for at give en perspektiv på, hvor vi er i dag, og afvise nogle af myterne og frygterne omkring AI.

Sandheden er, at AI er her for at blive, og vi ville skrive en bog for at hjælpe advokater med at indse det og komme om bord, hvis de ikke allerede er det.

Hvad er nogle af de emner, der diskuteres i bogen?

AI for Lawyers leverer information, der er afgørende for at forstå fremtidens lovgivning, i en tilgængelig og læselig format, der skal afmystificere jargonen omkring AI og vise den kraftfulde praktikalitet, der følger med at acceptere det.

Nye og aspirerende advokater vil finde denne bog uundværlig, da den detaljerer spændende karriere muligheder og baner, der ikke var mulige for blot få år siden. Den giver også en ramme for at adoptere AI i praktisk detalje, samtidig med at den fremhæver, hvordan AI bruges i dag til at opnå væsentligt bedre resultater for advokatfirmaer over hele verden.

Bogen forklarer yderligere, hvordan AI sandsynligvis vil forme den juridiske verden i de kommende år på områder, der endnu ikke er blevet transformeret af digital teknologi, etikken for advokater, der bruger – og ikke bruger – AI, og mere.

Hvorfor skal advokater begynde at adoptere AI?

At adoptere AI er en god forretningsbeslutning. For advokatfirmaer og andre juridiske serviceydelere tilbyder det muligheder for at udføre bedre kvalitetsarbejde, øge realisationsrater, vinde nye forretningsmuligheder, fastholde og opgrader eksisterende forretning og udføre fastpris-arbejde mere profitabelt. For virksomheder giver det mulighed for at udføre arbejde hurtigere og med mindre indsats og – vigtigst – bedre drive deres forretning, ved at vide snarere end gisne om f.eks. detaljerne i deres forretningsrelationer (som dokumenteret i deres kontrakter).

AI giver brugerne mulighed for at skabe konkurrencemæssig differentiering, opbygge værdi i organisationen snarere end hos de enkelte advokater og potentielt tjene penge ved at fange og distribuere deres ekspertise.

Kan du diskutere nogle eksempler på, hvordan AI bruges til at opnå betydningsfulde resultater for advokatfirmaer?

Maskinlæring er effektiv, hvor store mængder data er en del af en juridisk proces, og hvor skalaen af disse processer med menneskelig arbejdskraft og intelligens er en udfordring.

De første anvendelser i loven kom i retssager, hvor advokater begyndte at stå over for problemet med, at der blev genereret og gemt stadig mere data i elektroniske formater. Advokaterne fandt mere og mere, at parterne i en retssag havde store mængder information (og potentielt relevante beviser) gemt i e-mail, dokumentstyringssystemer og andre digitale medier. Tilgængeligheden af data overhalede evnen til, at mennesker kunne gennemgå og identificere alle relevante oplysninger i retssager, og dette ledte til anvendelsen af maskinlæring i opdagelsesfasen af retssager. Maskiner er meget gode til hurtigt og nøjagtigt at identificere data, der kan være relevante for en opdagelsesforespørgsel.

Kontraktanalyse, hvor Kira spiller, er et andet eksempel på et felt, hvor der er store mængder data (f.eks. kan M&A-forhandlinger involvere tusindvis af kontrakter). Traditionelle processer (som manuelle kontraktgennemgange) kan simpelthen ikke følge med mængden af data eller behovet for nøjagtig identifikation og analyse af kontrakt-klausuler.

Juridisk forskning er et andet område, hvor maskinlæring har forbedret processen med at forskere i juridiske præcedenser og udtrække mening og indsigt fra sæt af juridiske dokumenter, der tidligere var sværere at finde med manuelle metoder.

Hvad er nogle af de etiske forpligtelser for advokater, der praktiserer i AI-området?

Da teknologien bliver en større og større del af vores liv, får dens etiske implikationer mere opmærksomhed. Dette strækker sig fra placeringen af sikkerhedskameraer til anonymitet online til træningsdata, der bruges til at lære maskinlæringsalgoritmer. Det er ikke overraskende, at det også er et problem omkring juridisk AI.

  Teknologien kan være ny, men de etiske pligter, advokater, der bruger AI, står over for, er stadig de samme som før den omfattende AI-adopteringsproces. Bogen behandler måderne, hvorpå AI påvirker en advokats pligt til kompetence (herunder at kende fordelene og risikoen ved relevant teknologi); pligten til kommunikation; pligten til at overvåge og begrænsninger på uautoriseret udøvelse af loven; pligten til loyalitet; og mere.

Kunne du diskutere, hvor stort et problem AI-forvrængning er?

I de seneste år har vi set virkelige konsekvenser af forvrængede AI-systemer. F.eks. bruges ansigtsgenkendelse i stigende grad af lovens myndigheder til at identificere personer i skalaer, der tidligere var utænkelige. Når man tager i betragtning, at nuværende ansigtsgenkendelse ofte har lavere nøjagtighed for mange minoriteter, bliver potentielle problemer øjeblikkeligt åbenlyse. Dette har ført til, at mange virksomheder er trådt tilbage fra nogle af disse anvendelser. Ligeså har brugen af AI til at træffe afgørelser eller beslutninger, der påvirker enkeltpersoner, som f.eks. at forudsige risikoen for recidiv i det kriminelle system eller bestemme kreditscores, tydeligt illustreret, hvor stor en indvirkning forvrængning i AI-systemer kan have.

Det sagde, er der også anvendelser, der ikke lider under forvrængning på samme måde. F.eks. i M&A-due-diligence-gennemgang, et område, hvor Kira ofte bruges, ville man ikke se den type forvrængning, der beskrives i de foregående eksempler. AI-modeller kan stadig være forvrængede på visse måder, enten ved at være over- eller under-inklusive, men virkningen af dette er ikke så kritisk.

Så svaret er både, at forvrængning er et stort problem i nogle anvendelser, og ikke et stort problem i andre. Det afhænger af, hvordan man bruger det.

Hvordan kan advokater bedst håndtere AI-forvrængning?

Ansvarlig brug af AI kræver, at de, der anvender det, overvejer forvrængningsproblemer i deres anvendelse. Advokater kan bedst tilgå dette ved at forstå, hvordan AI fungerer, og hvordan man kan spotte situationer, hvor anvendelsen af AI kan have uventede negative konsekvenser. Det er ret generelt råd, fordi der er mange typer AI, og det anvendes i mange forskellige sammenhænge.

Det vigtigste at være opmærksom på er situationer, hvor fejl eller forvrængede afgørelser, der understøttes af AI, kan føre til negative resultater for personer eller krænke privatlivets eller personlige integritetsrettigheder.

Hvem skal være ansvarlig og/eller ansvarlig, når en AI begår en fejl?

Dette er en funktion af kontrakt-, skade- og produktansvarsret mere end noget andet. Typisk begrænser AI-system-brugeraftaler leverandørens garantier og ansvar. Der er gode grunde til dette. Først ved de fleste ansvarlige leverandører, at deres systemer kan begå fejl, og ville ikke love noget andet. Anden, AI-systemer supplerer ofte advokater og træffer ikke de endelige afgørelser, der ville føre til ansvar. Tredje, ville leverandørerne skulle opkræve meget mere for at påtage sig risikoen (selvom de kunne potentielt dække sig selv ved at købe deres egne “fejl- og udeladelses”-forsikringspolicer).

Det er afgørende, at advokater arbejder strengt med deres klients bedste interesser for øje og erkender, at AI og andre teknologiværktøjer blot er værktøjer. De er uvurderlige assistenter og er her for at blive, men de dikterer stadig ikke reglerne eller træner sig selv fuldstændigt – det er stadig menneskers ansvar.

Er der noget andet, du gerne vil dele om AI for Lawyers?

AI er det seneste skridt i at drive loven fremad. Det bruges meget i loven og tilbyder reelle fordele for advokater, der accepterer det, og farer for dem, der ikke gør det. Jeg er glad for at være en del af denne forandring og håber, at denne bog kan være en vejledning, der driver branchen endnu længere frem. Trods de almindelige frygt og usikkerhed omkring AI er Noah og jeg overbeviste om, at det er et værktøj, der kan og vil blive brugt på positive måder for verden i årene, der kommer.

Du kan lære mere om AI for Lawyers ved at besøge vores website.

Tak for det gode interview, jeg ser frem til at læse denne bog. Læsere, der er interesseret i at lære mere om Alex eller Kira Systems, skal læse vores første interview med Alex Hudek.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.