Connect with us

Etikk

Etikk og teknologi: Trenger AI en pilot ved roret?

mm

Sammendrag: Fremgangen i konversasjons-AI-teknologi nødvendiggjør en forsiktig avveiing av interesser som fremmer innovasjon samtidig som man mildner potensielle skadelige virkninger.

Attraktiven til konversasjons-AI

Lanseringen av ChatGPT-3 har vakt uforholdsmessig stor interesse med over 100 millioner aktive brukere per måned.

Forbrukere og organisasjoner anerkjenner hvordan fremgangen i konversasjons-AI kan potensielt transformere nesten alle aspekter av våre personlige liv og profesjonelle interaksjoner. ChatGPT-3s avanserte anvendelse av dyp læring genererer overbevisende menneske-lignende samtaler med imponerende resultater. I nylige tester bestod ChatGPT-3 U.S. Medical Licensing Exam og en MBA-eksamen fra en av de mest prestisjefylte forretnings-skolene.

Forretningsfordelene med konversasjons-AI er enorme, så mye at Microsoft har investert 10 milliarder dollar i Open AI for å akselerere kommersielle anvendelser av ChatGPT-3. Microsoft har til hensikt å “supercharge” sine produkter med konversasjons-kapasiteten til ChatGPT-3.

Irrasjonal ekstase

Men la oss ta en dypt pust før vi lar slik transformasjonsteknologi komme foran oss selv. Dets potensielle nytte til tross, er ChatGPT-3 fortsatt i en spirestadiet med, innrømmet mange feil. Vår ekstase kan vise seg å være forhastet. I fravær av meningsfull analyse kan en ubegrenset anvendelse av konversasjons-AI uten regulering og menneskelig tilsyn føre oss inn i en dystopisk verden, forutsett av den engelske forfatteren Aldous Huxley. For mye tillit til teknologi uten forståelse av dens socio-økonomiske virkninger kan ha alvorlige, om enn uforutsette konsekvenser, som arbeid, utdanning, inklusivitet og rettferdighet.

Etter all, mens Chat-GPT-3 er et skritt fremover, er dens “kognitive” evner basert på eksisterende datamengder, med innebygde fordommer som kan forsterkes og resultere i en mengde potensielle skader. ChatGPT-3 har en “mørk side” som bør være årsak til bekymring og trykke pause-knappen før videre spredning av slik konsekvensfull teknologi.

Risiko eller mulighet?

Det må være en avveiing av risikoene forbundet med anvendelsen av konversasjons-AI og dens potensielle muligheter. Hvis det blir anvendt på en tenkelig måte, med meningsfull regulering av AI som tar hensyn til en risikobasert tilnærming med robust tilsyn, kan de potensielle fordelene med konversasjons-AI bli realisert. Det bør bli anvendt som et menneske-sentrert samarbeid med konversasjons-AI-applikasjoner som beriker arbeidsplassen. Like alle innovasjonene som har gått før det, har AI potensialet til å skape behov for nye ferdigheter og å gjøre visse jobber mer givende.

Hva er rollen til lovgiveren?

Demokratiseringen av AI-teknologier innebærer at offentlige myndigheter må spille en proaktiv rolle i å regulere deres bruk. Frykten forbundet med disruptiv innovasjon er reel. Til tross for sin dyktighet, er kunstig intelligens fortsatt avhengig av mennesker, enten for å bruke det eller å regulere det. Det må være en pilot ved roret, vi vet bare ikke eksakt hvilken kurs han er på vei mot ennå. Det er økt momentum for omfattende AI-regulering, mest merkverdig, utkastet til EU kunstig intelligens-lov. Med den potensielle ubredte anvendelsen av konversasjons-AI, som ChatGPT-3, øker momentum for mer rigorøs regulering og styring, med EU i spissen for å sikre at tiltak blir innført som vil forbyte bestemte anvendelser av konversasjons-AI som anses å være i konflikt med grunnleggende menneskerettigheter.

Andrew Pery er en AI-etikk-evangelist i det globale intelligente automasjonsselskapet ABBYY. Han har en mastergrad i rettsvitenskap med meritt fra Northwestern University Pritzker School of Law og er en sertifisert personvernspesialist. Pery har mer enn 25 års erfaring med å lede tekniske ledelsesprogrammer for ledende globale teknologiselskaper. Hans ekspertise ligger innen intelligent dokumentprosessorautomatisering og prosessintelligens med en særlig ekspertise innen AI-teknologier, programvare, personvern og AI-etikk.