tynkä Startupit luovat työkaluja tekoälyn valvontaan ja eettisen tekoälyn käytön edistämiseen - Unite.AI
Liity verkostomme!

Asetus

Aloitusyritykset luovat työkaluja tekoälyn valvontaan ja eettisen tekoälyn käytön edistämiseen

mm
Päivitetty on

Kuluneen vuoden aikana näyttää siltä, ​​että yhä enemmän huomiota kiinnitetään siihen, että tekoälyä käytetään eettisesti. Googlella ja Microsoftilla on molemmat varoitti äskettäin sijoittajia että tekoälyalgoritmien väärinkäyttö tai huonosti suunniteltu tekoälyalgoritmi sisältää eettisiä ja oikeudellisia riskejä. Sillä välin Kalifornian osavaltio on juuri päättänyt lähetä lasku joka kieltää Kalifornian lainvalvontaviranomaisten kasvojentunnistustekniikan käytön.

Viime aikoina startup-yritykset, kuten Arthur, ovat yrittäneet suunnitella työkaluja, jotka auttavat tekoälyinsinöörejä mittaamaan ja arvioimaan, kuinka heidän koneoppimismallinsa toimivat. Kuten Wired raportoi, Arthur yrittää tarjota tekoälykehittäjille työkalupakin, jonka avulla heidän on helpompi havaita ongelmia suunnitellessaan rahoitussovelluksia, kuten investointi- tai lainapäätösten vääristymisen paljastamista.

Arthurin ponnistelut tähtäävät siihen Tekoälyn "mustan laatikon" ongelma. Tekoälyn musta laatikko -ongelma kuvaa, kuinka toisin kuin perinteinen koodi, jota ne, jotka osaavat lukea, voivat helposti tulkita, koneoppimisjärjestelmät kuvaavat ominaisuuksia käyttäytymiseen paljastamatta syitä, miksi nämä käyttäytymiset valitaan / miten ominaisuudet on tulkittu. Toisin sanoen musta laatikko -järjestelmässä algoritmin tarkka toteutus on läpinäkymätön.

Koneoppimisjärjestelmät toimivat poimimalla kuvioita syöttötiedoista ja perustelemalla näitä malleja. Tämä saavutetaan pohjimmiltaan antamalla tietokone kirjoittaa omaa koodiaan manipuloimalla tiettyjä matemaattisia funktioita. Tämän ongelman ratkaisemiseksi tutkijat ja insinöörit tarvitsevat työkaluja, jotka helpottavat koneoppimisohjelmistojen käyttäytymisen tarkkailua ja analysointia. Arthurin kaltaiset startupit tunnustavat tämän ongelman ratkaisemisen vaikeuden eivätkä väitä omaavansa optimaalisia ratkaisuja, mutta he toivovat edistyvänsä tällä alueella ja helpottavansa mustan laatikon avaamista hieman. Sen toivotaan, että jos tekoälyjärjestelmiä voidaan analysoida helpommin, on myös helpompi korjata ongelmia, kuten harhaa.

Facebookin kaltaisilla suurilla yrityksillä on jo työkaluja koneoppimisjärjestelmien sisäisen toiminnan analysoimiseen. Esimerkiksi Facebookissa on Fairness Flow -niminen työkalu, jonka tarkoituksena on varmistaa, että ihmisille työpaikkoja suosittelevat mainokset kohdistetaan erilaisista taustoista tuleviin ihmisiin. On kuitenkin todennäköistä, että suuret tekoälytiimit eivät halua investoida aikaa tällaisten työkalujen luomiseen, ja siksi on olemassa liiketoimintamahdollisuus yrityksille, jotka haluavat luoda valvontatyökaluja tekoälyyritysten käyttöön.

Arthur keskittyy luomaan työkaluja, joiden avulla yritykset voivat paremmin ylläpitää ja valvoa tekoälyjärjestelmiä sen jälkeen, kun järjestelmä on jo otettu käyttöön. Arthurin työkalujen tarkoituksena on antaa yrityksille mahdollisuus nähdä, kuinka niiden järjestelmän suorituskyky muuttuu ajan myötä, mikä teoriassa antaisi yritysten havaita mahdollisia harhaa. Jos yrityksen lainasuositusohjelmisto alkaa sulkea pois tiettyjä asiakasryhmiä, voidaan asettaa lippu, joka osoittaa, että järjestelmä tarvitsee tarkastuksen, jotta voidaan varmistaa, ettei se syrji asiakkaita arkaluonteisten ominaisuuksien, kuten rodun tai sukupuolen, perusteella.

Arthur ei kuitenkaan ole ainoa yritys, joka luo työkaluja, joiden avulla tekoälyyritykset voivat tarkastella algoritmien suorituskykyä. Monet startupit investoivat sellaisten työkalujen luomiseen, jotka torjuvat harhaa ja varmistavat, että tekoälyalgoritmeja käytetään eettisesti. Weights & Biases on toinen startup-yritys, joka luo työkaluja, jotka auttavat koneoppimisen insinöörejä analysoimaan mahdollisia verkkoon liittyviä ongelmia. Toyota on käyttänyt Weights & Biasesin luomia työkaluja seuratakseen koneoppimislaitteitaan harjoittelun aikana. Samaan aikaan startup Fiddler työskentelee luodakseen erilaisia ​​tekoälyn valvontatyökaluja. IBM on jopa luonut oman valvontapalvelunsa nimeltä OpenScale.

Liz O'Sullivan, yksi Arthurin luojista, selitti, että kiinnostus luoda työkaluja, jotka auttavat ratkaisemaan Black Box -ongelman, johtuu kasvavasta tietoisuudesta tekoälyn voimasta.

"Ihmiset alkavat ymmärtää, kuinka tehokkaita nämä järjestelmät voivat olla, ja että heidän on hyödynnettävä edut vastuullisesti." O'Sullivan sanoi.

Bloggaaja ja ohjelmoija erikoisaloilla Koneen oppiminen ja Deep Learning aiheita. Daniel toivoo voivansa auttaa muita käyttämään tekoälyn voimaa yhteiskunnalliseen hyvään.