Stumm Startups erstellen Tools fir AI ze iwwerwaachen an ethesch AI Benotzung ze promoten - Unite.AI
Connect mat eis

Regulatioun

Startups erstellen Tools fir AI ze iwwerwaachen an ethesch AI Notzung ze förderen

mm
aktualiséiert on

Am Laf vum leschte Joer schéngt et datt ëmmer méi Opmierksamkeet bezuelt gëtt fir sécherzestellen datt AI op ethesch Manéier benotzt gëtt. Google a Microsoft hu béid kuerzem gewarnt Investisseuren datt Mëssbrauch vun AI Algorithmen oder schlecht entworf AI Algorithmen ethesch a legal Risiken duerstellt. Mëttlerweil huet de Staat Kalifornien just decidéiert Passe eng Rechnung dat verbitt d'Benotzung vu Gesiichtserkennungstechnologie vun de Kalifornien Gesetzesbeamten.

Viru kuerzem hu Startups wéi Arthur probéiert Tools ze designen déi AI Ingenieuren hëllefen ze quantifizéieren an ze qualifizéieren wéi hir Maschinnléiermodeller funktionnéieren. Wéi gemellt vum Wired, Den Arthur probéiert AI Entwéckler e Toolkit ze ginn, deen et méi einfach mécht fir Problemer ze entdecken wann se finanziell Uwendungen designen, wéi d'Entdeckung vun Bias an Investitiounen oder Prêtentscheedungen.

Dem Arthur seng Efforten zielen op d'Adress "Black Box" Problem vun AI. De Black Box-Problem an AI beschreift wéi am Géigesaz zum traditionelle Code, dee liicht interpretéiert ka ginn vun deenen déi wëssen wéi se se liesen, Maschinn Léieren Systemer Kaart Features op Verhalen ouni d'Grënn z'entdecken datt dës Behuelen ausgewielt ginn / wéi d'Features interpretéiert goufen. An anere Wierder, an engem Black Box System ass déi exakt Ëmsetzung vum Algorithmus opak.

Maschinn Léiersystemer funktionnéieren andeems Mustere vun Inputdaten extrahéiert ginn an iwwer dës Mustere begrënnen. Dëst gëtt erreecht andeems e Computer am Wesentlechen säin eegene Code schreift andeems verschidde mathematesch Funktiounen manipuléiert ginn. Fir dëse Problem unzegoen, brauche Fuerscher an Ingenieuren Tools déi d'Observatioun an d'Analyse vum Maschinnléiere Software Verhalen méi einfach maachen. Startups wéi Arthur erkennen d'Schwieregkeet fir dëse Problem ze léisen a behaapten net déi optimal Léisungen ze hunn, awer si hoffen, Fortschrëtter an dësem Beräich ze maachen an d'Schwaarz Këscht e bësse méi einfach opzemaachen. Et ass gehofft datt wann AI Systemer méi einfach analyséiert kënne ginn, et méi einfach gëtt fir Probleemer wéi Bias ze korrigéieren.

Grouss Firmen wéi Facebook hu schonn e puer Tools fir d'Bannenaarbecht vu Maschinnléieresystemer ze analyséieren. Zum Beispill, Facebook huet en Tool mam Numm Fairness Flow, deen geduecht ass fir sécherzestellen datt d'Annoncen déi Aarbechtsplaze fir Leit recommandéieren Leit aus allen verschiddenen Hannergrënn zielen. Wéi och ëmmer, et ass méiglech datt grouss AI Teams keng Zäit investéiere wëllen fir sou Tools ze kreéieren, an dofir existéiert eng Geschäftsméiglechkeet fir Firmen déi Iwwerwaachungsinstrumenter fir d'Benotzung vun AI Firmen erstellen wëllen.

Den Arthur ass fokusséiert op Tools ze kreéieren déi Firmen et erlaben AI Systemer besser z'erhalen an ze iwwerwaachen nodeems de System scho agesat gouf. Dem Arthur seng Tools solle Firme kucken wéi d'Performance vun hirem System sech mat der Zäit verännert, wat theoretesch d'Firmen erlaabt potenziell Manifestatiounen vu Bias opzehuelen. Wann eng Firma hir Prêt Empfehlungssoftware ufänkt verschidde Gruppe vu Clienten auszeschléissen, kéint e Fändel gesat ginn, deen uginn datt de System Iwwerpréiwung brauch fir sécherzestellen datt et net géint Clienten diskriminéiert baséiert op sensiblen Attributer wéi Rass oder Geschlecht.

Wéi och ëmmer, Arthur ass net déi eenzeg Firma déi Tools erstellt déi AI Firmen d'Leeschtung vun hiren Algorithmen iwwerpréiwen. Vill Startups investéieren an d'Schafung vun Tools fir Bias ze bekämpfen an ze garantéieren datt AI Algorithmen ethesch benotzt ginn. Weights & Biases ass en anere Startup erstallt Tools fir Maschinnléiereingenieuren ze hëllefen potenziell Probleemer mat hirem Netzwierk ze analyséieren. Toyota huet d'Tools erstallt vu Weights & Biases benotzt fir hir Maschinnléieregeräter ze iwwerwaachen wéi se trainéieren. Mëttlerweil schafft de Startup Fiddler fir en anere Set vun AI Iwwerwaachungsinstrumenter ze kreéieren. IBM huet souguer säin eegene Iwwerwaachungsservice genannt OpenScale erstallt.

D'Liz O'Sullivan, ee vun de Co-Creatoren vum Arthur, huet erkläert datt d'Interesse fir Tools ze kreéieren fir de Black Box Problem ze léisen duerch eng wuessend Sensibiliséierung vun der Kraaft vun AI gedriwwe gëtt.

"D'Leit fänken un ze realiséieren wéi mächteg dës Systemer kënne sinn, an datt se vun de Virdeeler musse profitéieren op eng Manéier déi verantwortlech ass." O'Sullivan gesot.

Blogger a Programméierer mat Spezialitéiten am Machine Learning an Deep Learning Themen. Den Daniel hofft anerer ze hëllefen d'Kraaft vun der AI fir sozial Gutt ze benotzen.