кочан Стартъпи, създаващи инструменти за наблюдение на AI и насърчаване на етичното използване на AI - Unite.AI
Свържете се с нас

Регулиране

Стартъпи, създаващи инструменти за наблюдение на AI и насърчаване на етичното използване на AI

mm
Обновено on

През изминалата година изглежда, че се обръща все повече внимание на това да се гарантира, че AI се използва по етични начини. Google и Microsoft имат и двете наскоро предупреди инвеститорите че злоупотребата с AI алгоритми или лошо проектираните AI алгоритми представляват етични и правни рискове. Междувременно щатът Калифорния току-що реши да приеме законопроект който забранява използването на технология за разпознаване на лица от правоприлагащите органи на Калифорния.

Напоследък стартиращи компании като Arthur се опитват да проектират инструменти, които ще помогнат на AI инженерите да определят количествено и квалифицират как се представят техните модели за машинно обучение. Както съобщава Wired, Arthur се опитва да даде на разработчиците на AI инструментариум, който ще ги улесни при откриването на проблеми при проектирането на финансови приложения, като разкриване на пристрастия при решения за инвестиции или заеми.

Усилията на Артър са насочени към справяне с проблемът с „черната кутия“ на AI. Проблемът с черната кутия в AI описва как за разлика от традиционния код, който може лесно да бъде интерпретиран от тези, които знаят как да го четат, системите за машинно обучение картографират характеристиките към поведението, без да разкриват причините, поради които тези поведения са избрани/как са интерпретирани характеристиките. С други думи, в система с черна кутия точното изпълнение на алгоритъма е непрозрачно.

Системите за машинно обучение работят чрез извличане на модели от входни данни и разсъждения относно тези модели. Това се постига, като по същество компютърът напише свой собствен код чрез манипулиране на определени математически функции. За да се справят с този проблем, изследователите и инженерите се нуждаят от инструменти, които улесняват наблюдението и анализа на поведението на софтуера за машинно обучение. Стартъпи като Arthur признават трудността при решаването на този проблем и не твърдят, че имат оптималните решения, но се надяват да постигнат напредък в тази област и да направят разбиването на черната кутия малко по-лесно. Надяваме се, че ако системите с изкуствен интелект могат да бъдат анализирани по-лесно, ще стане по-лесно и да се коригират проблеми като пристрастия.

Големи компании като Facebook вече имат някои инструменти за анализ на вътрешната работа на системите за машинно обучение. Например, Facebook има инструмент, наречен Fairness Flow, който има за цел да гарантира, че рекламите, които препоръчват работа на хората, са насочени към хора от различни среди. Въпреки това е вероятно големите AI екипи да не искат да инвестират време в създаването на такива инструменти и следователно съществува бизнес възможност за компании, които искат да създадат инструменти за наблюдение, които да се използват от компании с AI.

Arthur се фокусира върху създаването на инструменти, които позволяват на компаниите да поддържат и наблюдават по-добре AI системи, след като системата вече е внедрена. Инструментите на Arthur са предназначени да позволят на компаниите да видят как производителността на тяхната система се променя с течение на времето, което теоретично би позволило на компаниите да открият потенциални прояви на пристрастия. Ако софтуерът за препоръки за заеми на дадена компания започне да изключва определени групи клиенти, може да бъде зададен флаг, който показва, че системата се нуждае от преглед, за да се гарантира, че не дискриминира клиенти въз основа на чувствителни атрибути като раса или пол.

Въпреки това, Arthur не е единствената компания, създаваща инструменти, които позволяват на компаниите с изкуствен интелект да преглеждат ефективността на техните алгоритми. Много стартиращи компании инвестират в създаването на инструменти за борба с пристрастията и гарантиране, че AI алгоритмите се използват етично. Weights & Biases е друг стартъп, създаващ инструменти, които да помогнат на инженерите за машинно обучение да анализират потенциални проблеми с тяхната мрежа. Toyota използва инструментите, създадени от Weights & Biases, за да наблюдава своите устройства за машинно обучение, докато тренират. Междувременно стартиращият Fiddler работи за създаването на различен набор от инструменти за наблюдение на AI. IBM дори създаде своя собствена услуга за мониторинг, наречена OpenScale.

Лиз О'Съливан, един от създателите на Arthur, обясни, че интересът към създаването на инструменти, които да помогнат за решаването на проблема с черната кутия, се движи от нарастващото осъзнаване на силата на AI.

„Хората започват да осъзнават колко мощни могат да бъдат тези системи и че трябва да се възползват от предимствата по отговорен начин,“ каза О'Съливан.