никулец Објаснивоста може да го реши проблемот со вештачката интелигенција на секоја индустрија: Недостатокот на транспарентност - Unite.AI
Поврзете се со нас

Мислите лидери

Објаснивоста може да го реши проблемот со вештачката интелигенција на секоја индустрија: Недостатокот на транспарентност

mm

Објавено

 on

Од: Мигел Џете, потпретседател на говор за истражување и развој, Преос.

Во своите зародиш фази, вештачката интелигенција можеби можеше да се потпре на ловориките на новоста. Во ред беше машинското учење да научи бавно и да одржува непроѕирен процес каде што пресметката на вештачката интелигенција е невозможна за просечниот потрошувач да навлезе. Тоа се менува. Како што повеќе индустрии како што се здравството, финансиите и системот на кривичната правда почнуваат да ја користат вештачката интелигенција на начини кои можат да имаат вистинско влијание врз животите на луѓето, се повеќе луѓе сакаат да знаат како се користат алгоритмите, како се добиваат податоците и само колку се точни неговите способности. Ако компаниите сакаат да останат во првите редови на иновациите на нивните пазари, тие треба да се потпрат на вештачката интелигенција на која ќе и верува нивната публика. Објаснивоста на вештачката интелигенција е клучната состојка за продлабочување на таа врска.

Објаснувањето на вештачката интелигенција се разликува од стандардните процедури за вештачка интелигенција бидејќи им нуди на луѓето начин да разберат како алгоритмите за машинско учење создаваат излез. Објаснива вештачка интелигенција е систем кој може да им обезбеди на луѓето потенцијални исходи недостатоци. Тоа е систем за машинско учење што може да ја исполни самата човечка желба за правичност, одговорност и почитување на приватноста. Објаснивата вештачка интелигенција е императив за бизнисите да градат доверба со потрошувачите.

Додека вештачката интелигенција се шири, давателите на вештачка интелигенција треба да разберат дека црната кутија не може. Моделите на црни кутии се креираат директно од податоците и честопати дури ни развивачот кој го создал алгоритмот не може да идентификува што ги поттикнало научените навики на машината. Но, совесниот потрошувач не сака да се занимава со нешто толку непробојно што не може да биде повикано на одговорност. Луѓето сакаат да знаат како алгоритам за вештачка интелигенција доаѓа до одреден резултат без мистеријата на изворниот влез и контролираниот излез, особено кога погрешните пресметки на вештачката интелигенција често се должат на предрасуди на машината. Како што вештачката интелигенција станува понапредна, луѓето сакаат пристап до процесот на машинско учење за да разберат како алгоритмот дошол до својот специфичен резултат. Лидерите во секоја индустрија мора да разберат дека порано или подоцна, луѓето повеќе нема да го претпочитаат овој пристап, туку ќе го бараат како неопходно ниво на транспарентност.

Системите ASR како што се асистентите со овозможен глас, технологијата за транскрипција и други услуги кои го претвораат човечкиот говор во текст се особено измачувани од предрасуди. Кога услугата се користи за безбедносни мерки, грешките поради акцентите, возраста или потеклото на лицето може да бидат сериозни грешки, па затоа проблемот мора да се сфати сериозно. ASR може ефективно да се користи во полициските камери за тело, на пример, за автоматско снимање и транскрипција на интеракции - водење евиденција која, ако прецизно се транскрибира, може да спаси животи. Практиката на објаснување ќе бара вештачката интелигенција да не се потпира само на купените збирки на податоци, туку се обидува да ги разбере карактеристиките на дојдовниот звук што може да придонесе за грешки доколку ги има. Кој е акустичниот профил? Дали има шум во позадина? Дали говорникот е од земја која не е прв англиски јазик или од генерација која користи речник што вештачката интелигенција сè уште не го научила? Машинското учење треба да биде проактивно при учењето побрзо и може да започне со собирање податоци што можат да ги адресираат овие променливи.

Неопходноста станува очигледна, но патот до спроведување на оваа методологија нема секогаш да има лесно решение. Традиционалниот одговор на проблемот е да се додадат повеќе податоци, но ќе биде неопходно пософистицирано решение, особено кога купените збирки на податоци што ги користат многу компании се инхерентно пристрасни. Тоа е затоа што историски, беше тешко да се објасни одредена одлука што ја донесе вештачката интелигенција и тоа се должи на природата на сложеноста на моделите од крај до крај. Како и да е, сега можеме, и можеме да започнеме со прашањето како луѓето на прво место ја изгубиле довербата во вештачката интелигенција.

Неизбежно, вештачката интелигенција ќе направи грешки. Компаниите треба да градат модели кои се свесни за потенцијалните недостатоци, да идентификуваат кога и каде се случуваат проблемите и да создаваат тековни решенија за да изградат посилни модели со вештачка интелигенција:

  1. Кога нешто тргне наопаку, програмерите ќе треба да објаснат што се случило и разви непосреден план за подобрување на моделот за намалување на идните слични грешки.
  2. За машината навистина да знае дали била исправна или погрешна, научниците треба да знаат креирајте јамка за повратни информации за да може вештачката интелигенција да ги научи своите недостатоци и да се развива.
  3. Друг начин ASR да изгради доверба додека вештачката интелигенција сè уште се подобрува е да создадете систем кој може да обезбеди оценки за доверба, и понуди причини зошто вештачката интелигенција е помалку самоуверена. На пример, компаниите вообичаено генерираат оценки од нула до 100 за да ги одразат несовршеностите на сопствената вештачка интелигенција и да воспостават транспарентност со своите клиенти. Во иднина, системите може да дадат пост-хок објаснувања за тоа зошто аудиото е предизвик со нудење повеќе метаподатоци за аудиото, како што е вооченото ниво на бучава или помалку разбран акцент.

Дополнителна транспарентност ќе резултира со подобар човечки надзор над обуката и перформансите на вештачката интелигенција. Колку повеќе сме отворени за тоа каде треба да се подобриме, толку повеќе сме одговорни да преземеме активности за тие подобрувања. На пример, истражувачот може да сака да знае зошто е излезен погрешен текст за да може да го ублажи проблемот, додека транскрипционист може да бара докази зошто ASR погрешно го протолкувал влезот за да помогне во нивната проценка на неговата валидност. Одржувањето на луѓето во јамката може да ги ублажи некои од најочигледните проблеми што се појавуваат кога вештачката интелигенција не е проверена. Исто така, може да го забрза времето потребно за вештачката интелигенција да ги открие своите грешки, да се подобри и на крајот да се поправи во реално време.

Вештачката интелигенција има способност да го подобри животот на луѓето, но само ако луѓето ја изградат за да произведува правилно. Треба да бараме одговорност не само од овие системи, туку и од луѓето кои стојат зад иновациите. Системите за вештачка интелигенција од иднината се очекува да се придржуваат до принципите поставени од луѓето и само дотогаш ќе имаме систем на доверба кај луѓето. Време е да се постават темелите и да се стремиме кон тие принципи сега додека на крајот луѓето сè уште си служат самите на себе.

Miguel Jetté е шеф на AI R&D во Преос, платформа за транскрипција од говор во текст која комбинира вештачка интелигенција со вешти луѓе. Тој го предводи тимот одговорен за развој на најточната светска платформа за вештачка интелигенција за говор во текст. Страствен за решавање на сложени проблеми додека ги подобрува животите, тој е посветен на зголемување на градежната инклузија и еднаквост преку технологијата. За повеќе од две децении, тој работеше на имплементација на гласовни технологии со компании како Nuance Communications и VoiceBox. Магистер по математика и статистика на Универзитетот Мекгил во Монтреал. Кога не ја унапредува комуникацијата преку вештачката интелигенција, тој го поминува времето како фотограф за натпревари во качување по карпи.