кочан Прозрачност на AI и необходимостта от модели с отворен код - Unite.AI
Свържете се с нас

Лидери на мисълта

Прозрачността на ИИ и необходимостта от модели с отворен код

mm
Обновено on

За да защитят хората от потенциалните вреди на AI, някои регулатори в Съединените щати и Европейския съюз все повече се застъпват за контрол и проверки и баланси върху силата на моделите на AI с отворен код. Това отчасти е мотивирано от желанието на големите корпорации да контролират развитието на ИИ и да оформят развитието на ИИ по начин, който е от полза за тях. Регулаторите също са загрижени за скоростта на развитие на ИИ, тъй като се притесняват, че ИИ се развива твърде бързо и че няма достатъчно време да се въведат предпазни мерки, за да се предотврати използването му за злонамерени цели.

Законът за правата на ИИ и NIST AI Рамка за управление на риска в САЩ, заедно с Закон за ИИ на ЕС, поддържат различни принципи като точност, безопасност, недискриминация, сигурност, прозрачност, отчетност, обяснимост, интерпретируемост и поверителност на данните. Освен това както ЕС, така и САЩ очакват, че организациите по стандартизация, независимо дали са правителствени или международни субекти, ще играят решаваща роля при установяването на насоки за ИИ.

В светлината на тази ситуация е наложително да се стремим към бъдеще, което включва прозрачност и възможност за инспектиране и наблюдение на системите с изкуствен интелект. Това би позволило на разработчиците по целия свят да проучат, анализират и подобрят AI, особено съсредоточавайки се върху данните и процесите за обучение.

За да внесем успешно прозрачност в AI, трябва да разберем алгоритмите за вземане на решения, които го подкрепят, като по този начин разкрием подхода на AI към „черната кутия“. Моделите с отворен код и подлежащите на проверка играят неразделна част от постигането на тази цел, тъй като предоставят достъп до основния код, системната архитектура и данните за обучение за контрол и одит. Тази откритост насърчава сътрудничеството, стимулира иновациите и предпазва от монополизация.

За да станем свидетели на реализацията на тази визия, от съществено значение е да се улеснят промените в политиките, инициативите на местно ниво и да се насърчи активното участие на всички заинтересовани страни, включително разработчици, корпорации, правителства и обществеността.

Текущо състояние на ИИ: Концентрация и контрол

В момента развитието на ИИ, особено по отношение на големи езикови модели (LLMs), е предимно централизиран и контролиран от големи корпорации. Тази концентрация на власт поражда опасения относно потенциала за злоупотреба и повдига въпроси относно справедливия достъп и справедливото разпределение на ползите от напредъка в ИИ.

По-специално, популярни модели като LLMs нямат алтернативи с отворен код по време на процеса на обучение поради необходимите обширни изчислителни ресурси, които обикновено са достъпни само за големи компании. Независимо от това, дори тази ситуация да остане непроменена, осигуряването на прозрачност по отношение на данните и процесите за обучение е от решаващо значение за улесняване на контрола и отчетността.

Неотдавнашното въвеждане на лицензионна система от OpenAI за определени типове AI породи опасения и опасения относно регулаторното улавяне, тъй като може да повлияе не само на траекторията на AI, но и на по-широки социални, икономически и политически аспекти.

Нуждата от прозрачен AI

Представете си, че разчитате на технология, която взема въздействащи решения върху човешкия/личния живот, но не оставя следа, нито разбиране на обосновката зад тези заключения. Това е мястото, където прозрачността става незаменима.

Първо и най-важно, прозрачността е от решаващо значение и изгражда доверие. Когато AI моделите станат видими, те вдъхват увереност в тяхната надеждност и точност. Освен това подобна прозрачност би оставила разработчиците и организациите много по-отговорни за резултатите от своите алгоритми.

Друг критичен аспект на прозрачността е идентифицирането и смекчаването на алгоритмичните отклонения. Пристрастията могат да бъдат инжектирани в AI модели по няколко начина.

  • Човешки елемент: Учените, занимаващи се с данни, са уязвими към увековечаване на собствените си пристрастия в модели.
  • Машинно обучение: Дори ако учените трябваше да създадат чисто обективен AI, моделите все още са силно податливи на пристрастия. Машинното обучение започва с дефиниран набор от данни, но след това се освобождава да усвоява нови данни и да създава нови пътища за обучение и нови заключения. Тези резултати може да са непреднамерени, пристрастни или неточни, тъй като моделът се опитва да се развие сам в това, което се нарича „дрейф на данни“.

Важно е да сте наясно с тези потенциални източници на пристрастия, за да могат да бъдат идентифицирани и смекчени. Един от начините за идентифициране на пристрастие е да се одитират данните, използвани за обучение на модела. Това включва търсене на модели, които могат да показват дискриминация или несправедливост. Друг начин за смекчаване на пристрастията е използването на техники за отстраняване на предубежденията. Тези техники могат да помогнат за премахване или намаляване на отклонението от модела. Като сме прозрачни относно потенциала за пристрастност и предприемаме стъпки за смекчаването му, можем да помогнем да се гарантира, че AI се използва по справедлив и отговорен начин.

Прозрачните AI модели позволяват на изследователите и потребителите да изследват данните за обучението, да идентифицират отклоненията и да предприемат коригиращи действия за справяне с тях. Като прави процеса на вземане на решения видим, прозрачността ни помага да се стремим към справедливост и да предотвратяваме разпространението на дискриминационни практики. Освен това е необходима прозрачност през целия живот на модела, както е обяснено по-горе, за да се предотврати отклонението на данните, пристрастията и халюцинациите на AI, които произвеждат невярна информация. Тези халюцинации са особено разпространени в големите езикови модели, но също така съществуват във всички форми на AI продукти. Наблюдаемостта на AI също играе важна роля в осигуряването на производителност и точност на моделите, създавайки по-безопасен, по-надежден AI, който е по-малко податлив на грешки или непредвидени последствия.

Въпреки това, постигането на прозрачност в AI не е без предизвикателства. Постигането на внимателен баланс е необходимо за справяне с опасения като поверителност на данните, сигурност и интелектуална собственост. Това включва прилагане на техники за запазване на поверителността, анонимизиране на чувствителни данни и установяване на индустриални стандарти и разпоредби, които насърчават отговорни практики за прозрачност.

Превръщане на прозрачния AI в реалност

Разработването на инструменти и технологии, които могат да позволят проверка в AI, е от решаващо значение за насърчаване на прозрачността и отчетността в моделите на AI.

В допълнение към разработването на инструменти и технологии, които дават възможност за проверка в AI, технологичното развитие може също така да насърчи прозрачността чрез създаване на култура около AI. Насърчаването на бизнеса и организациите да бъдат прозрачни относно използването на ИИ може също да помогне за изграждането на доверие и увереност. Чрез улесняване на проверката на AI модели и чрез създаване на култура на прозрачност около AI, технологичното развитие може да помогне да се гарантира, че AI се използва по справедлив и отговорен начин.

Развитието на технологиите обаче може да има и обратен ефект. Например, ако технологичните компании разработят патентовани алгоритми, които не са отворени за обществен контрол, това може да затрудни разбирането как работят тези алгоритми и идентифицирането на потенциални отклонения или рискове. Гарантирането, че изкуственият интелект е от полза за обществото като цяло, а не за няколко избрани, изисква високо ниво на сътрудничество.

Изследователи, политици и специалисти по данни могат да установят регулации и стандарти, които постигат точния баланс между откритост, поверителност и сигурност, без да задушават иновациите. Тези разпоредби могат да създадат рамки, които насърчават споделянето на знания, като същевременно адресират потенциалните рискове и определят очакванията за прозрачност и обяснимост в критични системи.

Всички страни, свързани с разработването и внедряването на AI, трябва да дадат приоритет на прозрачността, като документират процесите си на вземане на решения, предоставят достъпен изходен код и възприемат прозрачността като основен принцип при разработването на системи за AI. Това дава възможност на всеки да играе жизненоважна роля в изследването на методите, за да направи алгоритмите на ИИ по-интерпретируеми и разработването на техники, които улесняват разбирането и обяснението на сложни модели.

И накрая, обществената ангажираност е от решаващо значение в този процес. Чрез повишаване на осведомеността и насърчаване на обществени дискусии относно прозрачността на AI, ние можем да гарантираме, че обществените ценности са отразени в разработването и внедряването на AI системи.

Заключение

Тъй като AI става все по-интегриран в различни аспекти от живота ни, прозрачността на AI и използването на модели с отворен код стават критични съображения. Възприемането на инспектируем AI не само гарантира справедливост и отчетност, но също така стимулира иновациите, предотвратява концентрацията на власт и насърчава справедлив достъп до напредъка на AI.

Чрез приоритизиране на прозрачността, позволявайки контрол на AI моделите и насърчавайки сътрудничеството, ние можем колективно да оформим AI бъдеще, което е от полза за всички, като същевременно се справяме с етичните, социалните и техническите предизвикателства, свързани с тази трансформираща технология.

Лиран Хасън е съосновател и главен изпълнителен директор на апория, платформа за контрол на ИИ с пълен стек, използвана от компании от Fortune 500 и екипи за наука за данни по целия свят, за да се осигури отговорен ИИ. Aporia се интегрира безпроблемно с всяка ML инфраструктура. Независимо дали става въпрос за FastAPI сървър върху Kubernetes, инструмент за внедряване с отворен код като MLFlow или платформа за машинно обучение като AWS Sagemaker.