кочан Какво е отговорен AI? Принципи, предизвикателства и ползи - Unite.AI
Свържете се с нас
AI майсторски клас:

AI 101 г

Какво е отговорен AI? Принципи, предизвикателства и ползи

mm
Обновено on
Човек, държащ земното кълбо в ръцете си, докато стои в полета.

Отговорен AI (RAI) се отнася до проектиране и внедряване на AI системи, които са прозрачни, безпристрастни, отговорни и следват етични насоки. Тъй като системите за изкуствен интелект стават все по-стабилни и преобладаващи, е от съществено значение да се гарантира, че са разработени отговорно и следвайки насоките за безопасност и етика.

Здраве, транспорт, управление на мрежата и наблюдение са критични за безопасността AI приложения където повредата на системата може да има тежки последици. Големите фирми са наясно, че RAI е от съществено значение за смекчаване на технологичните рискове. И все пак според доклад на MIT Sloan/BCG, който включва 1093 респонденти, 54% на компаниите не са имали опит и талант за отговорен AI.

Въпреки че лидерите на мисълта и организациите са разработили принципи за отговорен ИИ, осигуряването на отговорно развитие на системите за ИИ все още представлява предизвикателство. Нека разгледаме подробно тази идея:

5 принципа за отговорен ИИ

1. Справедливост

Технолозите трябва да проектират процедури, така че AI системите да третират всички индивиди и групи справедливо и без пристрастия. Следователно справедливостта е основното изискване в приложенията за вземане на решения с висок риск.

честност се дефинира като:

„Проучване на въздействието върху различни демографски групи и избор на една от няколко математически дефиниции на груповата справедливост, които адекватно ще задоволят желания набор от правни, културни и етични изисквания.“

2. отговорност

Отчетността означава, че лицата и организациите, разработващи и внедряващи системи с ИИ, трябва да носят отговорност за своите решения и действия. Екипът, който внедрява AI системи, трябва да гарантира, че тяхната AI система е прозрачна, интерпретируема, проверена и не вреди на обществото.

Отговорността включва седем компонента:

  1. Контекст (цел, за която се изисква отчетност)
  2. Обхват (предмет на отчетност)
  3. Агент (кой е отговорен?)
  4. Форум (на когото отговорната страна трябва да докладва)
  5. Стандарти (критерии за отчетност)
  6. Процес (метод на отчетност)
  7. Последици (последици от отговорността)

3. Прозрачност

Прозрачността означава, че причината зад вземането на решения в системите с изкуствен интелект е ясна и разбираема. Прозрачните AI системи са обясними.

Според Списък за оценка за надежден изкуствен интелект (ALTAI), прозрачността има три ключови елемента:

  1. Проследимост (данните, стъпките за предварителна обработка и моделът са достъпни)
  2. Обяснимост (обосновката зад вземането на решение/прогнозата е ясна)
  3. Отворена комуникация (по отношение на ограничението на системата за изкуствен интелект)

4. поверителност

Поверителността е един от основните принципи на отговорния ИИ. Отнася се за защита на личната информация. Този принцип гарантира, че личната информация на хората се събира и обработва със съгласие и се пази от ръцете на недоволни.

Както беше видно наскоро, имаше случай с Clearview, компания, която прави модели за разпознаване на лица за правоприлагащи органи и университети. Пазачите на данни в Обединеното кралство съди Clearview AI за £7.5 милиона за събиране на изображения на жители на Обединеното кралство от социални медии без съгласие за създаване на база данни от 20 милиарда изображения.

5. Сигурност

Сигурността означава да се гарантира, че AI системите са защитени и не заплашват обществото. Пример за AI заплаха за сигурността е противникови атаки. Тези злонамерени атаки подвеждат ML моделите да вземат неправилни решения. Защитата на AI системите от кибератаки е наложителна за отговорния AI.

4 основни предизвикателства и рискове на отговорния ИИ

1. Пристрастност

Човешките пристрастия, свързани с възрастта, пола, националността и расата, могат да повлияят на събирането на данни, което потенциално води до предубедени модели на ИИ. Проучване на Министерството на търговията на САЩ установиха, че изкуственият интелект за разпознаване на лица погрешно идентифицира цветнокожите. Следователно използването на AI за разпознаване на лица в правоприлагащите органи може да доведе до неправомерни арести. Освен това създаването на справедливи AI модели е предизвикателство, защото има такива 21 различни параметри, за да ги дефинирате. Така че има компромис; задоволяването на един справедлив AI параметър означава жертване на друг.

2. Интерпретируемост

Интерпретируемостта е критично предизвикателство при разработването на отговорен ИИ. Отнася се до разбирането как моделът на машинно обучение е достигнал до определено заключение.

Дълбоките невронни мрежи нямат възможност за интерпретация, защото работят като черни кутии с множество слоеве скрити неврони, което затруднява разбирането на процеса на вземане на решения. Това може да бъде предизвикателство при вземане на решения с високи залози като здравеопазване, финанси и др.

Освен това формализирането на интерпретируемостта в ML моделите е предизвикателство, защото е така субективен намлява специфичен за домейна.

3. управление

Управлението се отнася до набор от правила, политики и процедури, които контролират разработването и внедряването на AI системи. Напоследък се наблюдава значителен напредък в дискурса за управление на ИИ, като организациите представят рамки и етични насоки.

Етични насоки за надежден AI от ЕСАвстралийска етична рамка за ИИ, и Принципи на OECD AI са примери за рамки за управление на ИИ.

Но бързият напредък в ИИ през последните години може да изпревари тези рамки за управление на ИИ. За тази цел е необходимо да има рамка, която оценява справедливостта, интерпретируемостта и етиката на системите с ИИ.

4. Регламент

Тъй като системите с изкуствен интелект стават все по-разпространени, трябва да има регулиране, което да отчита етичните и обществените ценности. Разработването на регулация, която не задушава иновациите в ИИ, е критично предизвикателство за отговорния ИИ.

Дори с Общия регламент за защита на данните (GDPR), Калифорнийския закон за поверителността на потребителите (CCPA) и Закона за защита на личната информация (PIPL) като регулаторни органи, изследователите на AI установиха, че 97% от уебсайтовете на ЕС не отговарят на изискванията на правната рамка на GDPR.

Освен това законодателите са изправени пред a значително предизвикателство за постигане на консенсус относно дефиницията на AI, която включва както класически AI системи, така и най-новите AI приложения.

3 основни предимства на отговорния AI

1. Намалено отклонение

Отговорният AI намалява пристрастията в процесите на вземане на решения, изграждайки доверие в системите с AI. Намаляването на пристрастията в AI системите може да осигури справедлива и справедлива здравна система и намалява пристрастията в базираните на AI системи финансови услуги и т.н.

2. Подобрена прозрачност

Отговорният AI създава прозрачни AI приложения, които изграждат доверие в системите с AI. Прозрачни AI системи намаляват риска от грешки и неправилна употреба. Подобрената прозрачност прави одита на AI системи по-лесен, печели доверието на заинтересованите страни и може да доведе до отговорни AI системи.

3. Повече сигурност

Защитените AI приложения гарантират поверителността на данните, произвеждат надеждни и безвредни резултати и са защитени от кибератаки.

Технологичните гиганти харесват Microsoft намлява Google, които са в челните редици на разработването на AI системи, са разработили принципи за отговорен AI. Отговорният AI гарантира, че иновациите в AI не са вредни за хората и обществото.

Лидерите на мисълта, изследователите, организациите и правните органи трябва непрекъснато да преразглеждат отговорната литература за ИИ, за да осигурят безопасно бъдеще за иновациите в ИИ.

За повече съдържание, свързано с AI, посетете обединявам.ai.