кочан Как да приложим етиката на ИИ? - Обединете.AI
Свържете се с нас

Лидери на мисълта

Как да приложим етиката на ИИ?

mm

Публикуван

 on

AI има за цел да оптимизира процесите, а не да елиминира хората от тях. Отговорността остава решаваща за всеобхватната идея, че ИИ може да замени хората. Докато технологиите и автоматизираните системи ни помогнаха да постигнем по-добри икономически резултати през миналия век, могат ли те наистина да заменят услугите, креативността и задълбочените знания? Все още вярвам, че не могат, но могат да оптимизират времето, прекарано в разработването на тези области.

Отчетността разчита в голяма степен на правата върху интелектуалната собственост, предвиждайки въздействието на технологиите върху колективните и индивидуалните права и гарантирайки безопасността и защитата на данните, използвани при обучение и споделяне, докато се разработват нови модели. С напредването на технологиите темата за етиката на ИИ става все по-актуална. Това повдига важни въпроси за това как регулираме и интегрираме ИИ в обществото, като минимизираме потенциалните рискове.

Работя в тясно сътрудничество с един аспект на AI – клониране на глас. Гласът е важна част от приликата на индивида и биометричните данни, използвани за обучение на гласови модели. Защитата на подобието (правни и политически въпроси), осигуряването на гласови данни (политики за поверителност и киберсигурност) и установяването на ограниченията на приложенията за клониране на глас (етични въпроси, измерващи въздействието) са от съществено значение за разглеждане при изграждането на продукта.

Трябва да оценим как AI се привежда в съответствие с нормите и ценностите на обществото. ИИ трябва да бъде адаптиран, за да се вмести в съществуващата етична рамка на обществото, като се гарантира, че не налага допълнителни рискове или застрашава установените обществени норми. Въздействието на технологията обхваща области, в които AI дава възможност на една група от хора, докато елиминира други. Тази екзистенциална дилема възниква на всеки етап от нашето развитие и обществен растеж или упадък. Може ли AI да въведе повече дезинформация в информационните екосистеми? да Как да управляваме този риск на ниво продукт и как да образоваме потребителите и политиците за него? Отговорите не се крият в опасностите от самата технология, а в това как я пакетираме в продукти и услуги. Ако нямаме достатъчно работна сила в продуктовите екипи, за да погледнем отвъд и да оценим въздействието на технологиите, ще бъдем заклещени в цикъл на коригиране на бъркотията.

Интегрирането на AI в продукти повдига въпроси относно безопасността на продукта и предотвратяването на вредите, свързани с AI. Разработването и внедряването на AI трябва да даде приоритет на съображенията за безопасност и етика, което изисква разпределяне на ресурси към съответните екипи.

За да улесня възникващата дискусия относно операционализирането на етиката на ИИ, предлагам този основен цикъл за превръщане на ИИ в етичен на ниво продукт:

1. Проучете правните аспекти на ИИ и как го регулираме, ако съществуват разпоредби. Те включват Закона на ЕС за ИИ, Закона за цифровите услуги, Закона за онлайн безопасността на Обединеното кралство и GDPR относно поверителността на данните. Рамките са в процес на разработка и се нуждаят от принос от лидери в индустрията (нововъзникващи технологии) и лидери. Вижте точка (4), която завършва предложения цикъл.

2. Помислете как да адаптираме базирани на AI продукти към нормите на обществото, без да налагаме повече рискове. Засяга ли информационната сигурност или работния сектор, или нарушава авторските права и правата върху интелектуалната собственост? Създайте матрица, базирана на кризисен сценарий. Извличам това от моя опит в областта на международната сигурност.

3. Определете как да интегрирате горното в продукти, базирани на AI. Тъй като ИИ става все по-усъвършенстван, ние трябва да гарантираме, че той е в съответствие с ценностите и нормите на обществото. Трябва да бъдем проактивни в разглеждането на етичните съображения и интегрирането им в разработването и внедряването на ИИ. Ако базираните на AI продукти, като генеративния AI, заплашват да разпространят повече дезинформация, трябва да въведем смекчаващи функции, модериране, да ограничим достъпа до основната технология и да комуникираме с потребителите. Жизненоважно е да има екипи по етика и безопасност на ИИ в базирани на ИИ продукти, което изисква ресурси и фирмена визия.

Помислете как можем да допринесем за и оформим правните рамки. Най-добрите практики и политически рамки не са просто модни думи; те са практични инструменти, които помагат на новата технология да функционира като помощен инструмент, а не като надвиснала заплаха. Обединяването на създателите на политики, изследователите, големите технологии и нововъзникващите технологии е от съществено значение за балансирането на обществените и бизнес интересите около AI. Правните рамки трябва да се адаптират към нововъзникващите технологии на ИИ, като гарантират, че защитават индивидите и обществото, като същевременно насърчават иновациите и прогреса.

4. Помислете как допринасяме за правните рамки и ги оформяме. Най-добрите практики и политически рамки не са празни модни думи, а доста практични инструменти, за да накарате новата технология да работи като помощни инструменти, а не като надвиснали заплахи. Наличието на политици, изследователи, големи технологии и нововъзникващи технологии в една стая е от съществено значение за балансирането на обществените и бизнес интересите около AI. Правните рамки трябва да се адаптират към нововъзникващите технологии на ИИ. Трябва да гарантираме, че тези рамки защитават хората и обществото, като същевременно улесняват иновациите и прогреса.

Oбобщение

Това е наистина основен кръг от интегриране на базирани на изкуствен интелект нововъзникващи технологии в нашите общества. Докато продължаваме да се борим със сложността на етиката на ИИ, от съществено значение е да останем ангажирани с намирането на решения, които дават приоритет на безопасността, етиката и общественото благополучие. И това не са празни думи, а трудната работа по редене на всички пъзели всеки ден.

Тези думи се основават на моя собствен опит и заключения.

Анна е ръководител на отдел „Етика и партньорства“ в Респечер, наградена с Emmy технология за клониране на глас, базирана в Украйна. Анна е бивш съветник по политиката в Reface, базирано на AI приложение за синтетични медии и технически съосновател на инструмента за противодействие на дезинформацията Cappture, финансиран от ускорителната програма Startup Wise Guys. Анна има 11 години опит в политиките за сигурност и отбрана, технологиите и изграждането на устойчивост. Тя е бивш научен сътрудник в Международния център за отбрана и сигурност в Талин и Института за изследване на сигурността в Прага. Тя също така е съветвала големи украински компании относно изграждането на устойчивост като част от работната група за хибридна война в Киевското училище по икономика.