Лидеры мысли
Поскольку отрасли готовятся к ускоренному внедрению ИИ, новый акцент на этике и ответственности

By: Пандуранг Камат, технический директор Постоянные системы
Искусственный интеллект (ИИ) по своей сути обучение с помощью машины (ML), процесс, посредством которого машины учатся повышать производительность на основе вводимых данных. Огромное количество существующих сегодня данных означает, что у ИИ была благодатная почва для процветания. ускоряется с головокружительной скоростью всего за последние несколько лет. И обещание ИИ заставило технологов и руководителей в далеко идущих отраслях творчески подойти к его различным приложениям.
Начиная с промышленной революции, любой период быстрого технического прогресса отмечен в равной степени энтузиазмом и трепетом. World Wide Web Consortium (W3C), группа, которая создает отраслевые стандарты для веб-разработчиков, отмечает, что «растет осознание того, что применение машинного обучения создает риски и может привести к вреду», в том числе в таких областях, как предвзятость, конфиденциальность, безопасность, устойчивость и общая ответственность.
«Существует явная потребность в этичном подходе к ОД, что проявляется в активности гражданского общества, появлении примерно 100 наборов этических принципов ИИ во всем мире, а также в том, что правительства по всему миру предпринимают шаги по регулированию ИИ». группа написала. «Если технологии не соответствуют ценностям общества, в котором они работают, они рискуют их подорвать».
Выбирать мудро
На первый взгляд трудно утверждать, что повышенная скорость и производительность вредны для бизнеса. Но для некоторых отраслей на карту поставлен процесс принятия решений, который, по мнению некоторых, не следует оставлять на усмотрение алгоритма. Глядя на несколько крупнейших отраслей, мы видим, насколько мы уязвимы для машинных ошибок и почему ответственный ИИ так важен.
Банковские, финансовые услуги и страхование (BFSI)
Всемирный экономический форум (ВЭФ) и Deloitte изучили процесс внедрения ИИ в компаниях BFSI и пришли к выводу, что, «хотя ИИ может помочь в создании полезных бизнес-идей из огромного объема информации», «чужеродность ИИ» будет источником постоянный серьезный риск.
«ИИ рассуждает нечеловеческим образом», — говорится в отчете. «Системы искусственного интеллекта не следуют человеческим логическим построениям и ведут себя совсем иначе, чем люди-актеры, выполняющие ту же задачу. Кроме того, самообучающаяся природа систем ИИ позволяет им развиваться без участия человека, что может привести к неожиданным результатам, основанным на неизвестных переменных».
Сторонники ответственного ИИ утверждают, что машинное обучение создает серьезные проблемы в таких вещах, как автоматическая оценка рисков, кредиты и кредитные решения, которые исторически наносят ущерб определенной демографии. Недавние исследования показали, что кредиторы, использующие механизмы принятия решений на основе ИИ, с большей вероятностью откажут в ипотечных кредитах цветным людям. 80% чернокожих заявителей с большей вероятностью будут отклонены.
Здравоохранение
Несколько лет назад Журнал Американской медицинской ассоциации (JAMA) взглянул на внедрение ИИ в здравоохранение и обнаружил, что проблем много, включая «нереалистичные ожидания, предвзятые и нерепрезентативные данные, неадекватную приоритизацию справедливости и инклюзивности, риск усугубления неравенства в здравоохранении, низкий уровень доверия и неопределенность». регулирующие среды».
Не совсем громкое одобрение, но есть более высокая планка для ответственного ИИ в здравоохранении, особенно с учетом его буквального потенциала жизни или смерти. В целом медицинские работники настроены оптимистично, но настороженно относятся к будущему ИИ, предпочитая сосредоточить свои усилия на обучении других практикующих врачей методам его использования в клинических условиях и разработке рекомендаций о том, как действовать ответственно и на благо всех пациентов.
Медиафайлы
По оценкам PwC, к 15.7 году ИИ обеспечит глобальный экономический рост в размере 2030 трлн долларов., Но по данным Salesforce менее половины (48%) клиентов доверяют компаниям этичное использование ИИ, а 65% обеспокоены неэтичным использованием ИИ. На стыке прибыли и доверия находятся медиакомпании — первые последователи с огромным охватом и влиянием. И есть опасения по поводу того факта, что ИИ не является приложением «установил и забыл», а это означает, что для медиа-компаний их ответственность заключается не только в производстве контента, но и в его постоянном мониторинге после развертывания.
Как реклама подается и персонализируется? Как контент доходит до конкретной аудитории и в чем заключается посыл? Кто учит ИИ, «как» учиться? И как вы можете ориентироваться на конкретных потребителей, соблюдая при этом конфиденциальность? Это лишь некоторые из вопросов, которые беспокоят медиакомпании, поскольку они балансируют этику с получением конкурентного преимущества.
Ответ на ответственность
Прогресс в разработке ответственного ИИ очевиден каждый день: законодатели разрабатывают нормативные акты, потребители требуют большей прозрачности, а многие компании создали специальные отделы, которым поручено обеспечить надлежащее использование их ИИ. Компании нуждаются в четко определенная ответственная структура ИИ который охватывает этику, прозрачность, подотчетность, справедливость, конфиденциальность и безопасность. Поскольку дебаты и реформы продолжаются, недавнее совместное исследование MIT Sloan Management Review и Boston Consulting Group дает простое общее руководство — они написали: «Если вы хотите быть ответственным руководителем ИИ, сосредоточьтесь на том, чтобы быть ответственной компанией».