заглушки Объяснимость может решить проблему ИИ в любой отрасли: отсутствие прозрачности - Unite.AI
Свяжитесь с нами:

Лидеры мысли

Объяснимость может решить проблему ИИ в каждой отрасли: отсутствие прозрачности

mm

опубликованный

 on

От: Мигель Йетте, вице-президент по исследованиям и разработкам, выступление, оборот.

На зарождающихся стадиях ИИ, возможно, мог почивать на лаврах новизны. Для машинного обучения было нормально учиться медленно и поддерживать непрозрачный процесс, в который среднестатистический потребитель не может проникнуть в расчеты ИИ. Это меняется. По мере того, как все больше отраслей, таких как здравоохранение, финансы и система уголовного правосудия, начинают использовать ИИ способами, которые могут оказать реальное влияние на жизнь людей, все больше людей хотят знать, как используются алгоритмы, откуда берутся данные и просто насколько точны его возможности. Если компании хотят оставаться в авангарде инноваций на своих рынках, им необходимо полагаться на искусственный интеллект, которому будет доверять их аудитория. Объясняемость ИИ — ключевой ингредиент для углубления этих отношений.

Объяснимость ИИ отличается от стандартных процедур ИИ, потому что она предлагает людям способ понять, как алгоритмы машинного обучения создают выходные данные. Объяснимый ИИ — это система, которая может предоставить людям потенциальные результаты. и недостатки. Это система машинного обучения, которая может удовлетворить самое человеческое стремление к справедливости, подотчетности и уважению частной жизни. Объяснимый ИИ необходим для предприятий, чтобы завоевать доверие потребителей.

В то время как ИИ расширяется, поставщики ИИ должны понимать, что черный ящик не может. Модели «черного ящика» создаются непосредственно из данных, и часто даже разработчик, создавший алгоритм, не может определить, что привело к обучению машины. Но добросовестный потребитель не хочет связываться с чем-то настолько непроницаемым, что его невозможно привлечь к ответственности. Люди хотят знать, как алгоритм ИИ достигает конкретного результата без тайны исходного ввода и контролируемого вывода, особенно когда просчеты ИИ часто происходят из-за предубеждений машины. По мере того, как ИИ становится все более продвинутым, люди хотят получить доступ к процессу машинного обучения, чтобы понять, как алгоритм пришел к конкретному результату. Руководители каждой отрасли должны понимать, что рано или поздно люди перестанут отдавать предпочтение такому доступу, а потребуют его как необходимый уровень прозрачности.

Системы ASR, такие как голосовые помощники, технология транскрипции и другие сервисы, преобразующие человеческую речь в текст, особенно страдает от предубеждений. Когда услуга используется в целях безопасности, ошибки из-за акцента, возраста или происхождения человека могут быть серьезными ошибками, поэтому к проблеме нужно относиться серьезно. ASR можно эффективно использовать в полицейских нательных камерах, например, для автоматической записи и расшифровки взаимодействий — ведения записи, которая при правильном расшифровывании может спасти жизни. Практика объяснимости потребует, чтобы ИИ не просто полагался на купленные наборы данных, но стремился понять характеристики входящего звука, которые могут способствовать ошибкам, если таковые существуют. Что такое акустический профиль? Есть ли шум на заднем плане? Является ли спикер родом из страны, не являющейся англоязычной, или из поколения, использующего словарный запас, который ИИ еще не выучил? Машинное обучение должно быть активным для более быстрого обучения, и оно может начаться со сбора данных, которые могут учитывать эти переменные.

Необходимость становится очевидной, но путь внедрения этой методологии не всегда будет иметь простое решение. Традиционный ответ на проблему — добавить больше данных, но потребуется более сложное решение, особенно когда приобретенные наборы данных, которые используют многие компании, по своей сути необъективны. Это связано с тем, что исторически было трудно объяснить конкретное решение, которое было принято ИИ, и это связано со сложностью сквозных моделей. Однако теперь мы можем это сделать, и мы можем начать с вопроса о том, как люди вообще потеряли доверие к ИИ.

Неизбежно, ИИ будет делать ошибки. Компаниям необходимо создавать модели, которые учитывают потенциальные недостатки, определяют, когда и где возникают проблемы, и создают постоянные решения для создания более надежных моделей ИИ:

  1. Когда что-то пойдет не так, разработчикам нужно будет объяснить, что произошло, и разработать немедленный план для улучшения модели, чтобы уменьшить количество подобных ошибок в будущем.
  2. Чтобы машина действительно знала, была ли она права или нет, ученым необходимо создать цикл обратной связи чтобы ИИ мог изучить свои недостатки и развиваться.
  3. Еще один способ для ASR завоевать доверие, пока ИИ все еще совершенствуется, — это создать систему, которая может обеспечить оценки достоверности, и объясните, почему ИИ менее уверен в себе. Например, компании обычно присваивают баллы от нуля до 100, чтобы отразить недостатки собственного ИИ и обеспечить прозрачность со своими клиентами. В будущем системы могут предоставлять апостериорные объяснения того, почему звук был сложным, предлагая больше метаданных о звуке, таких как воспринимаемый уровень шума или менее понятный акцент.

Дополнительная прозрачность приведет к лучшему человеческому контролю за обучением и производительностью ИИ. Чем больше мы открыто говорим о том, что нам нужно улучшить, тем больше мы ответственны за принятие мер по этим улучшениям. Например, исследователь может захотеть узнать, почему был выведен ошибочный текст, чтобы смягчить проблему, в то время как специалисту по транскрипции могут потребоваться доказательства того, почему ASR неправильно истолковал ввод, чтобы помочь им оценить его достоверность. Держа людей в курсе, можно смягчить некоторые из наиболее очевидных проблем, возникающих, когда ИИ не контролируется. Это также может ускорить время, необходимое ИИ для обнаружения своих ошибок, улучшения и, в конечном итоге, исправления в режиме реального времени.

ИИ способен улучшить жизнь людей, но только в том случае, если люди создадут его для правильного производства. Нам нужно привлечь к ответственности не только эти системы, но и людей, стоящих за инновациями. Ожидается, что системы ИИ будущего будут придерживаться принципов, установленных людьми, и только до тех пор у нас будет система, которой люди будут доверять. Пришло время заложить основу и стремиться к этим принципам сейчас, пока в конечном счете люди все еще служат себе.

Мигель Джетте — руководитель отдела исследований и разработок в области искусственного интеллекта в оборот, платформу транскрипции речи в текст, объединяющую искусственный интеллект и опытных людей. Он возглавляет команду, ответственную за разработку самой точной в мире платформы искусственного интеллекта для преобразования речи в текст. Увлеченный решением сложных проблем при улучшении жизни, он стремится повысить инклюзивность и равенство в строительстве с помощью технологий. Более двух десятилетий он работал над внедрением голосовых технологий в таких компаниях, как Nuance Communications и VoiceBox. Он получил степень магистра математики и статистики в Университете Макгилла в Монреале. Когда он не продвигает общение с помощью ИИ, он проводит время в качестве фотографа на соревнованиях по скалолазанию.