Лидеры мнений
Как города развертывают передовые технологии, используя алгоритмы искусственного интеллекта без предвзятости

Сегодня практически каждый аспект нашей жизни затрагивает какую-то часть онлайн-сети. Хотя это, безусловно, улучшило многие области жизни, такие как то, как мы ходим с портативными устройствами, которые могут доставить нам информацию в любое время, это также создает определенные риски.
Эти риски выходят за рамки традиционных хакерских атак и утечек данных в наши банковские счета, например. Больше того, о чем я говорю здесь, это то, что существует так много частей нашей жизни сегодня, которые затронуты алгоритмами, используемыми искусственным интеллектом (ИИ). Мы предполагаем, что этот ИИ по своей сути использует алгоритмы, которые находятся в наших интересах. Однако, что происходит, когда в эти алгоритмы проникает неправильный тип предвзятости? Как это может повлиять на определенные результаты?
Что происходит, когда предвзятые алгоритмы проникают в системы ИИ?
Чтобы предложить другой пример, на YouTube, алгоритм ИИ рекомендует почти 70% всех видеороликов, и на социальных платформах, таких как Instagram и TikTok, процент еще выше. Хотя эти алгоритмы ИИ могут помочь пользователям найти контент, который их интересует, они создают серьезные проблемы с конфиденциальностью, и есть растущие доказательства того, что часть рекомендуемого контента, который люди потребляют в Интернете, даже опасна из-за дезинформации или, возможно, содержит определенную точку зрения, предназначенную для того, чтобы незаметно повлиять на политические мысли или убеждения человека.
Создание хорошо сбалансированного, адаптивного ИИ – это сложное техническое и социальное начинание, но одно из наиболее значимых.
Понятно, как ИИ может иметь негативное влияние на социальные нормы и онлайн-шаблоны использования, а также сосредотачиваться на положительных эффектах технологии. Онлайн-источники имеют значительное влияние на наше общество, и предвзятости в онлайн-алгоритмах непреднамеренно будут способствовать несправедливости, формировать убеждения людей, распространять ложную информацию и создавать конфликты между различными группами.
Это то место, где “плохой ИИ” может иметь действительно значительные последствия, связанные с нежелательными и/или несправедливыми предвзятостями.
Как предвзятый ИИ может негативно повлиять на перекрестки
Возьмем перекрестки, как более реальный пример. Длительные ожидания на светофорах становятся вещью прошлого благодаря новым технологиям ИИ, развертываемым на рынках по всей стране. Эти решения Transit Priority используют данные о движении в реальном времени и адаптируют светофоры к меняющимся условиям движения, поддерживая поток транспорта и снижая загруженность.
Системы используют глубокое обучение, где программа понимает, когда она не работает хорошо, и пробует другой курс действий – или продолжает улучшаться, когда она делает прогресс.
Похоже на отличную идею, не так ли? Что происходит, если со временем алгоритмы ИИ, встроенные в технологию датчиков движения, начинают отдавать предпочтение более дорогим транспортным средствам над другими, на основе предвзятых алгоритмов, предназначенных для того, чтобы признать, что люди, которые водят определенный тип транспортного средства, заслуживают приоритета над другими?
Это то место, где “плохой ИИ” может негативно повлиять на очень важную часть нашей жизни.
Давайте возьмем, например, эти системы Transit Priority с поддержкой ИИ, которые являются частью более крупной Интеллектуальной системы транспорта (ITS), которая использует силу технологий подключенных транспортных средств. Системы ITS так хороши, как и агностические облачные платформы обмена данными, на которых они работают, и не все они созданы одинаково.
Устранение предвзятости в алгоритмах ИИ
Эти платформы обмена данными были признаны высокоэффективными, но только когда города и муниципалитеты, контролирующие системы транспорта, делают их открытыми для надлежащего обмена данными, где предвзятые алгоритмы не допускаются к участию. К сожалению, многие муниципалитеты остаются связанными контрактами с поставщиками оборудования и устройств, которые утверждают, что работают под “открытой архитектурой”, но не желают работать на открытой платформе обмена данными, и эти города сильно ограничивают себя от истинных возможностей, которые может предоставить облачная платформа.
Облачные системы приоритета транспорта учитывают глобальную картину системы и используют не предвзятые, ориентированные на данные методы машинного обучения, чтобы предсказать оптимальное время для предоставления зеленого света транспортным средствам в нужный момент. Это минимизирует помехи с пересекающимися маршрутами и одновременно максимизирует вероятность непрерывной поездки. Более того, агностическая облачная платформа обеспечивает, чтобы города использовали постоянно обновляемую систему для максимизации потенциала транспорта, без предвзятости от нежелательных источников.
С учетом того, что эта технология теперь легко доступна, города, разработчики и муниципалитеты имеют технологии, которые им необходимы для ускорения строительства интеллектуальных сетей транспорта на благо всех в регионе, справедливо и равноправно.
Регионы, такие как город Сан-Хосе, теперь используют преимущества ИИ, чтобы улучшить предоставление услуг своим жителям. Поскольку город все больше использует инструменты ИИ, становится еще более важным обеспечить, чтобы эти системы ИИ были эффективными и заслуживающими доверия. Отслеживая алгоритмы, используемые в этих инструментах, Офис цифровой конфиденциальности (DPO) обеспечивает, чтобы технологические приобретения города, оснащенные ИИ, работали точно, минимизировали предвзятость и были надежными. Когда отдел города хочет приобрести инструмент ИИ, DPO следует определенным процессам проверки, чтобы оценить преимущества и риски любой системы ИИ.
Для этого конкретного региона мы гордимся тем, что присоединяемся к компаниям, таким как Google, как один из немногих одобренных поставщиков ИИ, участвующих в городских технологических развертываниях, благодаря алгоритмам без предвзятости. Поскольку продолжают разрабатываться все больше технологий ИИ, будет особенно важно обеспечить, чтобы они были созданы без предвзятых алгоритмов для действительно справедливого и равноправного использования местных муниципальных услуг.












