Лидеры мысли
Прозрачность ИИ и потребность в моделях с открытым исходным кодом

Чтобы защитить людей от потенциального вреда ИИ, некоторые регулирующие органы в США и Европейском союзе все чаще выступают за контроль и сдержки и противовесы в отношении мощности моделей ИИ с открытым исходным кодом. Частично это мотивировано желанием крупных корпораций контролировать разработку ИИ и формировать развитие ИИ таким образом, чтобы это приносило им пользу. Регуляторные органы также обеспокоены темпами развития ИИ, поскольку они обеспокоены тем, что ИИ развивается слишком быстро и не хватает времени для принятия мер по предотвращению его использования в злонамеренных целях.
Билль о правах ИИ и Структура управления рисками ИИ NIST в США, а также EU AI Act , поддерживают различные принципы, такие как точность, безопасность, недискриминация, защищенность, прозрачность, подотчетность, объяснимость, интерпретируемость и конфиденциальность данных. Более того, и ЕС, и США ожидают, что организации по стандартизации, будь то правительственные или международные организации, будут играть решающую роль в разработке руководящих принципов для ИИ.
В свете этой ситуации крайне важно стремиться к будущему, которое включает в себя прозрачность и возможность проверять и контролировать системы ИИ. Это позволит разработчикам по всему миру тщательно изучать, анализировать и улучшать ИИ, уделяя особое внимание обучающим данным и процессам.
Чтобы успешно обеспечить прозрачность ИИ, мы должны понять лежащие в его основе алгоритмы принятия решений, тем самым распутав подход ИИ к «черному ящику». Модели с открытым исходным кодом и проверяемые модели играют неотъемлемую роль в достижении этой цели, поскольку они обеспечивают доступ к базовому коду, архитектуре системы и обучающим данным для проверки и аудита. Эта открытость способствует сотрудничеству, стимулирует инновации и защищает от монополизации.
Чтобы стать свидетелем реализации этого видения, важно способствовать изменениям политики, инициативам на низовом уровне и поощрять активное участие всех заинтересованных сторон, включая разработчиков, корпорации, правительства и общественность.
Текущее состояние ИИ: концентрация и контроль
В настоящее время развитие ИИ, особенно в отношении большие языковые модели (LLM), в основном централизована и контролируется крупными корпорациями. Такая концентрация власти вызывает опасения относительно возможности неправомерного использования и вызывает вопросы о равном доступе и справедливом распределении выгод от достижений в области ИИ.
В частности, популярные модели, такие как LLM, не имеют альтернатив с открытым исходным кодом в процессе обучения из-за требуемых обширных вычислительных ресурсов, которые обычно доступны только крупным компаниям. Тем не менее, даже если эта ситуация останется неизменной, обеспечение прозрачности данных и процессов обучения имеет решающее значение для облегчения контроля и подотчетности.
Недавнее введение OpenAI системы лицензирования для определенных типов ИИ вызвало опасения и обеспокоенность по поводу захвата регулирующими органами, поскольку это может повлиять не только на траекторию развития ИИ, но и на более широкие социальные, экономические и политические аспекты.
Необходимость в прозрачном ИИ
Представьте себе, что вы полагаетесь на технологию, которая принимает важные решения о человеческой/личной жизни, но не оставляет следов, не понимает обоснования этих выводов. Здесь прозрачность становится незаменимой.
Прежде всего, прозрачность имеет решающее значение и укрепляет доверие. Когда модели ИИ становятся наблюдаемыми, они вселяют уверенность в их надежности и точности. Более того, такая прозрачность сделает разработчиков и организации гораздо более ответственными за результаты своих алгоритмов.
Еще одним важным аспектом прозрачности является выявление и смягчение алгоритмической предвзятости. Предвзятость можно внедрить в модели ИИ несколькими способами.
- Человеческий фактор: ученые, занимающиеся данными, уязвимы для увековечения своих собственных предубеждений в моделях.
- Машинное обучение. Даже если бы учёным пришлось создать чисто объективный ИИ, модели по-прежнему весьма подвержены предвзятости. Машинное обучение начинается с определенного набора данных, но затем его можно использовать для поглощения новых данных и создания новых путей обучения и новых выводов. Эти результаты могут быть непреднамеренными, предвзятыми или неточными, поскольку модель пытается развиваться самостоятельно, что называется «дрейфом данных».
Важно знать об этих потенциальных источниках предвзятости, чтобы их можно было выявить и смягчить. Один из способов выявить предвзятость — проверить данные, используемые для обучения модели. Это включает в себя поиск закономерностей, которые могут указывать на дискриминацию или несправедливость. Еще один способ уменьшить предвзятость — использовать методы устранения предвзятости. Эти методы могут помочь устранить или уменьшить предвзятость модели. Прозрачно сообщая о возможной предвзятости и предпринимая шаги по ее уменьшению, мы можем помочь обеспечить справедливое и ответственное использование ИИ.
Прозрачные модели ИИ позволяют исследователям и пользователям изучать обучающие данные, выявлять предубеждения и предпринимать корректирующие действия для их устранения. Делая процесс принятия решений видимым, прозрачность помогает нам добиваться справедливости и предотвращать распространение дискриминационных практик. Более того, прозрачность необходима на протяжении всего срока службы модели, как объяснялось выше, чтобы предотвратить дрейф данных, предвзятость и галлюцинации ИИ, которые производят ложную информацию. Эти галлюцинации особенно распространены в больших языковых моделях, но также существуют во всех формах продуктов ИИ. Наблюдаемость ИИ также играет важную роль в обеспечении производительности и точности моделей, создавая более безопасный и надежный ИИ, менее подверженный ошибкам или непредвиденным последствиям.
Однако достижение прозрачности в ИИ не обходится без проблем. Для решения таких проблем, как конфиденциальность данных, безопасность и интеллектуальная собственность, необходимо соблюдать тщательный баланс. Это влечет за собой внедрение методов сохранения конфиденциальности, анонимизацию конфиденциальных данных и установление отраслевых стандартов и правил, способствующих ответственной практике прозрачности.
Делаем прозрачный ИИ реальностью
Разработка инструментов и технологий, которые могут обеспечить возможность проверки в ИИ, имеет решающее значение для обеспечения прозрачности и подотчетности в моделях ИИ.
В дополнение к разработке инструментов и технологий, обеспечивающих возможность проверки в ИИ, развитие технологий также может способствовать прозрачности, создавая культуру вокруг ИИ. Поощрение предприятий и организаций к прозрачности использования ими ИИ также может помочь укрепить доверие и уверенность. Упрощая проверку моделей ИИ и создавая культуру прозрачности вокруг ИИ, развитие технологий может помочь обеспечить справедливое и ответственное использование ИИ.
Однако развитие технологий может иметь и противоположный эффект. Например, если технологические компании разрабатывают проприетарные алгоритмы, закрытые для общественного контроля, это может затруднить понимание того, как эти алгоритмы работают, и выявление любых потенциальных предубеждений или рисков. Обеспечение того, чтобы ИИ приносил пользу обществу в целом, а не избранным, требует высокого уровня сотрудничества.
Исследователи, политики и специалисты по данным могут устанавливать правила и стандарты, обеспечивающие правильный баланс между открытостью, конфиденциальностью и безопасностью, не препятствуя инновациям. Эти правила могут создать рамки, которые поощряют обмен знаниями, устраняя потенциальные риски и определяя ожидания в отношении прозрачности и объяснимости в критических системах.
Все стороны, связанные с разработкой и развертыванием ИИ, должны уделять первоочередное внимание прозрачности, документируя свои процессы принятия решений, предоставляя доступ к исходному коду и используя прозрачность как основной принцип разработки системы ИИ. Это дает каждому возможность сыграть жизненно важную роль в изучении методов, позволяющих сделать алгоритмы ИИ более интерпретируемыми, и в разработке методов, облегчающих понимание и объяснение сложных моделей.
Наконец, участие общественности в этом процессе имеет решающее значение. Повышая осведомленность и способствуя общественным дискуссиям о прозрачности ИИ, мы можем обеспечить отражение социальных ценностей в разработке и развертывании систем ИИ.
Заключение
По мере того, как ИИ все больше интегрируется в различные аспекты нашей жизни, прозрачность ИИ и использование моделей с открытым исходным кодом становятся критическими соображениями. Использование поддающегося проверке ИИ не только обеспечивает справедливость и подотчетность, но также стимулирует инновации, предотвращает концентрацию власти и способствует равному доступу к достижениям ИИ.
Отдавая приоритет прозрачности, позволяя тщательно изучать модели ИИ и поощряя сотрудничество, мы можем коллективно формировать будущее ИИ, которое принесет пользу всем, решая этические, социальные и технические проблемы, связанные с этой трансформирующей технологией.












