Искусственный интеллект
Битва за открытое программное обеспечение ИИ в условиях генеративного ИИ

Открытое программное обеспечение ИИ быстро меняет экосистему программного обеспечения, делая модели и инструменты ИИ доступными для организаций. Это приводит к ряду преимуществ, включая ускорение инноваций, улучшение качества и снижение затрат.
Согласно отчету OpenLogic за 2023 год, 80% организаций используют больше открытое программное обеспечение по сравнению с 77% в прошлом году, чтобы получить доступ к последним инновациям, улучшить скорость разработки, снизить зависимость от поставщиков и минимизировать затраты на лицензии.
Текущий ландшафт открытого программного обеспечения ИИ все еще эволюционирует. Технологические гиганты, такие как Google (Meena, Bard и PaLM), Microsoft (Turing NLG) и Amazon Web Services (Amazon Lex), были более осторожны в выпуске своих инноваций ИИ. Однако некоторые организации, такие как Meta и другие исследовательские компании, основанные на ИИ, активно открывают свои модели ИИ.
Более того, существует интенсивная дискуссия об открытом программном обеспечении ИИ, которая заключается в его потенциале бросить вызов большому технологическому бизнесу. Эта статья направлена на предоставление глубокого анализа потенциальных преимуществ открытого программного обеспечения ИИ и выделение проблем, которые лежат впереди.
Пионерские достижения – Потенциал открытого программного обеспечения ИИ
Многие практики считают рост открытого программного обеспечения ИИ положительным развитием, поскольку оно делает ИИ более прозрачным, гибким, подотчетным, доступным и доступным. Но технологические гиганты, такие как OpenAI и Google, очень осторожны при открытии своих моделей из-за коммерческих, конфиденциальных и безопасных проблем. Открывая свои модели, они могут потерять свое конкурентное преимущество или они должны будут раскрыть конфиденциальную информацию о своих данных и архитектуре моделей, и злонамеренные акторы могут использовать модели для вредных целей.
Однако главным достоинством открытия моделей ИИ является более быстрая инновация. Несколько заметных достижений в области ИИ стали доступны общественности через открытую совместную работу. Например, Meta сделала прорывной шаг, открыв свою модель LLM LLaMA.
Когда исследовательское сообщество получило доступ к LLaMA, это привело к дальнейшим прорывам в области ИИ, что привело к разработке производных моделей, таких как Alpaca и Vicuna. В июле Stability AI построила две модели LLM, Beluga 1 и Beluga 2, используя LLaMA и LLaMA 2 соответственно. Они показали лучшие результаты во многих языковых задачах, таких как рассуждение, вопросы в конкретной области и понимание языковых нюансов, по сравнению с моделями государственного уровня на тот момент. Недавно Meta представила Code LLaMA – открытый инструмент ИИ для кодирования, который превосходит модели государственного уровня на задачах кодирования – также построенный на основе LLaMA 2.
Исследователи и практики также улучшают возможности LLaMA, чтобы конкурировать с проприетарными моделями. Например, открытые модели, такие как Giraffe от Abacus AI и Llama-2-7B-32K-Instruct от Together AI, теперь могут обрабатывать входные контекстные длины 32K – функцию, которая ранее была доступна только в проприетарных моделях LLM, таких как GPT-4. Кроме того, отраслевые инициативы, такие как открытые модели MosaicML’s MPT 7B и 30B, наделяют исследователей возможностью обучать свои модели генеративного ИИ с нуля.
В целом, это коллективное усилие преобразило ландшафт ИИ, способствуя сотрудничеству и обмену знаниями, которые продолжают стимулировать прорывные открытия.
Преимущества открытого программного обеспечения ИИ для компаний
Открытое программное обеспечение ИИ предлагает многочисленные преимущества, что делает его привлекательным подходом в области искусственного интеллекта. Принимая прозрачность и общественную совместную работу, открытое программное обеспечение ИИ имеет потенциал революционизировать способ, которым мы разрабатываем и развертываем решения ИИ.
Вот некоторые преимущества открытого программного обеспечения ИИ:
- Быстрая разработка: Открытые модели ИИ позволяют разработчикам строить на основе существующих рамок и архитектур, что позволяет быстро разрабатывать и совершенствовать новые модели. С прочной основой разработчики могут создавать новые приложения без изобретения колеса.
- Повышенная прозрачность: Прозрачность является ключевой особенностью открытого программного обеспечения, обеспечивая четкий вид основных алгоритмов и данных. Эта видимость снижает предвзятость и способствует справедливости, что приводит к более справедливой среде ИИ.
- Повышенная совместная работа: Открытое программное обеспечение ИИ демократизировало разработку ИИ, что способствует сотрудничеству и создает разнообразное сообщество участников с различным опытом.
Навигация по проблемам – Риски открытого программного обеспечения ИИ
Хотя открытое программное обеспечение предлагает многочисленные преимущества, важно быть осведомленным о потенциальных рисках, которые оно может включать. Вот некоторые из ключевых проблем, связанных с открытым программным обеспечением ИИ:
- Регуляторные проблемы: Рост открытого программного обеспечения ИИ привел к неограниченной разработке с внутренними рисками, которые требуют тщательного регулирования. Неограниченная доступность и демократизация ИИ вызывают обеспокоенность по поводу его потенциального злонамеренного использования. Согласно недавнему отчету SiliconAngle, некоторые открытые проекты ИИ используют генеративный ИИ и модели LLM с плохой безопасностью, что ставит организации и потребителей под угрозу.
- Понижение качества: Хотя открытые модели ИИ обеспечивают прозрачность и общественную совместную работу, они могут страдать от понижения качества со временем. В отличие от закрытых моделей, поддерживаемых посвященными командами, бремя ухода часто ложится на сообщество. Это часто приводит к потенциальному пренебрежению и устаревшим версиям моделей. Это понижение может препятствовать критическим приложениям, подвергая опасности доверие пользователей и общий прогресс ИИ.
- Сложность регулирования ИИ: Открытое программное обеспечение ИИ вводит новый уровень сложности для регулирования ИИ. Есть несколько факторов, которые необходимо учитывать, таких как защита конфиденциальных данных, предотвращение использования моделей для злонамеренных целей и обеспечение того, чтобы модели были хорошо поддержаны. Следовательно, это очень сложно для регулирующих органов ИИ обеспечить, чтобы открытые модели использовались для добра, а не для вреда.
Эволюционирующая природа дебатов об открытом программном обеспечении ИИ
«Открытый исходный код стимулирует инновации, поскольку он позволяет большему количеству разработчиков работать с новыми технологиями. Он также улучшает безопасность и безопасность, поскольку когда программное обеспечение открыто, больше людей могут проверить его, чтобы выявить и исправить потенциальные проблемы», сказал Mark Zuckerberg когда он объявил о модели LLaMA 2 в июле этого года.
С другой стороны, крупные игроки, такие как Microsoft-backed OpenAI и Google, сохраняют свои системы ИИ закрытыми. Они стремятся получить конкурентное преимущество и минимизировать риск злонамеренного использования ИИ.
Сооснователь и главный ученый OpenAI, Ilya Sutskever, рассказал The Verge, «Эти модели очень мощные и они становятся все более мощными. В какой-то момент будет довольно легко, если кто-то захочет, причинить большой вред с помощью этих моделей. И по мере того, как возможности увеличиваются, имеет смысл не раскрывать их». Итак, есть потенциальные риски, связанные с открытыми моделями ИИ, которые люди не могут игнорировать.
Хотя ИИ, способный причинить вред человеку, может быть десятилетиями впереди, инструменты открытого программного обеспечения ИИ уже были использованы злонамеренно. Например, первая модель LLaMA была выпущена только для продвижения исследований ИИ. Но злонамеренные агенты использовали ее для создания чат-ботов, распространяющих ненавистный контент, такой как расовые оскорбления и стереотипы.
Поддержание баланса между открытой совместной работой ИИ и ответственным управлением имеет решающее значение. Это гарантирует, что достижения в области ИИ остаются полезными для общества, а также защищают от потенциального вреда. Сообщество технологий должно сотрудничать, чтобы установить руководящие принципы и механизмы, которые способствуют этической разработке ИИ. Более того, они должны принять меры, чтобы предотвратить злонамеренное использование, позволяя технологиям ИИ быть силой положительных изменений.
Хотите повысить свой ИИ IQ? Пройдите через обширный каталог ресурсов Unite.ai, чтобы расширить свои знания.













