Лидеры мнений
ИИ и дуга доверия

В начале прошлого года, когда наша команда делала прогнозы о том, что ждет нас впереди, было общее мнение, что искусственный интеллект (ИИ) наконец-то покажет, на что он способен, и, возможно, мы получим ясность о его влиянии на бизнес и общество, а также о том, как действовать. Это не было новым прогнозом, но его основа была точной, хотя мы все еще боремся с последствиями ИИ и тем, как (или если) его следует контролировать каким-либо образом.
Мы увидим, как Apple, Microsoft и Google интегрируют ИИ в устройства и принесут его мощь более широкой и большой аудитории. Затем один чатбот в инструменте поиска, оснащенном ИИ, угрожал пользователям и утверждал, что шпионил за сотрудниками, а другой предлагал использовать клей Elmer’s в домашней пицце, чтобы сыр не соскальзывал. Тем не менее, случаи использования ИИ в бизнесе выросли драматически, и так же вырос и рынок. Согласно данным Crunchbase, почти треть всех глобальных венчурных инвестиций в прошлом году пошла в компании, связанные с ИИ.
Но даже когда OpenAI представила действительно замечательные улучшения рассуждений, известный исследователь ИИ, Yoshua Bengio, призвал к принятию мер безопасности для “фронтовых моделей” с потенциалом причинить катастрофический вред. И хотя технология получила две Нобелевские премии за применения в науке, один из ее лауреатов выразил беспокойство о системах “более интеллектуальных, чем мы, которые в конечном итоге возьмут под контроль”.
В таком быстро меняющемся пространстве трудно даже экспертам-технологам следить, не говоря уже о тех, кто находится в мейнстриме.
А эти сбои ИИ – и проблемы с конфиденциальностью и неконтролируемым использованием – только усилили общественную осторожность.
Просто доверьтесь мне
Мы находимся на полпути дуги доверия, которая требует расширения общественного принятия ИИ, гарантируя, что бизнес и технологические сообщества действуют ответственно. Первая часть – это то, где игра происходит прямо сейчас, на корпоративном уровне, набирая обороты с каждым безопасным и надежным развертыванием. Мы строим на наших доказательствах, которые в конечном итоге приведут к увеличению общественного доверия. Вторая часть, однако, намного сложнее.
Кто определяет и обеспечивает ответственное использование ИИ? Может ли отрасль создать руководящие принципы, когда они сами нуждаются в регулировании? Если технологи испытывают трудности с пониманием ИИ, будут ли политики информированы и смогут ли они оставить свои политические программы вне обсуждения? И когда миллиардер ИИ вдруг хочет поговорить о контроле, имел ли он прозрение или он просто пытается нажать на тормоза, чтобы поспеть?
“Просто доверьтесь мне” не сработает с ИИ, независимо от того, кто вы.
Доверьтесь, но проверьте
Люди смотрят на генеративный ИИ, такой как ChatGPT, и задумываются, станет ли он их следующим Google? Ну, верхний результат поиска Google теперь создается его моделью ИИ, Gemini. Проблема в том, что вы не можете полагаться на него для бизнеса в масштабе, когда простой вопрос “Безопасно ли есть сырое мясо?” возвращает ответ “Да, замороженное”. Вам нужно проверить данные.
Дуга общественного доверия будет зеркально отражать то, что произошло с обычным поиском, полученным со временем и с доказательствами надежности. Иронично, что в нашей попытке упростить и улучшить поиск мы сделали шаг назад. Теперь, после получения ответа, сгенерированного ИИ, вам нужно пролистать длинный список спонсируемых ссылок, нажать на следующие пять и все равно проверить информацию.
Это много работы, когда вы ищете быстрый ответ – и у вас не может быть целой компании, делающей то же самое. Однако, если обогатить данные, которые вы добывали с помощью десятков тысяч своих собственных сервисных тикетов, вы принесете реальные знания о своей среде. Алгоритмически вы можете затем настроить галлюцинации вниз, но все равно это остается ситуацией “доверьтесь, но проверьте”.
Держите политику вне этого
Когда речь идет о регулировании ИИ, некоторые утверждают, что лошадь уже вышла из стаба и вряд ли будет поймана. Например, нет真正 эффективных инструментов для проверки, написал ли студент работу или использовал GenAI. Технология просто слишком далеко впереди.
Регулирование этого было бы очень сложным, и, честно говоря, мы бы вышли на тонкий лед. Мы знаем, что технологические компании на десятилетия опережают предлагаемых внешних регулирующих органов. Но мы хороши в том, чтобы прокладывать путь, а не быть сдержанными. Тем не менее, в конце концов, может потребоваться, чтобы инноваторы попытались применить управление. Кто еще мог бы это сделать – ответственно?
Есть много политиков, которые бы с удовольствием попробовали. Риск, помимо недостатка понимания, заключается в том, что у них может быть личная и политическая программа, которую они хотят продвигать. Их внимание, потенциально, будет сосредоточено не на культивировании ИИ, а на том, что в их лучших политических интересах. Они могут работать на этих общественных страхах, используя тяжелую руку, чтобы сдержать его прогресс.
Закон CHIPS и Science Act был хорошим примером здорового государственного действия, в результате которого было получено драматическое 15-кратное увеличение строительства производственных объектов для вычислительной техники и электронных устройств. Но это было сделано возможным благодаря двупартийности – все более редкому явлению прошлой эпохи.
Стоим ли мы того?
В ИИ вкладывается много денег, и в течение следующих двух десятилетий будет заработано много. Сколько, как быстро и как безопасно – остается быть увиденным. В любой день может быть распространено глубокое подделывание, показывающее кого-то в центре внимания, жонглирующего яйцами исчезающего вида птиц. Общественность отреагирует с ужасом, и хотя может быть раскрыто, что это было сгенерировано ИИ, это яйцо не вернется в скорлупу – ущерб уже нанесен.
Нам нужно, чтобы такие вещи были регулируемы информированными технологами. Какая форма это будет принимать – совет, орган по стандартизации, международная структура – остается быть увиденным. То, что известно, – ИИ находится на дуге доверия, и как отрасль, нам нужно доказать, что мы достойны этого.












