Connect with us

Как люди могут ориентироваться в гонке вооружений ИИ

Лидеры мнений

Как люди могут ориентироваться в гонке вооружений ИИ

mm

Инструменты ИИ рассматриваются многими как благо для исследований, от рабочих проектов до школьных работ и науки. Например, вместо того, чтобы тратить часы на тщательное изучение веб-сайтов, вы можете просто задать вопрос ChatGPT, и он вернет, казалось бы, осмысленный ответ. Однако вопрос в том, можно ли доверять этим результатам? Опыт показывает, что ответ часто «нет». ИИ работает хорошо только тогда, когда люди более вовлечены, направляют и контролируют его, а затем проверяют результаты, которые он производит, на соответствие реальному миру. Но с быстрым ростом сектора генеративного ИИ и постоянным выпуском новых инструментов может быть сложно для потребителей понять и принять роль, которую они должны сыграть при работе с инструментами ИИ.

Сектор ИИ огромен и становится только больше, и эксперты утверждают, что он будет стоить более трillions долларов к 2030 году. Поэтому не должно быть удивительно, что почти каждая большая технологическая компания – от Apple до Amazon, IBM и Microsoft, и многие другие – выпускает свою собственную версию технологии ИИ, особенно передовые продукты генеративного ИИ.

Учитывая такие ставки, также не должно быть удивительно, что компании работают как можно быстрее, чтобы выпустить новые функции, которые дадут им преимущество над конкурентами. Это действительно гонка вооружений, при которой компании стремятся привязать как можно больше пользователей к своей экосистеме. Компании надеются, что функции, которые позволяют пользователям использовать системы ИИ самым простым способом – например, получать всю необходимую информацию для исследовательского проекта, просто задав вопрос генеративному чат-боту ИИ – выиграют им больше клиентов, которые останутся с продуктом или брендом, когда новые функции будут добавляться на регулярной основе.

Но иногда, в своей спешке быть первыми, компании выпускают функции, которые могут не были должным образом проверены или чьи ограничения не хорошо поняты или определены. Хотя компании конкурировали в прошлом за долю рынка во многих технологиях и приложениях, кажется, что текущая гонка вооружений приводит к тому, что больше компаний выпускают больше «неполноценных» продуктов, чем когда-либо – с соответствующими неполноценными результатами. Полагаться на такие результаты для исследовательских целей – будь то бизнес, личные, медицинские, академические или другие – может привести к нежелательным результатам, включая ущерб репутации, бизнес-потери или даже риск для жизни.

Промахи ИИ вызвали значительные потери для нескольких бизнесов. Компания iTutor была оштрафована на $365 000 в 2023 году после того, как ее алгоритм ИИ отклонил десятки заявок на работу из-за возраста. Рынок недвижимости Zillow потерял сотни миллионов долларов в 2021 году из-за неправильных прогнозов цен его системы ИИ. Пользователи, которые полагались на ИИ для медицинских советов, также были под угрозой. Chat GPT, например, предоставил неточную информацию пользователям о взаимодействии между лекарством, снижающим кровяное давление, верапамилом и Паксловидом, противовирусной таблеткой Pfizer для Covid-19 – и о том, могут ли пациенты принимать эти препараты одновременно. Те, кто полагался на неправильные советы системы о том, что нет взаимодействия между двумя препаратами, могли оказаться под угрозой.

Хотя эти инциденты попали в заголовки, многие другие промахи ИИ не попадают в заголовки – но они могут быть такими же смертельными для карьеры и репутации. Например, занятый менеджер по маркетингу, ищущий捷径 для подготовки отчетов, может быть соблазнен использовать инструмент ИИ для генерации отчета – и если этот инструмент представляет информацию, которая не является правильной, он может обнаружить, что ищет другую работу. Студент, использующий ChatGPT для написания отчета – и чей профессор достаточно умён, чтобы понять источник этого отчета – может столкнуться с оценкой F, возможно, за семестр. И адвокат, чей помощник использует инструменты ИИ для юридической работы, может обнаружить, что он оштрафован или даже лишен права заниматься юридической практикой, если дело, которое он представляет, предвзято из-за плохих данных.

Почти все эти ситуации можно предотвратить – если люди направляют ИИ и имеют больше прозрачности в исследовательском цикле. ИИ должен быть рассмотрен как партнерство между человеком и машиной. Это настоящее сотрудничество – и это его выдающаяся ценность.

Хотя более мощные функции поиска, форматирования и анализа приветствуются, производители продуктов ИИ также должны включать механизмы, которые позволяют такое сотрудничество. Системы должны включать инструменты проверки фактов, которые позволят пользователям проверить результаты отчетов инструментов, таких как ChatGPT, и позволят пользователям увидеть исходные источники конкретных данных или фрагментов информации. Это не только произведет лучшие исследования, но и восстановит доверие к себе; мы можем представить отчет или рекомендовать политику с уверенностью, основанной на фактах, которые мы доверяем и понимаем.

Пользователям также необходимо признать и взвесить, что стоит на кону, когда они полагаются на ИИ для производства исследований. Они должны взвесить уровень однообразности с важностью результата. Например, люди, вероятно, могут позволить себе быть менее вовлеченными, когда используют ИИ для сравнения местных ресторанов. Но когда они проводят исследования, которые будут информировать важные бизнес-решения или проектирование самолетов или медицинского оборудования, например, пользователям необходимо быть более вовлеченными на каждом этапе процесса исследований, управляемого ИИ. Чем важнее решение, тем важнее, чтобы люди были частью этого. Исследования для относительно небольших решений, вероятно, могут быть полностью доверены ИИ.

ИИ становится лучше все время – даже без помощи человека. Возможно, если не вероятно, что появятся инструменты ИИ, которые смогут проверять себя, проверяя свои результаты против реального мира таким же образом, как и человек – либо сделав мир гораздо лучше, или уничтожив его. Но инструменты ИИ могут не достичь этого уровня так скоро, как многие считают, или вообще. Это означает, что человеческий фактор по-прежнему будет иметь важное значение в любом исследовательском проекте. Как хороши инструменты ИИ в обнаружении данных и организации информации, они не могут быть доверены для оценки контекста и использования этой информации таким образом, каким мы, как люди, нуждаемся. В ближайшем будущем важно, чтобы исследователи рассматривали инструменты ИИ за то, что они есть; инструменты, которые помогают выполнить работу, а не что-то, что заменяет людей и человеческий мозг на работе.

Roee Barak является основателем и генеральным директором Upword. Он изучал право и бизнес-администрирование в Университете Рейхмана и провел десятилетие на различных должностях в технологическом секторе Израиля, прежде чем основать Upword.