Лидеры мысли
Дело не в том, что ИИ может сделать для нас, а в том, что мы можем сделать для ИИ

Большинство рассматривает искусственный интеллект (ИИ) через одностороннюю линзу. Технология существует только для того, чтобы служить людям и достигать новых уровней эффективности, точности и производительности. Но что, если мы упускаем половину уравнения? И что, если, делая так, мы только усиливаем недостатки технологии?
ИИ находится в зачаточном состоянии и все еще сталкивается со значительными ограничениями в рассуждениях, качестве данных и понимании таких концепций, как доверие, ценность и стимулы. Разрыв между текущими возможностями и настоящим «интеллектом» существенен. Хорошие новости? Мы можем изменить это, став активными соавторами, а не пассивными потребителями ИИ.
Люди держат ключ к интеллектуальной эволюции, предоставляя лучшие структуры рассуждений, предоставляя качественные данные и преодолевая разрыв доверия. В результате человек и машина могут работать бок о бок для обоюдной выгоды – с лучшим сотрудничеством, генерирующим лучшие данные и лучшие результаты.
Давайте рассмотрим, как могли бы выглядеть более симбиотические отношения и как осмысленное сотрудничество партнеров может принести пользу обеим сторонам уравнения ИИ.
Требуемые отношения между человеком и машиной
ИИ, несомненно, отлично справляется с анализом огромных наборов данных и автоматизацией сложных задач. Однако технология по-прежнему принципиально ограничена в мышлении, подобном нашему. Во-первых, эти модели и платформы испытывают трудности с рассуждениями за пределами своих обучающих данных. Распознавание образов и статистическое прогнозирование не представляют проблем, но контекстуальные суждения и логические структуры, которые мы принимаем как должное, сложнее воспроизвести. Этот разрыв в рассуждениях означает, что ИИ часто дает сбой, сталкиваясь с нюансированными сценариями или этическими суждениями.
Во-вторых, качество данных «мусор на входе, мусор на выходе». Текущие модели обучаются на огромных массивах информации с согласия и без него. Непроверенная или предвзятая информация используется независимо от надлежащей атрибуции или разрешения, что приводит к непроверенный или предвзятый ИИ, "диета данных” моделей, таким образом, в лучшем случае сомнительна, а в худшем — разрозненна. Полезно подумать об этом влиянии в терминах питания. Если люди едят только вредную пищу, мы медлительны и вялы. Если агенты потребляют только авторские права и подержанные материалы, их производительность также затруднена неточным, ненадежным и общим, а не конкретным выводом. До этого еще далеко. автономное и проактивное принятие решений, обещанное в грядущей волне агентов.
Критически важно, что ИИ по-прежнему слеп к тому, с кем и с чем он взаимодействует. Он не может отличить согласованных и несогласованных пользователей, испытывает трудности с проверкой отношений и не понимает такие концепции, как доверие, обмен ценностями и стимулы заинтересованных сторон — основные элементы, которые управляют человеческими взаимодействиями.
Проблемы ИИ с человеческими решениями
Нам нужно подумать о платформах, инструментах и агентах ИИ меньше как слуги и многое другое в качестве помощников, которых мы можем помочь обучить. Для начала давайте рассмотрим рассуждения. Мы можем ввести новые логические рамки, этические принципы и стратегическое мышление, которые системы ИИ не могут развить в одиночку. Благодаря продуманным подсказкам и тщательному надзору мы можем дополнить статистические сильные стороны ИИ человеческой мудростью — научить их распознавать закономерности и понимать контексты, которые делают эти закономерности значимыми.
Аналогичным образом, вместо того, чтобы позволять ИИ обучаться на любой информации, которую он может почерпнуть из Интернета, люди могут создавать более качественные наборы данных, которые проверены, разнообразны и получены из этичных источников.
Это означает разработку более совершенных систем атрибуции, в которых создатели контента получают признание и вознаграждение за свой вклад в обучение.
Новые фреймворки делают это возможным. объединение онлайн-идентичностей под одним знаменем и решая, будут ли они готовы делиться и чем именно, пользователи могут снабдить модели информацией нулевой стороны, которая уважает конфиденциальность, согласие и правила. Еще лучше, отслеживая эту информацию в блокчейне, пользователи и создатели моделей могут видеть, откуда берется информация, и адекватно вознаграждать создателей за предоставление этой информации “новое масло.” Таким образом мы выражаем признательность пользователям за их данные и вовлекаем их в информационную революцию.
Наконец, преодоление разрыва доверия означает вооружение моделей человеческими ценностями и установками. Это означает разработку механизмов, которые распознают заинтересованные стороны, проверяют отношения и различают согласованных и несогласованных пользователей. В результате мы помогаем ИИ понять его операционный контекст — кто получает выгоду от его действий, что способствует его развитию и как ценность передается через системы, в которых он участвует.
Например, агенты, поддерживаемые инфраструктурой блокчейна, довольно хороши в этом. Они могут распознавать и расставлять приоритеты среди пользователей с продемонстрированной поддержкой экосистемы через репутацию, социальное влияние или владение токенами. Это позволяет ИИ согласовывать стимулы, придавая больший вес заинтересованным сторонам, вкладывающим средства в игру, создавая системы управления, в которых проверенные сторонники участвуют в принятии решений на основе уровня их вовлеченности. В результате ИИ глубже понимает свою экосистему и может принимать решения, основанные на реальных отношениях с заинтересованными сторонами.
Не упускайте из виду человеческий фактор в ИИ
Много было сказано о росте этой технологии и о том, как она грозит перестроить отрасли и уничтожить рабочие места. Однако, закладывая барьеры, можно гарантировать, что ИИ дополняет, а не отменяет человеческий опыт. Например, самые успешные реализации ИИ не заменяют людей, а расширяют то, чего мы можем достичь вместе. Когда ИИ занимается рутинным анализом, а люди обеспечивают творческое руководство и этический надзор, обе стороны вносят свои уникальные сильные стороны.
При правильном подходе ИИ обещает улучшить качество и эффективность бесчисленных человеческих процессов. Но при неправильном подходе он ограничен сомнительными источниками данных и только имитирует интеллект, а не отображает его как таковой. Мы, человеческая сторона уравнения, должны сделать эти модели умнее и гарантировать, что наши ценности, суждения и этика останутся в их основе.
Доверие не подлежит обсуждению, чтобы эта технология стала мейнстримом. Когда пользователи могут проверить, куда направляются их данные, увидеть, как они используются, и участвовать в создаваемой ими ценности, они становятся добровольными партнерами, а не нежелающими субъектами. Аналогично, когда системы ИИ могут использовать согласованные заинтересованные стороны и прозрачные конвейеры данных, они становятся более надежными. В свою очередь, они с большей вероятностью получат доступ к нашим самым важным частным и профессиональным пространствам, создавая маховик лучшего доступа к данным и улучшенных результатов.
Итак, направляясь к следующему этапу ИИ, давайте сосредоточимся на соединении человека и машины с проверяемыми отношениями, качественными источниками данных и точными системами. Мы должны спрашивать не о том, что ИИ может сделать для нас, а о том, что мы можем сделать для ИИ.












