Лидеры мысли
ИИ и борьба с технофобией
Когда дело доходит до генеративного ИИ и больших языковых моделей, таких как ChatGPT. Энтузиазм ИИ смешивается с технофобией. Это естественно для широкой публики: они любят новые захватывающие вещи, но боятся неизвестного. Новым является то, что несколько выдающихся ученых сами стали техноскептиками, если не технофобами. Такими примерами являются случай с учеными и промышленниками, требующими шестимесячного запрета на исследования ИИ, или скептицизм ведущего ученого в области ИИ профессора А. Хинтона. Единственный близкий исторический эквивалент, который я могу припомнить, — это критика атомных и ядерных бомб со стороны части научного сообщества во время холодной войны. К счастью, человечеству удалось решить эти проблемы довольно удовлетворительным образом.
Конечно, у каждого есть право задать вопрос о текущем состоянии дел с ИИ:
- Никто не знает, почему модели больших языков работают так хорошо и есть ли у них ограничения.
- Многие опасности, связанные с тем, что плохие парни создают «бомбы с искусственным интеллектом», скрываются, особенно если государства остаются пассивными наблюдателями с точки зрения правил.
Это законные опасения, которые подпитывают страх перед неизвестным даже у выдающихся ученых. Ведь они сами люди.
Однако могут ли исследования ИИ приостановиться хотя бы на время? На мой взгляд, нет, поскольку ИИ — это ответ человечества на постоянно возрастающую сложность глобального общества и физического мира. Поскольку процессы увеличения физической и социальной сложности очень глубоки и кажутся неумолимыми, ИИ и трансформация граждан — наша единственная надежда на плавный переход от нынешнего информационного общества к обществу знаний. В противном случае мы можем столкнуться с катастрофическим социальным взрывом.
Решение состоит в том, чтобы углубить наше понимание достижений ИИ, ускорить его разработку, отрегулировать его использование, чтобы максимизировать его положительное влияние, сводя при этом к минимуму уже очевидные и другие скрытые негативные эффекты. Исследования ИИ могут и должны стать другими: более открытыми, демократичными, научными и этичными. Вот предлагаемый список пунктов с этой целью:
- Первое слово по важным вопросам исследований ИИ, которые имеют далеко идущие социальные последствия, должно быть делегировано избранным парламентам и правительствам, а не корпорациям или отдельным ученым.
- Следует приложить все усилия, чтобы облегчить изучение положительных аспектов ИИ в социальном и финансовом прогрессе и свести к минимуму его отрицательные аспекты.
- Положительное влияние систем ИИ может значительно перевесить их отрицательные стороны, если будут приняты надлежащие регулирующие меры. Технофобия не оправдана и не является решением.
- На мой взгляд, самая большая текущая угроза исходит из того факта, что такие системы ИИ могут удаленно обманывать слишком многих простолюдинов, которые имеют низкое (или среднее) образование и/или небольшие способности к расследованию. Это может быть чрезвычайно опасно для демократии и любой формы социально-экономического прогресса.
- В ближайшем будущем мы должны противостоять большой угрозе, исходящей от использования LLM и/или CAN в незаконных действиях (списывание на университетских экзаменах является довольно безобидным использованием в пространстве связанных с этим преступных возможностей).
- Их влияние на рынок труда и рынки будет очень положительным в среднесрочной перспективе.
- Ввиду вышеизложенного системы ИИ должны: а) в соответствии с международным законодательством должны быть зарегистрированы в «реестре систем ИИ» и б) уведомлять своих пользователей о том, что они взаимодействуют с системой ИИ или используют ее результаты.
- Поскольку системы ИИ оказывают огромное влияние на общество, а также для максимизации выгод и социально-экономического прогресса, передовые ключевые технологии систем ИИ должны стать открытыми.
- Данные, связанные с ИИ, должны быть (хотя бы частично) демократизированы, опять же в целях максимизации выгоды и социально-экономического прогресса.
- Для чемпионов технологий ИИ должны быть предусмотрены надлежащие надежные схемы финансовой компенсации, чтобы компенсировать любую потерю прибыли из-за вышеупомянутой открытости и обеспечить значительные будущие инвестиции в исследования и разработки ИИ (например, посредством патентования технологий, схем обязательного лицензирования).
- Баланс исследований в области ИИ между академическими кругами и промышленностью должен быть переосмыслен, чтобы максимизировать результаты исследований, сохраняя при этом конкурентоспособность и предоставляя вознаграждение за взятые на себя риски НИОКР.
- Необходимо пересмотреть методы обучения на всех уровнях образования, чтобы максимально использовать преимущества технологий ИИ, создавая при этом новое поколение творческих и адаптируемых граждан и (ИИ) ученых.
- Для обеспечения вышеперечисленного должны быть созданы и усилены надлежащие механизмы регулирования/надзора/финансирования ИИ.
Несколько таких моментов подробно рассматриваются в моей недавней 4-томной книге «Наука ИИ и общество», особенно в томах A (переписанных в мае 2023 года для охвата LLM и общего искусственного интеллекта) и C.
Ссылки на книги: