Лидеры мнений
Искусственный интеллект и борьба с технофобией

Когда речь идет о генеративном ИИ и больших языковых моделях, таких как ChatGPT, энтузиазм по поводу ИИ смешивается с технофобией. Это естественно для широкой общественности: они любят новые интересные вещи, но боятся неизвестного. Новое в том, что несколько известных ученых стали самими техноскептиками, если не технофобами. Примерами являются случаи ученых и промышленников, требующих шестимесячного моратория на исследования ИИ, или скептицизм ведущего ученого ИИ профессора А. Хинтона. Единственный связанный исторический аналог, который я могу вспомнить, – это критика атомных и ядерных бомб частью научного сообщества во время холодной войны. К счастью, человечество смогло решить эти проблемы довольно удовлетворительным образом.
Конечно, каждый имеет право сомневаться в текущем состоянии дел с ИИ:
- Никто не знает, почему большие языковые модели работают так хорошо и есть ли у них предел.
- Многие опасности, которые создают «бомбы ИИ» плохие парни, подстерегают, особенно если государства остаются пассивными зрителями в плане регулирования.
Это обоснованные опасения, которые подогревают страх перед неизвестным, даже у известных ученых. Ведь они тоже люди.
Однако можно ли остановить исследования ИИ, даже временно? На мой взгляд, нет, поскольку ИИ является ответом человечества на глобальное общество и физический мир все возрастающей сложности. По мере того, как увеличиваются физическая и социальная сложность, процессы становятся очень глубокими и, казалось бы, неумолимыми, ИИ и морфоза граждан являются нашей единственной надеждой на плавный переход от нынешнего информационного общества к обществу знаний. В противном случае мы можем столкнуться с катастрофическим социальным взрывом.
Решение заключается в том, чтобы углубить наше понимание достижений ИИ, ускорить его развитие, регулировать его использование для максимизации положительного воздействия, минимизируя уже очевидные и другие скрытые негативные эффекты. Исследования ИИ могут и должны стать другими: более открытыми, демократичными, научными и этическими. Вот предлагаемый список пунктов для этого:
- Первое слово по важным вопросам исследований ИИ, имеющим далеко идущее социальное воздействие, должно быть делегировано избранным парламентам и правительствам, а не корпорациям или отдельным ученым.
- Все усилия должны быть направлены на облегчение изучения положительных аспектов ИИ в социальном и финансовом прогрессе и на минимизацию его негативных аспектов.
- Положительное воздействие систем ИИ может намного превосходить их негативные аспекты, если принять надлежащие регулирующие меры. Технофобия не оправдана и не является решением.
- На мой взгляд, самой большой текущей угрозой является тот факт, что такие системы ИИ могут удаленно обманывать слишком многих простых людей, имеющих мало (или среднее) образование и/или мало исследовательской способности. Это может быть чрезвычайно опасно для демократии и любого вида социально-экономического прогресса.
- В ближайшем будущем мы должны противостоять большой угрозе, исходящей от LLM и/или CAN, используемых в незаконных hoạtностях (обман на университетских экзаменах – это довольно безобидное использование в пространстве связанных возможностей).
- Их воздействие на труд и рынки будет очень положительным, в средне- и долгосрочной перспективе.
- В свете вышесказанного системы ИИ должны: а) быть обязаны международным законом регистрироваться в реестре систем ИИ, и б) уведомлять своих пользователей, что они ведут разговор или используют результаты системы ИИ.
- Поскольку системы ИИ имеют огромное социальное воздействие, и для максимизации выгоды и социально-экономического прогресса, передовые ключевые технологии систем ИИ должны стать открытыми.
- Данные, связанные с ИИ, должны быть (по крайней мере частично) демократизированы, опять же для максимизации выгоды и социально-экономического прогресса.
- Необходимо предусмотреть надлежащие сильные финансовые компенсационные схемы для чемпионов технологий ИИ, чтобы компенсировать любые потери прибыли из-за вышеупомянутой открытости и обеспечить сильные будущие инвестиции в исследования и разработки ИИ (например, через патентование технологий, обязательные лицензионные схемы).
- Баланс исследований ИИ между академией и промышленностью должен быть пересмотрен для максимизации результатов исследований, сохраняя при этом конкурентоспособность и вознаграждая риски, принятые на себя в исследованиях и разработках.
- Практики образования должны быть пересмотрены на всех уровнях образования, чтобы максимизировать выгоду из технологий ИИ, создавая при этом новый вид творческих и адаптируемых граждан и (ИИ) ученых.
- Необходимо создать и укрепить надлежащие механизмы регулирования/надзора/финансирования ИИ, чтобы обеспечить вышесказанное.
Несколько таких пунктов рассматриваются подробно в моей недавней 4-томной книге «Наука и общество ИИ», особенно в томах A (переписанной в мае 2023 года для освещения LLM и искусственного общего интеллекта) и C.
Ссылки на книгу:
Искусственный интеллект Наука и общество Часть A: Введение в науку ИИ и информационные технологии
Искусственный интеллект Наука и общество Часть C: Наука ИИ и общество












