Свяжитесь с нами:

Как степени магистра права заставляют нас переосмыслить понятие интеллекта

Искусственный интеллект

Как степени магистра права заставляют нас переосмыслить понятие интеллекта

mm

Есть старая поговорка: Если он похож на утку, плавает как утка и крякает как утка, то, вероятно, это утка. Этот простой способ рассуждения, часто связываемый с поэтом из Индианы Джеймсом Уиткомбом Райли, на протяжении десятилетий формировал наше представление об искусственном интеллекте. Идея о том, что поведение достаточно для определения интеллекта, вдохновила Алана Тьюринга на его знаменитую «Имитационную игру», которая теперь называется Тест Тьюринга.

Тьюринг предположил, что если человек не может определить, общается ли он с машиной или с другим человеком, то машину можно назвать разумной. И тест на утку, и тест Тьюринга предполагают, что важно не то, что находится внутри системы, а то, как она себя ведёт. Десятилетиями этот тест направлял развитие искусственного интеллекта. Но с появлением больших языковых моделей (LLM) ситуация изменилась. Эти системы могут писать беглый текст, поддерживать беседы и решать задачи способами, которые удивительно похожи на человеческие. Вопрос уже не в том, могут ли машины имитировать человеческий разговор, а в том, является ли эта имитация истинным интеллектом. Если система может писать, как мы, рассуждать, как мы, и даже творить, как мы, следует ли нам называть её разумной? Или одного поведения уже недостаточно для измерения интеллекта?

Эволюция машинного интеллекта

Большие языковые модели изменили наше представление об ИИ. Эти системы, когда-то ограниченные генерацией простых текстовых ответов, теперь могут решать логические задачи, писать компьютерный код, набрасывать сценарии и даже помогать в творческих задачах, таких как написание сценариев. Одним из ключевых достижений этого прогресса является их способность решать сложные задачи посредством пошагового рассуждения, метода, известного как Цепочка мыслей Рассуждение. Разбивая задачу на более мелкие части, LLM может решать сложные математические задачи или логические головоломки, по сути, так же, как это делает человек. Эта способность позволила им достичь уровня или даже превзойти человеческий в таких продвинутых тестах, как МАТЕМАТИКА or GSM8KСегодня LLM также обладают мультимодальные возможности. Они могут работать с изображениями, интерпретировать медицинские снимки, объяснять визуальные головоломки и описывать сложные схемы. Благодаря этим достижениям вопрос уже не в том, могут ли LLM имитировать человеческое поведение, а в том, отражает ли это поведение истинное понимание.

Следы человекоподобного мышления

Этот успех LLM меняет наше понимание интеллекта. Акцент смещается с сопоставления поведения ИИ с поведением человека, как это предполагает тест Тьюринга, на изучение того, насколько точно LLM отражают человеческое мышление в процессе обработки информации (т.е. истинно человекоподобное мышление). Например, Недавнее исследованиеИсследователи сравнили внутреннюю работу моделей ИИ с активностью человеческого мозга. Исследование показало, что модели LLM с более чем 70 миллиардами параметров не только достигают точности, сравнимой с человеческой, но и организуют информацию таким образом, чтобы она соответствовала закономерностям работы человеческого мозга.

Когда и люди, и модели искусственного интеллекта работали над задачами распознавания образов, сканирование мозга выявило схожие паттерны активности у людей и соответствующие паттерны вычислительной активности у моделей искусственного интеллекта. Модели кластеризовали абстрактные понятия во внутренних слоях таким образом, что это напрямую соответствовало активности волн человеческого мозга. Это говорит о том, что успешное рассуждение может требовать схожих организационных структур, будь то в биологических или искусственных системах.

Однако исследователи отмечают ограничения этой работы. В исследовании участвовало относительно небольшое количество людей, и люди и машины подходили к решению задач по-разному. Люди работали с визуальными образами, в то время как модели ИИ обрабатывали текстовые описания. Корреляция между обработкой информации человеком и машиной интригует, но она не доказывает, что машины понимают концепции так же, как люди.

Также наблюдаются явные различия в производительности. Хотя лучшие модели ИИ приближались к человеческому уровню точности на простых шаблонах, при выполнении самых сложных задач они демонстрировали более резкое падение производительности по сравнению с участниками-людьми. Это говорит о том, что, несмотря на сходство в организации, фундаментальные различия в том, как люди и машины обрабатывают сложные абстрактные концепции, всё же могут существовать.

Скептическая перспектива

Несмотря на эти впечатляющие результаты, есть веский аргумент в пользу того, что LLM — всего лишь очень искусный имитатор. Эта точка зрения принадлежит философу Джону Сёрлу:Китайская комната» мысленный эксперимент, иллюстрирующий, почему поведение может не равняться пониманию.

В этом мысленном эксперименте Сёрл просит нас представить человека, запертого в комнате и говорящего только по-английски. Человек получает китайские символы и использует английскую книгу правил, чтобы манипулировать этими символами и давать ответы. Со стороны его ответы выглядят точно так же, как ответы носителя китайского языка. Однако Сёрл утверждает, что этот человек ничего не понимает в китайском языке. Он просто следует правилам, не понимая их по-настоящему.

Критики применяют ту же логику к магистрам права. Они утверждают, что эти системы «…стохастические попугаи«…которые генерируют ответы, основанные на статистических закономерностях в обучающих данных, а не на истинном понимании. Термин «стохастический» указывает на их вероятностную природу, тогда как «попугай» подчёркивает их подражательное поведение без реального понимания.

Некоторые технические ограничения LLM также подтверждают этот аргумент. LLM часто генерируют «галлюцинаций“; ответы, которые выглядят правдоподобными, но совершенно неверны, вводят в заблуждение и бессмысленны. Это происходит потому, что они выбирают статистически правдоподобные слова, вместо того чтобы обратиться к внутренней базе знаний или понять истинность и ложность. Эти модели также воспроизводят ошибки и предубеждения, свойственные человеку. Их сбивает с толку нерелевантная информация, которую люди легко проигнорировали бы. Они демонстрируют расовые и гендерные стереотипы, поскольку обучались на данных, содержащих эти предубеждения. Ещё одним показательным ограничением является «позиционное смещение», когда модели чрезмерно акцентируют информацию в начале или конце длинных документов, игнорируя середину. Это “затерянный в середине» Этот феномен предполагает, что эти системы обрабатывают информацию совсем не так, как люди, которые могут удерживать внимание на протяжении всего документа.

Эти ограничения подчёркивают главную проблему: хотя магистры права (LLM) превосходно распознают и воспроизводят языковые паттерны, это не означает, что они действительно понимают смысл или реальный контекст. Они хорошо справляются с синтаксисом, но остаются ограниченными в плане семантики.

Что считается интеллектом?

В конечном счёте, спор сводится к тому, как мы определяем интеллект. Если интеллект — это способность генерировать связную речь, решать проблемы и адаптироваться к новым ситуациям, то степень магистра права (LLM) уже соответствует этому стандарту. Однако, если интеллект требует самосознания, подлинного понимания или субъективного опыта, эти системы всё ещё не дотягивают.

Проблема в том, что у нас нет чёткого и объективного способа измерения таких качеств, как понимание или сознание. И у людей, и у машин мы выводим их из поведения. Тест на утиное мясо и тест Тьюринга когда-то давали элегантные ответы, но в эпоху магистратуры права их может быть недостаточно. Их возможности заставляют нас пересмотреть то, что на самом деле считается интеллектом, и соответствуют ли наши традиционные определения технологической реальности.

Выводы

Большие языковые модели ставят под сомнение наше представление об интеллекте ИИ. Они могут имитировать рассуждения, генерировать идеи и выполнять задачи, которые когда-то считались исключительно человеческими. Однако им не хватает осознанности и обоснованности, которые формируют истинное человеческое мышление. Их развитие заставляет нас задаться вопросом не только о том, действуют ли машины разумно, но и о том, что на самом деле означает интеллект.

Доктор Техсин Зия — штатный доцент Университета COMSATS в Исламабаде, имеет докторскую степень в области искусственного интеллекта, полученную в Венском технологическом университете, Австрия. Специализируясь на искусственном интеллекте, машинном обучении, науке о данных и компьютерном зрении, он внес значительный вклад, публикуя публикации в авторитетных научных журналах. Доктор Техсин также руководил различными промышленными проектами в качестве главного исследователя и консультанта по искусственному интеллекту.