ИИ 101
Что такое машинное обучение?

Машинное обучение – одна из самых быстро растущих технологических областей, но несмотря на то, как часто слова “машинное обучение” используются, может быть сложно понять, что такое машинное обучение, точно.
Машинное обучение не относится к одной вещи, это термин-зонтик, который можно применить к многим разным концепциям и техникам. Понимание машинного обучения означает знакомство с различными формами анализа моделей, переменных и алгоритмов. Давайте рассмотрим машинное обучение, чтобы лучше понять, что оно охватывает.
Что такое машинное обучение?
Хотя термин машинное обучение можно применить к многим разным вещам, в общем, термин относится к ermögлению компьютеру выполнять задачи без получения явных инструкций по выполнению этого. Специалист по машинному обучению не должен писать все шаги, необходимые для решения проблемы, потому что компьютер способен “учиться”, анализируя закономерности в данных и обобщая эти закономерности для новых данных.
Системы машинного обучения имеют три основных части:
- Входные данные
- Алгоритмы
- Выходные данные
Входные данные – это данные, которые вводятся в систему машинного обучения, и входные данные можно разделить на метки и признаки. Признаки – это релевантные переменные, переменные, которые будут анализироваться для изучения закономерностей и вывода заключений. Тем временем, метки – это классы/описания, данные отдельным экземплярам данных.
Признаки и метки можно использовать в двух разных типах задач машинного обучения: обучение с учителем и обучение без учителя.
Обучение без учителя vs. обучение с учителем
В обучении с учителем входные данные сопровождаются основной истиной. Задачи обучения с учителем имеют правильные выходные значения как часть набора данных, поэтому ожидаемые классы известны заранее. Это позволяет специалисту по данным проверить производительность алгоритма, протестировав данные на тестовом наборе данных и увидев, какой процент элементов был правильно классифицирован.
Напротив, обучение без учителя не имеет меток основной истины, прикрепленных к ним. Алгоритм машинного обучения, обученный для выполнения задач обучения без учителя, должен быть способен самостоятельно вывести релевантные закономерности в данных.
Алгоритмы обучения с учителем обычно используются для задач классификации, где у вас есть большой набор данных, заполненный экземплярами, которые должны быть отсортированы в один из многих разных классов. Другой тип обучения с учителем – это задача регрессии, где значение, выдаваемое алгоритмом, является непрерывным по природе, а не категориальным.
Тем временем, алгоритмы обучения без учителя используются для задач, таких как оценка плотности, кластеризация и обучение представлениям. Эти три задачи требуют от модели машинного обучения вывести структуру данных, нет предопределенных классов, данных модели.
Давайте взглянем на некоторые из наиболее распространенных алгоритмов, используемых как в обучении без учителя, так и в обучении с учителем.
Типы обучения с учителем
Распространенные алгоритмы обучения с учителем включают:
- Наивный Байес
- Машины опорных векторов
- Логистическая регрессия
- Случайные леса
- Искусственные нейронные сети
Машины опорных векторов – это алгоритмы, которые разделяют набор данных на разные классы. Точки данных группируются в кластеры путем рисования линий, которые разделяют классы друг от друга. Точки, найденные на одной стороне линии, будут принадлежать одному классу, а точки на другой стороне линии будут другим классом. Машины опорных векторов стремятся максимизировать расстояние между линией и точками, найденными на обеих сторонах линии, и чем больше расстояние, тем более уверен классификатор, что точка принадлежит одному классу, а не другому классу.
Логистическая регрессия – это алгоритм, используемый в задачах бинарной классификации, когда точки данных необходимо классифицировать как принадлежащие одному из двух классов. Логистическая регрессия работает, помечая точку данных либо 1, либо 0. Если воспринимаемое значение точки данных составляет 0,49 или ниже, оно классифицируется как 0, а если оно составляет 0,5 или выше, оно классифицируется как 1.
Алгоритмы дерева решений работают, разделяя наборы данных на все меньшие и меньшие фрагменты. Точные критерии, используемые для разделения данных, определяются инженером-машинным обучением, но цель состоит в том, чтобы в конечном итоге разделить данные на отдельные точки данных, которые затем будут классифицированы с помощью ключа.
Алгоритм случайного леса по сути является множеством отдельных классификаторов дерева решений, связанных вместе в более мощный классификатор.
Классификатор Наивного Байеса рассчитывает вероятность того, что данная точка данных произошла на основе вероятности предыдущего события. Он основан на теореме Байеса и помещает точки данных в классы на основе их рассчитанной вероятности. При реализации классификатора Наивного Байеса предполагается, что все предикторы имеют одинаковое влияние на исход класса.
Искусственная нейронная сеть, или многослойный перцептрон, – это алгоритмы машинного обучения, вдохновленные структурой и функцией человеческого мозга. Искусственные нейронные сети получили свое название от того, что они состоят из многих узлов/нейронов, связанных вместе. Каждый нейрон манипулирует данными с помощью математической функции. В искусственных нейронных сетях есть входные слои, скрытые слои и выходные слои.
Скрытый слой нейронной сети – это место, где данные фактически интерпретируются и анализируются для закономерностей. Другими словами, это место, где алгоритм учится. Чем больше нейронов соединено вместе, тем более сложные сети способны учиться более сложным закономерностям.
Типы обучения без учителя
Алгоритмы обучения без учителя включают:
- Кластеризация K-средних
- Автокодировщики
- Анализ главных компонентов
Кластеризация K-средних – это техника не监督ируемой классификации, и она работает, разделяя точки данных на кластеры или группы на основе их признаков. Кластеризация K-средних анализирует признаки, найденные в точках данных, и различает закономерности в них, что делает точки данных, найденные в данном кластере, более похожими друг на друга, чем на кластеры, содержащие другие точки данных. Это достигается путем размещения возможных центров кластера или центроидов в графе данных и переназначения положения центроида до тех пор, пока не будет найдено положение, которое минимизирует расстояние между центроидом и точками, принадлежащими этому центроиду. Исследователь может указать желаемое количество кластеров.
Анализ главных компонентов – это техника, которая сокращает большое количество признаков/переменных до меньшего пространства признаков/меньшего количества признаков. “Главные компоненты” точек данных выбираются для сохранения, а другие признаки сжимаются до меньшего представления. Отношение между исходными данными сохраняется, но поскольку сложность точек данных проще, данные легче количественно оценить и описать.
Автокодировщики – это версии нейронных сетей, которые можно применить к задачам обучения без учителя. Автокодировщики способны принимать не помеченные, свободные данные и преобразовывать их в данные, которые нейронная сеть может использовать, по сути, создавая свои собственные помеченные обучающие данные. Цель автокодировщика – преобразовать входные данные и восстановить их как можно более точно, поэтому это в интересах сети определить, какие признаки являются наиболее важными, и извлечь их.












