стуб Да ли је традиционално машинско учење и даље релевантно? - Уните.АИ
Повежите се са нама

Вештачка интелигенција

Да ли је традиционално машинско учење и даље релевантно?

mm

објављен

 on

Да ли је традиционално машинско учење и даље релевантно?

Последњих година, Генеративна АИ је показала обећавајуће резултате у решавању сложених АИ задатака. Модерни АИ модели попут ЦхатГПТ, бард, ЛЛаМА, ДАЛЛ-Е.3, и САМ су показали изузетне способности у решавању мултидисциплинарних проблема као што су визуелно одговарање на питања, сегментација, резоновање и генерисање садржаја.

Штавише, Мултимодал АИ појавиле су се технике, способне за обраду вишеструких модалитета података, тј. текста, слика, аудио и видео записа истовремено. Са овим напретком, природно је да се запитамо: Да ли се приближавамо крају традиционално машинско учење (МЛ)?

У овом чланку ћемо погледати стање традиционалног пејзажа машинског учења у вези са модерним генеративним АИ иновацијама.

Шта је традиционално машинско учење? – Која су његова ограничења?

Традиционално машинско учење је широк појам који покрива широк спектар алгоритама првенствено вођених статистиком. Два главна типа традиционалних МЛ алгоритама су под надзором и без надзора. Ови алгоритми су дизајнирани да развијају моделе из структурираних скупова података.

Стандардни традиционални алгоритми машинског учења укључују:

  • Алгоритми регресије као што су линеарни, ласо и гребен.
  • К-значи груписање.
  • Анализа главних компоненти (ПЦА).
  • Подршка векторским машинама (СВМ).
  • Алгоритми засновани на дрвету као што су стабла одлучивања и случајна шума.
  • Модели појачања као што су појачавање градијента и КСГБоост.

Ограничења традиционалног машинског учења

Традиционални МЛ има следећа ограничења:

  1. Ограничена скалабилност: Овим моделима је често потребна помоћ за скалирање са великим и разноврсним скуповима података.
  2. Претходна обрада података и инжењеринг функција: Традиционални МЛ захтева опсежну претходну обраду да би се скупови података трансформисали према захтевима модела. Такође, инжењеринг карактеристика може бити дуготрајан и захтева вишеструке итерације да би се ухватиле сложене везе између карактеристика података.
  3. Високодимензионални и неструктурирани подаци: Традиционални МЛ се бори са сложеним типовима података као што су слике, аудио, видео записи и документи.
  4. Прилагодљивост на невидљиве податке: Ови модели се можда неће добро прилагодити подацима из стварног света који нису били део њихових подаци о обуци.

Неурална мрежа: Прелазак са машинског учења на дубоко учење и даље

Неурална мрежа: Прелазак са машинског учења на дубоко учење и даље

Модели неуронских мрежа (НН) су далеко компликованији од традиционалних модела машинског учења. Најједноставнији НН – Вишеслојни перцептрон (МЛП) састоји се од неколико неурона повезаних заједно да разумеју информације и извршавају задатке, слично као што функционише људски мозак.

Напредак у техникама неуронских мрежа формирао је основу за прелазак са машинско учење до дубоког учења. На пример, НН који се користи за задатке компјутерског вида (детекција објеката и сегментација слике) се позивају конволуционе неуронске мреже (ЦНН), као што су АлекНет, РесНет, и ИОЛО.

Данас, генеративна АИ технологија води технике неуронске мреже корак даље, омогућавајући јој да се истакне у различитим доменима АИ. На пример, неуронске мреже које се користе за задатке обраде природног језика (као што су сумирање текста, одговарање на питања и превођење) познате су као трансформатори. Истакнути модели трансформатора укључују БЕРТ, РУЦЕНТЕР-КСНУМКС, и T5. Ови модели стварају утицај на индустрије у распону од здравствене заштите, малопродаје, маркетинга, финансирати, Итд

Да ли су нам и даље потребни традиционални алгоритми машинског учења?

Да ли су нам и даље потребни традиционални алгоритми машинског учења?

Док су неуронске мреже и њихове модерне варијанте попут трансформатора добиле велику пажњу, традиционалне методе МЛ и даље су кључне. Хајде да погледамо зашто су још увек релевантни.

1. Једноставнији захтеви за податке

Неуронске мреже захтевају велике скупове података за обуку, док МЛ модели могу постићи значајне резултате са мањим и једноставнијим скуповима података. Дакле, МЛ је фаворизован у односу на дубоко учење за мање структуриране скупове података и обрнуто.

2. Једноставност и интерпретабилност

Традиционални модели машинског учења су изграђени на једноставнијим статистичким моделима и моделима вероватноће. На пример, линија која најбоље одговара линеарна регресија успоставља однос улаз-излаз користећи метод најмањих квадрата, статистичку операцију.

Слично, стабла одлучивања користе вероватноће принципе за класификацију података. Употреба оваквих принципа нуди могућност тумачења и олакшава практичарима вештачке интелигенције да разумеју рад алгоритама МЛ.

Модерне НН архитектуре као што су трансформаторски и дифузиони модели (обично се користе за генерисање слика као што је Стабле Диффусион or Мидјоурнеи) имају сложену вишеслојну мрежну структуру. Разумевање таквих мрежа захтева разумевање напредних математичких концепата. Због тога се називају и „црне кутије“.

3. Ефикасност ресурса

Модерне неуронске мреже као што су модели великих језика (ЛЛМ) обучавају се на кластерима скупих ГПУ-а према њиховим рачунарским захтевима. На пример, ГПТ4 је наводно обучен 25000 Нвидиа ГПУ-а за 90 до 100 дана.

Међутим, скуп хардвер и дуго време обуке нису изводљиви за сваког практичара или АИ тим. С друге стране, рачунарска ефикасност традиционалних алгоритама машинског учења омогућава практичарима да постигну значајне резултате чак и са ограниченим ресурсима.

4. Није за све проблеме потребно дубоко учење

Дееп Леарнинг није апсолутно решење за све проблеме. Постоје одређени сценарији у којима МЛ надмашује дубоко учење.

На пример, у медицинска дијагноза и прогноза са ограниченим подацима, МЛ алгоритам за откривање аномалија као што РЕМЕД даје боље резултате од дубоког учења. Слично томе, традиционално машинско учење је значајно у сценаријима са ниским рачунарским капацитетом као а флексибилно и ефикасно решење.

Првенствено, избор најбољег модела за било који проблем зависи од потреба организације или практичара и природе проблема.

Машинско учење у 2023

Машинско учење у 2023

Слика генерисана помоћу Леонардо АИ

У 2023. традиционално машинско учење наставља да се развија и такмичи се са дубоким учењем и генеративном вештачком интелигенцијом. Има неколико употреба у индустрији, посебно када се ради са структурираним скуповима података.

На пример, многи Брза потрошна роба (ФМЦГ) компаније се баве великим бројем табеларних података ослањајући се на МЛ алгоритме за критичне задатке као што су персонализоване препоруке производа, оптимизација цена, управљање залихама и оптимизација ланца снабдевања.

Даље, многи визија и језички модели и даље се заснивају на традиционалним техникама, нудећи решења у хибридним приступима и новим апликацијама. На пример, недавна студија под називом „Да ли су нам заиста потребни модели дубоког учења за предвиђање временских серија?” је расправљао о томе како су стабла регресије за повећање градијента (ГБРТ) ефикаснија за предвиђање временских серија него дубоке неуронске мреже.

Интерпретабилност МЛ-а остаје веома вредна са техникама као што су СХАП (Шеплијева објашњења адитива) и ЛИМЕ (Локална интерпретабилна модел-агностичка објашњења). Ове технике објашњавају сложене моделе МЛ-а и пружају увид у њихова предвиђања, помажући тако практичарима МЛ-а да још боље разумеју своје моделе.

Коначно, традиционално машинско учење остаје робусно решење за различите индустрије које се баве скалабилности, сложеношћу података и ограничењима ресурса. Ови алгоритми су незаменљиви за анализу података и предиктивно моделирање и наставиће да буду део арсенал научника података.

Ако вас овакве теме заинтригирају, истражите Уните АИ за даље увиде.