- Терминология (А до D)
- AI контрол на възможностите
- AI Ops
- албуми
- Ефективност на активите
- Автокодер
- Обратно разпространение
- Теорема на Бейс
- Голямо количество от данни
- Chatbot: Ръководство за начинаещи
- Изчислително мислене
- Компютърно зрение
- Матрица на объркването
- Конволюционни невронни мрежи
- Кибер защита
- Data Fabric
- Разказване на данни
- Science Data
- Съхранение на данни
- Дърво на решенията
- Deepfakes
- Дълбоко обучение
- Дълбоко подкрепящо обучение
- DevOps
- DevSecOps
- Дифузионни модели
- Digital Twin
- Намаляване на размерите
- Терминология (E до K)
- Edge AI
- Емоция AI
- Ансамбъл обучение
- Етичен хакерство
- ETL
- Обясним AI
- Федерално обучение
- FinOps
- Генеративен AI
- Генеративна състезателна мрежа
- Генеративно срещу дискриминационно
- Градиентно усилване
- Градиентно спускане
- Малкократно обучение
- Класификация на изображенията
- ИТ операции (ITOPs)
- Автоматизация на инциденти
- Инженеринг на влиянието
- К-средства групиране
- K-най-близки съседи
- Терминология (L до Q)
- Терминология (R до Z)
- Укрепване на обучението
- Отговорен AI
- RLHF
- Роботизирана автоматизация на процесите
- Структуриран срещу неструктуриран
- Анализ на чувството
- Надзиравани срещу ненаблюдавани
- Поддръжка на векторни машини
- Синтетични данни
- Синтетични медии
- Класификация на текста
- TinyML
- Прехвърляне на обучение
- Трансформаторни невронни мрежи
- Тест на Тюринг
- Търсене по векторно сходство
AI 101 г
Какво е теорема на Байс?
Съдържание
Ако сте учили за наука за данни или машинно обучение, има голям шанс да сте чували термин "теорема на Байс" преди или „класификатор на Байс“. Тези понятия могат да бъдат донякъде объркващи, особено ако не сте свикнали да мислите за вероятността от гледна точка на традиционната, често срещана статистика. Тази статия ще се опита да обясни принципите зад теоремата на Байс и как се използва в машинното обучение.
Какво е теорема на Байс?
Теоремата на Байс е метод на изчисляване на условна вероятност. Традиционният метод за изчисляване на условната вероятност (вероятността да се случи едно събитие при настъпване на друго събитие) е да се използва формулата за условна вероятност, като се изчислява общата вероятност за събитие едно и събитие две, които се случват по едно и също време, и след това се разделя от вероятността за настъпване на събитие две. Условната вероятност обаче може да се изчисли и по малко по-различен начин с помощта на теоремата на Байс.
Когато изчислявате условната вероятност с теоремата на Байс, използвате следните стъпки:
- Определете вероятността условие B да е вярно, като приемете, че условие A е вярно.
- Определете вероятността събитие А да е вярно.
- Умножете двете вероятности заедно.
- Разделете на вероятността събитие B да се случи.
Това означава, че формулата за теоремата на Байс може да се изрази по следния начин:
P(A|B) = P(B|A)*P(A) / P(B)
Изчисляването на условната вероятност като това е особено полезно, когато обратната условна вероятност може лесно да се изчисли или когато изчисляването на общата вероятност би било твърде предизвикателно.
Пример за теорема на Байс
Това може да бъде по-лесно за тълкуване, ако прекараме известно време в разглеждане на пример как бихте приложили байесовото разсъждение и теоремата на Бейс. Да приемем, че играете проста игра, в която множество участници ви разказват история и трябва да определите кой от участниците ви лъже. Нека попълним уравнението за теоремата на Байс с променливите в този хипотетичен сценарий.
Опитваме се да предвидим дали всеки индивид в играта лъже или казва истината, така че ако има трима играчи освен вас, категоричните променливи могат да бъдат изразени като A1, A2 и A3. Доказателството за техните лъжи/истина е тяхното поведение. Както когато играете покер, ще търсите определени „сигнали“, че човек лъже и ще ги използвате като части от информация, за да информирате вашето предположение. Или ако ви беше позволено да ги разпитвате, това би било някакво доказателство, че тяхната история не се допълва. Можем да представим доказателството, че човек лъже като Б.
За да бъдем ясни, ние се стремим да предвидим Вероятност (А лъже/казва истината|като се имат предвид доказателствата за тяхното поведение). За да направим това, бихме искали да разберем вероятността B да даде A, или вероятността тяхното поведение да се случи, като се има предвид, че човекът наистина лъже или казва истината. Опитвате се да определите при какви условия поведението, което виждате, би имало най-голям смисъл. Ако има три поведения, на които сте свидетели, бихте направили изчислението за всяко поведение. Например P(B1, B2, B3 * A). След това бихте направили това за всяко появяване на A/за всеки човек в играта, освен вас. Това е тази част от уравнението по-горе:
P(B1, B2, B3,|A) * P|A
И накрая, просто разделяме това на вероятността за B.
Ако получим някакво доказателство за действителните вероятности в това уравнение, бихме пресъздали нашия вероятностен модел, като вземем предвид новите доказателства. Това се нарича актуализиране на вашите предишни данни, тъй като актуализирате своите предположения относно предходната вероятност за възникване на наблюдаваните събития.
Приложения за машинно обучение за теоремата на Байс
Най-честата употреба на теоремата на Bayes, когато става дума за машинно обучение, е под формата на алгоритъма на Naive Bayes.
Naive Bayes се използва за класифициране както на двоични, така и на многокласови набори от данни, Naive Bayes получава името си, защото стойностите, присвоени на доказателствата/атрибутите на свидетелите – Bs в P(B1, B2, B3 * A) – се приемат за независими един на друг. Предполага се, че тези атрибути не си влияят един на друг, за да се опрости моделът и да се направят изчисленията възможни, вместо да се опитва сложната задача за изчисляване на връзките между всеки от атрибутите. Въпреки този опростен модел, Naive Bayes има тенденция да се представя доста добре като алгоритъм за класификация, дори когато това предположение вероятно не е вярно (което е през повечето време).
Също така има често използвани варианти на класификатора на Наивен Бейс като Мултиномиален Наивен Бейс, Наивен Бейс на Бернули и Наивен Байс на Гаус.
Многочленен наивен Бейс алгоритмите често се използват за класифициране на документи, тъй като са ефективни при интерпретирането на честотата на думите в документа.
Наивен Байес на Бернули работи подобно на Multinomial Naive Bayes, но прогнозите, изобразени от алгоритъма, са булеви. Това означава, че при прогнозиране на клас стойностите ще бъдат двоични, не или да. В областта на класификацията на текст алгоритъмът на Bernoulli Naive Bayes би присвоил на параметрите да или не въз основа на това дали в текстовия документ е намерена дума или не.
Ако стойността на предикторите/характеристиките не е дискретна, а вместо това е непрекъсната, Гаус наивен Байес може да се използва. Предполага се, че стойностите на непрекъснатите характеристики са взети от гаусово разпределение.
Блогър и програмист със специалности в Machine Learning намлява Дълбоко обучение теми. Даниел се надява да помогне на другите да използват силата на ИИ за социално благо.
Може да ви хареса
LoReFT: Фина настройка на представянето за езикови модели
BlackMamba: Смес от експерти за модели на състояние-пространство
От скица до платформинг: артистичният подход на Google Genie към генерирането на игри
Преосмисляне на възпроизводимостта като нова граница в изследванията на ИИ
Какво е шум при обработката на изображения? – Буквар
Уместно ли е все още традиционното машинно обучение?