кочан Как AI на Facebook разпространява дезинформация и заплашва демокрацията - Unite.AI
Свържете се с нас

Лидери на мисълта

Как AI на Facebook разпространява дезинформация и заплашва демокрацията

mm
Обновено on

Дан Тънкеланг, който ръководи изследванията на AI в LinkedIn, заяви: „В момента, в който препоръките имат силата да влияят върху решенията, те се превръщат в мишена за спамери, измамници и други хора с не толкова благородни мотиви.“

Това е затруднението, което компаниите за социални медии като Facebook изпитват. Facebook използва имплицитна обратна връзка за проследяване на кликвания, показвания и други измерими потребителски поведения. Това се използва за проектиране на това, което се идентифицира като „двигател за препоръки“, AI система, която има крайната власт да решава кой какво съдържание вижда и кога.

Facebook оптимизира своя механизъм за препоръчване, за да увеличи максимално ангажираността на потребителите, което се измерва с времето, прекарано в платформата на Facebook. Максимизирането на времето има приоритет пред всяка друга променлива, включително качеството или точността на това, което се препоръчва.

Системата е проектирана да възнаграждава сензационните заглавия, които ангажират потребителите чрез използване на когнитивни пристрастия, дори ако тези заглавия са написани от руски тролове с намерението да разделят обществото или да променят политическите избори.

Как Facebook използва AI

Липсва осведоменост за това как Facebook използва AI, за да решава какво виждат и с какво взаимодействат потребителите му. Първо трябва да се разбере какво е пристрастие към потвърждението. Psychology Today описва това като:

Пристрастието към потвърждение е тенденцията да се търси, тълкува, предпочита и припомня информация по начин, който потвърждава или подкрепя нечии предишни вярвания или ценности.

Facebook разбира, че потребителите са по-склонни да кликват върху новини, което се вписва в човешката склонност да търсят пристрастия към потвърждение. Това създава опасен прецедент както за разпространението на теории на конспирацията, така и за създаването на ехо камери, където потребителите се хранят изключително с това, което искат да видят, независимо от точността или общественото въздействие на това, което се вижда.

A проучване на MIT успя да демонстрира, че фалшивите новини в Twitter се разпространяват 6 пъти по-бързо от истинските.

Това означава, че и Twitter, и Facebook могат да бъдат въоръжени. Докато Twitter позволява на всеки умишлено следват емисии с тесни или предубедени гледни точки, Facebook прави това една крачка напред. Потребителят във Facebook в момента няма начин да контролира или измерва това, което се вижда, това се контролира изцяло от механизма за препоръчване на Facebook, как измерва ангажираността на потребителите и как оптимизира за същата тази ангажираност на потребителите.

Facebook се опитва да оформи и предвиди желанията на своите потребители. Facebook оценява до каква степен потребителят ще хареса или не хареса новина, която все още не е изпитана от потребителя. За да избегне загуба на ангажираност на потребителите, Facebook след това избира да заобиколи новинарските елементи, които могат да намалят нивото на ангажираност, и избира вместо това да ангажира потребителя чрез подаване на новини, което захранва пристрастията на потвърждението, осигурявайки повече кликвания, коментари, харесвания и акции.

Facebook също така използва автоматизирано съвместно филтриране на исторически потребителски действия и мнения, за да съпостави автоматично участници (приятели) с подобни мнения. Facebook използва помощна функция, която автоматично и математически прогнозира и класира вашите предпочитания за елементи, които искате да видите.

Това кара потребителите да попадат в заешка дупка, попадат в капана на фалшиви новини, захранвани са със съдържание, което засилва пристрастията им. Съдържанието, което се представя, по същество е проектирано с цел да повлияе върху това, върху което щраквате. В края на краищата, ако вярвате в конспирацията, че Бил Гейтс се опитва да микрочипира човешката популация с помощта на ваксини, защо трябва Facebook да ви представя противоречиви доказателства, които могат да ви накарат да се откажете от платформата? Ако подкрепяте определен политически кандидат, защо Facebook трябва да предлага новини, които могат да противоречат на положителните ви възгледи за същия този кандидат?

Сякаш това не е достатъчно, Facebook също така ангажира това, което е известно като „социално доказателство“. Социалното доказателство е концепцията, че хората ще следват действията на масите. Идеята е, че тъй като толкова много други хора се държат по определен начин, това трябва да е правилното поведение.

Facebook предоставя това социално доказателство в контекста на харесвания, коментари или споделяния. Тъй като само определени приятели могат да видят елемента от новинарския канал (освен ако не търсят конкретно в информационния канал на потребителя), социалното доказателство просто служи за засилване на пристрастието към потвърждението.

Facebook също използва филтърни мехурчета за ограничаване на излагането на противоречиви, противоречиви и/или предизвикателни гледни точки.

Facebook Ads

Нищо неподозиращите потребители на Facebook може да са щракване върху реклами, без да сте наясно че им се представят реклами. Причината за това е проста, ако има реклама, само първият човек, който е представен с рекламата, ще види отказа от отговорност за рекламата. Ако този потребител сподели рекламата, всички в неговия списък с приятели просто виждат „споделянето“ като елемент от емисия новини, тъй като Facebook умишлено премахва отказа от отговорност за рекламата. Незабавно потребителите свалят гарда, не са в състояние да направят разлика между това, което е реклама, и това, което би се появило органично в техния канал за новини.

Facebook споделяния

За съжаление нещата се влошават. Ако даден потребител има 1000 приятели, които едновременно споделят съдържание, механизмът за препоръчване ще даде приоритет на съдържание от малцинството, които споделят същите възгледи, дори ако те често се състоят от недоказани теории на конспирацията. След това потребителят ще бъде в илюзията, че тези новинарски елементи се виждат от всички. Като се ангажират с този канал за новини, тези потребители взаимно оптимизират социалното доказателство.

Ако потребител се опита да просвети друг потребител относно подвеждащ или фалшив артикул, самият акт на коментиране или ангажиране с новинарския канал просто увеличава първоначалното време за ангажиране на потребителите. Тази верига за обратна връзка кара Facebook да засили ангажирането на този потребител с допълнителни фалшиви новини.

Това причинява ехо камера, филтърен балон, където потребителят е обучен да вярва само на това, което вижда. Истината е просто илюзия.

Сериозност на проблема

Над 10 милиона души ангажирани с новинарски канал твърдейки, че папа Франциск се е обявил в подкрепа на избирането на Тръмп през 2016 г. Нямаше доказателства за това, това беше просто фалшива новина, която дойде от Русия, но това беше най-споделяната новина във Facebook през трите водещи месеца до изборите през 2016 г.

Новината е генерирана от руска ферма за тролове, която нарича себе си „Агенция за интернет изследвания“. Същата тази организация беше отговорна за популяризирането и споделянето в Twitter и Facebook на статии за надпревара, в полза на демонизирането на животите на чернокожите има значение и за оръжието на фалшиви новини, разпространяващи неверни твърдения за американски политици.

Специалната комисия по разузнаването публикува ан Доклад от 85 страници с подробности за кампаниите и намесата на руските активни мерки, по-голямата част от които включваха разпространение на раздразнителни фалшиви новини и пропаганда, която имаше единственото намерение да повлияе на изборите в САЩ през 2016 г.

Бързо напред към изборите през 2020 г. и проблемът само се задълбочи. През септември 2020 г. след сигнал на ФБР във Facebook и Twitter закрити акаунти в социалните медии за новинарска организация под името PeaceData, която е свързана с усилията на руската държавна пропаганда.

За съжаление затварянето на акаунти е временно и неефективно решение. Руските акаунти често са под формата на покани за приятелство, често отвратени от жени с привлекателни профили, насочени към мъже, или пък с отвлечени потребителски акаунти с история на редовни публикации. Тези отвлечени акаунти бавно се пренасочват към по-политически постове, докато не бъдат доминирани от пропаганда или теории на конспирацията.

Нищо неподозиращият потребител може да не знае, че акаунт на приятел е бил компрометиран. Ако този потребител е уязвим към теории на конспирацията, той може да се включи във фалшивия елемент от новинарския канал, руският трол, който често е бот, след това предоставя допълнително социално доказателство под формата на харесвания или коментари.

Уязвимите потребители често са тези, които най-малко разбират как работят технологиите и AI. Демографската група над 65 години, която е най-вероятно да гласува, също е най-вероятно да разпространява фалшиви новини, тъй като съобщава New York Times.

Според проучването потребителите на Facebook на възраст 65 и повече години са публикували седем пъти повече статии от уебсайтове с фалшиви новини, отколкото възрастни на 29 и по-млади години. Липсата на дигитална медийна грамотност прави тази възрастова група неподготвена за новинарски канал, който не се основава на факти или на точност, а изключително на ангажираност на потребителите.

Лошите актьори се възползват от механизма за препоръчване на Facebook, който използва нашите когнитивни пристрастия срещу нас. Същите тези организации са оптимизирали злоупотребата с AI на Facebook, за да разпространяват теории на конспирацията и пропаганда. Теориите на конспирацията, които може да изглеждат невинни в началото, често се използват като фуния към превъзходството на бялата раса, крайно десния национализъм или QAnon странна теория на конспирацията, включваща Тръмп, който се опитва да спаси света от либералните педофили, конспирация, която няма нулева основа в реалността.

Oбобщение

Facebook ясно осъзнават, че има проблем и го правят публично обяви стратегия който се фокусира върху премахването на съдържание, което нарушава стандартите на общността на Facebook. Проблемът е, че изтриването на акаунти е временна временна мярка, която е неефективна, когато акаунтите се генерират масово от ботове или масовото хакване на потребителски акаунти. Това също не решава проблема, че по-голямата част от споделянето е от редовни потребители, които не знаят, че разпространяват дезинформация.

Добавянето на предупредителни етикети просто служи за укрепване на теориите на конспирацията, че гигантите на социалните медии са предубедени срещу консерваторите, които са най- податливи на фалшиви новини.

Решението трябва да бъде нов двигател за препоръчване, който измерва не само ангажираността на потребителите, но е оптимизиран за щастието на потребителите, като предоставя истина и насърчава подобрено самосъзнание.

Междувременно Facebook трябва да следва пътя, който Twitter предприе забрана на политически реклами.

И накрая, трябва да се зададе един важен въпрос. Ако хората вече нямат избор по отношение на новините, които гледат, кога те престават да бъдат препоръка и кога се превръщат в контрол на ума?

Препоръчителни Четене:

Руските активни мерки, кампании и намеса – Доклад на специалната комисия по разузнаването на Сената на Съединените щати.

Шокиращият документ, предсказващ края на демокрацията - От Рик Шенкман, основател на History News Network на университета Джордж Вашингтон.

Възрастните хора споделят фалшиви новини във Facebook Още – От New York Times

Основател на unite.AI и член на Технологичен съвет на Forbes, Антоан е а футурист който е страстен за бъдещето на AI и роботиката.

Той е и основател на Ценни книжа.io, уебсайт, който се фокусира върху инвестирането в революционни технологии.