Connect with us

Facebook bruger bots og simulationer til at forsøge at modvirke dårligt brugeradfærd

Kunstig intelligens

Facebook bruger bots og simulationer til at forsøge at modvirke dårligt brugeradfærd

mm

Facebook har designede en ny AI, der skal kunne détectere skadelig, skadende og ulovlig adfærd bedre. Som The Verge rapporterer, har forskerne på Facebooks London AI-afdeling oprettet en AI-dreven Facebook-simulator kaldet “WW”, som bruges til at simulere adfærden hos svindlere, ulovlige varehandlende, spammere og andre dårlige aktører på en simuleret version af Facebook selv.

Facebook-simulatoren “WW”, der tager sit navn fra en forkortelse af “WWW”, blev afsløret af Facebook i en artikel offentliggjort i april dette år. WW er en klonet, indhegnet version af Facebook, der er designet til at hjælpe med testningen af forskellige Facebook-værktøjer og algoritmer.

Selskabet har for nylig afsløret flere detaljer om nogle af sine brug af WW, herunder simulationen af dårlige aktører gennem AI. Ved at bruge en række bots til at simulere adfærd som svindel, spam, chikane og mere, håber forskerne, at de kan détectere og modvirke skadelig adfærd hos brugere bedre.

Ifølge Facebook-ingeniør Mark Harman, som citeres af The Verge, forventes det, at WW vil være et værdifuldt værktøj til at begrænse forskellige skadelige adfærder på Facebook. For eksempel mener Harman, at simulationerne kan bruges til at udvikle bedre metoder til at détectere svindlere.

Facebook-ingeniørerne efterlignede adfærden hos rigtige Facebook-svindlere ved at oprette to grupper af bots: en gruppe mål og en gruppe svindlere. Svindlere søger ofte gennem netværk af venner og udforsker vennerne til brugere for at finde en potentiel mål. Denne adfærd blev efterlignet af svindler-bots, da ingeniørerne eksperimenterede med forskellige metoder til at forhindre, at den uskyldige bot blev snydt. De taktikker, de eksperimenterede med, omfattede flere begrænsninger, såsom at begrænse, hvor mange private meddelelser en bot kunne sende pr. minut.

Der er flere måder, som den simulerede Facebook adskiller sig fra den rigtige. For det første indeholder simulationen af Facebook ikke visuelle elementer, så data, der er afledt fra simulationen, er alle i form af numeriske data og statistik over interaktioner mellem bots. For det andet er alle aktører i simulationen bots, der ikke kan interagere med rigtige brugere. WW-simulationen kan heller ikke tage hensyn til ting som brugerens hensigt eller indholdet af en given samtale, da kun handlingerne med at sende meddelelser, lave kommentarer osv. simuleres.

Ifølge Harman er denne proces med at eksperimentere med begrænsninger lignende med, at byplanlæggere forsøger at reducere hastigheden på visse veje ved at lægge “fartbump” ned. Ligesom en byplanlægger ville eksperimentere med at oprette fartbump og derefter indsamle data om deres nytte, analyserede ingeniørerne, hvordan meddelelser og interaktioner mellem bots varierede i deres simulator, da de varierede parametre og begrænsninger. Harman forklarer, at målet er at få en idé om, hvilke ændringer der kan gøres på Facebooks platform for at inhibere skadelig adfærd uden at begrænse normal adfærd eller den frie strøm af trafik.

Harman forklarer også, at fordelene ved at bruge WW til deres simulationer er, at handlingerne, de studerer, foregår på rigtig Facebook-infrastruktur, hvilket giver dem en langt bedre idé om, hvordan deres foreslåede ændringer kan påvirke rigtige Facebook-brugere. Enhver anvendelse af disse resultater må vente en periode, da WW og dens simulation kun er i forskningsstadiet. Harman og andre Facebook-forskere vil ikke anvende deres resultater på den live-version af Facebook endnu, da der stadig er meget arbejde tilbage. Forskningsgruppen skal fastslå, at de simulationer, de opretter, matcher rigtig menneskelig adfærd tilstrækkeligt.

Det primære fordel ved WW, ifølge Harman, er dets evne til at operere på en massiv skala, der giver Facebook-forskere mulighed for at kontrollere de potentielle konsekvenser af tusindvis af små ændringer gennem simulationerne, det producerer.

I fremtiden kan forskerne måske lade bot’erne blot lege og eksperimentere i en periode, for at se, hvilke slags interaktioner de kommer op med på egen hånd, hvilket ofte kan være noget, forskerne ikke selv forventer.

“Lige nu er det primære fokus på at træne bot’erne til at efterligne ting, vi ved foregår på platformen. Men i teorien og i praksis kan bot’erne gøre ting, vi ikke har set før,” sagde Harman. “Det er faktisk noget, vi ønsker, fordi vi ultimativt ønsker at komme før skadelig adfærd i stedet for at være konstant på farten.”

Hvis alt går godt, kan Facebook begynde at lave ændringer baseret på WW’s simulationer ved udgangen af 2020.

Blogger og programmør med specialer i Machine Learning og Deep Learning emner. Daniel håber at hjælpe andre med at bruge AI's kraft til sociale formål.