Kunstmatige intelligentie
Facebook gebruikt bots en simulaties om slecht gedrag van gebruikers te proberen te counteren

Facebook heeft een nieuwe AI ontwikkeld om schadelijk, beschadigend en illegaal gedrag beter te detecteren. Zoals The Verge rapporteert, hebben onderzoekers bij Facebook’s AI-afdeling in Londen een AI-gestuurde Facebook-simulator genaamd “WW” gemaakt, die wordt gebruikt om het gedrag van oplichters, illegale productverkopers, spammers en andere slechte actoren te simuleren op een gesimuleerde versie van Facebook zelf.
De Facebook-simulator “WW”, genoemd naar een afkorting van “WWW”, werd onthuld door Facebook in een paper die in april van dit jaar werd gepubliceerd. WW is een gekloonde, geïsoleerde versie van Facebook die bedoeld is om te helpen bij het testen van verschillende Facebook-hulpmiddelen en algoritmen.
Het bedrijf heeft onlangs meer details onthuld over enkele van de toepassingen van WW, waaronder de simulatie van slechte actoren via AI. Door het gebruik van een aantal bots om gedrag te simuleren zoals oplichting, spamming, intimidatie en meer, hopen de onderzoekers dat ze in staat zullen zijn om schadelijk gedrag door gebruikers beter te detecteren en te counteren.
Volgens Facebook-engineer Mark Harman, zoals geciteerd door The Verge, wordt verwacht dat WW een waardevol hulpmiddel zal zijn om verschillende schadelijke gedragingen op Facebook te beteugelen. Zo denkt Harman dat de simulaties kunnen worden gebruikt om betere methoden te ontwikkelen voor het detecteren van oplichters.
Facebook-engineers hebben het gedrag van echte Facebook-oplichters nagedaan door twee groepen bots te creëren: een groep doelwitten en een groep oplichters. Oplichters zoeken vaak door netwerken van vrienden, waarbij ze de vrienden van gebruikers onderzoeken om een potentieel doelwit te vinden. Dit gedrag werd nagedaan door de oplichter-bots toen de ingenieurs experimenteerden met verschillende methoden om de onschuldige bot te beschermen tegen oplichting. De tactieken die ze hebben getest, omvatten verschillende beperkingen, zoals het beperken van het aantal privéberichten dat een bot per minuut kan verzenden.
Er zijn een aantal manieren waarop de gesimuleerde Facebook verschilt van het echte ding. Ten eerste bevat de simulatie van Facebook geen visuele elementen, dus de gegevens die uit de simulatie worden afgeleid, zijn allemaal in de vorm van numerieke gegevens en statistieken over interacties tussen bots. Ten tweede zijn alle actoren in de simulatie bots, die niet in staat zijn om met echte gebruikers te interacteren. De WW-simulatie kan ook geen rekening houden met dingen als de bedoeling van de gebruiker of de inhoud van een bepaalde conversatie, aangezien alleen de acties van het verzenden van berichten, het maken van opmerkingen, enz. worden gesimuleerd.
Volgens Harman is dit proces van experimenteren met beperkingen vergelijkbaar met stedelijke planners die proberen de snelheid op bepaalde wegen te verlagen door “snelheidsdrempels” aan te leggen. Net zoals een stedelijke planner zou experimenteren met het aanleggen van snelheidsdrempels en vervolgens gegevens verzamelen over hun nut, hebben de ingenieurs geanalyseerd hoe berichten en interacties tussen bots varieerden in hun simulator toen ze parameters en beperkingen varieerden. Harman legt uit dat het doel is om een idee te krijgen van welke veranderingen kunnen worden aangebracht in Facebook’s platform om schadelijk gedrag te voorkomen zonder het normale gedrag of de vrije stroom van verkeer te beperken.
Harman legt ook uit dat het voordeel van het gebruik van WW voor hun simulaties is dat de acties die ze bestuderen, plaatsvinden op echte Facebook-infrastructuur, waardoor ze een veel beter idee krijgen van hoe hun voorgestelde veranderingen de echte Facebook-gebruikers kunnen beïnvloeden. Eventuele toepassingen van deze bevindingen zullen moeten wachten tot een later tijdstip, aangezien WW en zijn simulatie momenteel nog in de onderzoeksfasen zitten. Harman en andere Facebook-onderzoekers zullen hun bevindingen nog niet toepassen op de live-versie van Facebook, aangezien er nog veel werk moet worden gedaan. De onderzoeksGroep moet vaststellen dat de simulaties die ze creëren, adequaat overeenkomen met het echte menselijke gedrag.
Het belangrijkste voordeel van WW, volgens Harman, is zijn vermogen om op een enorme schaal te werken, waardoor Facebook-onderzoekers de potentiële gevolgen van duizenden kleine aanpassingen kunnen controleren, allemaal via de simulaties die het produceert.
In de toekomst kunnen de onderzoekers de bots misschien gewoon laten spelen en experimenteren voor een tijdje, om te zien welke soorten interacties ze zelf komen met, wat vaak iets is dat onderzoekers niet eens verwachten.
“Op dit moment ligt de focus voornamelijk op het trainen van de bots om dingen na te doen die we weten dat ze op het platform gebeuren. Maar in theorie en in praktijk kunnen de bots dingen doen die we niet hebben gezien”, zei Harman. “Dat is eigenlijk iets wat we willen, omdat we uiteindelijk vooruit willen blijven lopen op het slechte gedrag in plaats van voortdurend achter te blijven.”
Als alles goed gaat, kan Facebook beginnen met het aanbrengen van wijzigingen op basis van WW’s simulaties tegen het einde van 2020.












