peň Detekcia nenávistných prejavov AI na boj proti stereotypom a dezinformáciám – Unite.AI
Spojte sa s nami

Umelá inteligencia

Detekcia nenávistných prejavov AI na boj proti stereotypom a dezinformáciám

mm

uverejnené

 on

Odporúčaný blog Image-AI Hate Speech Detection na boj proti stereotypom a dezinformáciám

Dnes je internet životnou miazgou globálnej komunikácie a spojenia. S touto bezprecedentnou online konektivitou sme však svedkami aj temnej stránky ľudského správania, tj nenávistných prejavov, stereotypov a škodlivého obsahu. Tieto problémy prenikli do sociálnych médií, online fór a iných virtuálnych priestorov a spôsobili trvalé škody jednotlivcom a spoločnosti. Z toho vyplýva potreba detekcie nenávistných prejavov.

Podľa Pew Research Center41 % dospelých Američanov tvrdí, že sa osobne stretli so zneužívaním internetu a 25 % je obeťou vážneho obťažovania.

Na podporu pozitívnejšieho a úctivejšieho online prostredia je nevyhnutné prijať proaktívne opatrenia a využiť silu technológie. V tomto ohľade umelá inteligencia (AI) poskytuje inovatívne riešenia na odhaľovanie a riešenie nenávistných prejavov a stereotypov.

Obmedzenia súčasných techník zmierňovania a potreba proaktívnych opatrení

Súčasné opatrenia na zmiernenie nenávistných prejavov sú obmedzené. Nedokážu účinne obmedziť šírenie škodlivého obsahu online. Tieto obmedzenia zahŕňajú:

  • Reaktívne prístupy, ktoré sa prevažne spoliehajú na ľudskú umiernenosť a statické algoritmy, sa snažia udržať krok s rýchlym šírením nenávistných prejavov.
  • Obrovské množstvo online obsahu zahlcuje ľudských moderátorov, čo vedie k oneskoreným odpovediam a zmeškaným prípadom škodlivej rétoriky.
  • Kontextové porozumenie a vyvíjajúce sa jazykové nuansy tiež predstavujú výzvy pre automatizované systémy, aby presne identifikovali a interpretovali prejavy nenávisti.

Na vyriešenie týchto obmedzení a podporu bezpečnejšieho online prostredia je nevyhnutný posun smerom k proaktívnym opatreniam. Prijatím opatrení založených na AI môžeme posilniť naše digitálne komunity, podporiť inkluzívnosť a súdržný online svet.

Identifikácia a nahlásenie nenávistných prejavov pomocou AI

V boji proti nenávistným prejavom sa AI ukazuje ako impozantný spojenec s algoritmami strojového učenia (ML) na rýchlu a presnú identifikáciu a označenie škodlivého obsahu. Analýzou obrovského množstva údajov sa modely AI môžu naučiť rozpoznávať vzorce a jazykové nuansy spojené s nenávistnými prejavmi, čo im umožňuje efektívne kategorizovať urážlivý obsah a reagovať naň.

na modely umelej inteligencie vlakov pre presné Prejavy nenávisti používajú sa techniky učenia pod dohľadom a bez dozoru. Učenie pod dohľadom zahŕňa poskytovanie označených príkladov nenávistných prejavov a obsahu, ktorý nie je škodlivý, aby sa model naučil rozlišovať medzi týmito dvoma kategóriami. Naproti tomu metódy učenia bez dozoru a čiastočne pod dohľadom využívajú neoznačené údaje na rozvoj modelového chápania nenávistných prejavov.

Využitie techník AI na boj proti nenávistným prejavom

Protireč sa javí ako silná stratégia boja Prejavy nenávisti priamym spochybňovaním a adresovaním škodlivých príbehov. Zahŕňa vytváranie presvedčivého a informatívneho obsahu na podporu empatie, porozumenia a tolerancie. Umožňuje jednotlivcom a komunitám aktívne sa podieľať na vytváraní pozitívneho digitálneho prostredia.

Aj keď sa konkrétne detaily jednotlivých modelov kontrareču môžu líšiť v závislosti od technológie AI a prístupov k vývoju, niektoré spoločné črty a techniky zahŕňajú:

  • Generácia prirodzeného jazyka (NLG): Modely protireči používajú NLG na vytváranie ľudských odpovedí v písomnej alebo hovorenej forme. Odpovede sú koherentné a kontextovo relevantné pre konkrétny prípad nenávistných prejavov, ktorým čelí.
  • Analýza sentimentu: Modely protireči AI využívajú analýzu sentimentu na posúdenie emocionálneho tónu nenávistných prejavov a podľa toho prispôsobujú svoje reakcie. To zaisťuje, že protireč je pôsobivá a empatická.
  • Kontextové porozumenie: Analýzou kontextu nenávistného prejavu môžu modely protirečov generovať odpovede na konkrétne problémy alebo mylné predstavy, čo prispieva k efektívnejšiemu a cielenejšiemu protireču.
  • Diverzita údajov: Aby sa predišlo predsudkom a zabezpečila spravodlivosť, modely protirečových slov sa trénujú na rôznych súboroch údajov, ktoré predstavujú rôzne perspektívy a kultúrne nuansy. To pomáha pri vytváraní inkluzívnych a kultúrne citlivých odpovedí.
  • Poučenie zo spätnej väzby od používateľov: Modely protireči sa môžu neustále zlepšovať učením sa zo spätnej väzby od používateľov. Táto slučka spätnej väzby umožňuje modelu spresniť svoje reakcie na základe interakcií v reálnom svete, čím sa časom zvyšuje jeho účinnosť.

Príklady boja proti nenávistným prejavom pomocou AI

Príkladom techniky umelej inteligencie v reálnom svete je „Metóda presmerovania" vyvinutý Jigsaw od Google a Moonshot CVE. Metóda presmerovania využíva cielenú reklamu na oslovenie jednotlivcov náchylných na extrémistické ideológie a nenávistné prejavy. Tento prístup založený na AI má za cieľ odradiť jednotlivcov od používania škodlivého obsahu a podporiť empatiu, porozumenie a odklon od extrémistických presvedčení.

Výskumníci tiež vyvinuli nový model AI tzv BiCapsHate ktorý pôsobí ako účinný nástroj proti online nenávistným prejavom, ako sa uvádza v IEEE transakcie vo výpočtových sociálnych systémoch. Podporuje obojsmernú analýzu jazyka, čím zlepšuje porozumenie kontextu pre presné určenie nenávistného obsahu. Tento pokrok sa snaží zmierniť škodlivý vplyv nenávistných prejavov na sociálnych médiách a ponúka potenciál pre bezpečnejšie online interakcie.

Podobne výskumníci v University of Michigan využili AI na boj proti online nenávistným prejavom pomocou prístupu tzv Pravidlo podľa príkladu (RBE). Pomocou hlbokého učenia sa tento prístup učí pravidlá klasifikácie nenávistných prejavov na príkladoch nenávistného obsahu. Tieto pravidlá sa používajú na zadávanie textu, aby sa presne identifikovali a predpovedali online nenávistné prejavy.

Etické úvahy pre modely detekcie nenávistných prejavov

Ak chcete maximalizovať efektivitu modelov protirečových modelov poháňaných AI, etiku obchodu sú prvoradé. Je však dôležité vyvážiť slobodu prejavu a zákaz šírenia škodlivého obsahu, aby sa predišlo cenzúre.

Transparentnosť pri vývoji a nasadzovaní modelov umelej reči je nevyhnutná na podporu dôvery a zodpovednosti medzi používateľmi a zainteresovanými stranami. Rovnako dôležité je aj zabezpečenie spravodlivosti zaujatosti v modeloch AI môže viesť k diskriminácii a vylúčeniu.

Napríklad AI navrhnutá na identifikáciu nenávistných prejavov sa môže neúmyselne zosilniť rasovej zaujatosti. Výskum zistil, že popredné modely umelej inteligencie s nenávistnými prejavmi mali 1.5-krát vyššiu pravdepodobnosť, že tweety Afroameričanov označia za urážlivé. Je u nich 2.2-krát vyššia pravdepodobnosť, že tweety označia ako nenávistné prejavy, ktoré sú v nich napísané Afroamerická angličtina. Podobné dôkazy vyplynuli zo štúdie 155,800 XNUMX príspevkov na Twitteri súvisiacich s nenávistnými prejavmi, ktoré poukázali na problém riešenia rasových predsudkov pri moderovaní obsahu AI.

v inom študovať, výskumníci testovali štyri systémy AI na detekciu nenávistných prejavov a zistili, že všetky majú problémy s presnou identifikáciou toxických viet. Aby diagnostikovali presné problémy v týchto modeloch detekcie nenávistných prejavov, vytvorili taxonómiu 18 typov nenávistných prejavov vrátane nadávok a výhražného jazyka. Zdôraznili tiež 11 scenárov, ktoré spomaľujú AI, ako napríklad používanie vulgárnych výrazov v nenávistných vyhláseniach. Výsledkom bola štúdia HateCheck, súbor údajov s otvoreným zdrojom s takmer 4,000 XNUMX príkladmi, ktorého cieľom je zlepšiť pochopenie nuancií nenávistných prejavov pre modely AI.

Informovanosť a digitálna gramotnosť

Boj proti nenávistným prejavom a stereotypom si vyžaduje proaktívny a viacrozmerný prístup. Preto je zvyšovanie povedomia a podpora digitálnej gramotnosti životne dôležité v boji proti nenávistným prejavom a stereotypom.

Vzdelávanie jednotlivcov o vplyve škodlivého obsahu podporuje kultúru empatie a zodpovedného online správania. Stratégie, ktoré podporujú kritické myslenie, umožňujú používateľom rozlíšiť medzi legitímnym prejavom a nenávistným prejavom, čím sa znižuje šírenie škodlivých naratívov. Okrem toho je dôležité vybaviť používateľov schopnosťami identifikovať a efektívne reagovať na nenávistné prejavy. Umožní im to spochybňovať škodlivú rétoriku a čeliť jej, čím prispeje k bezpečnejšiemu a úctivejšiemu digitálnemu prostrediu.

S vývojom technológie AI exponenciálne rastie potenciál riešiť nenávistné prejavy a stereotypy s väčšou presnosťou a dosahom. Preto je dôležité upevniť protireč poháňanú AI ako účinný nástroj na podporu empatie a pozitívneho zapojenia online.

Pre viac informácií o trendoch a technológiách AI navštívte zjednotiť.ai.