AI kon uiteindelik help om haatspraak te bekamp

INHOUDSOPGAWE:

AI kon uiteindelik help om haatspraak te bekamp
AI kon uiteindelik help om haatspraak te bekamp
Anonim

Sleutel wegneemetes

  • 'n Nuwe sagteware-instrument laat KI toe om internetopmerkings vir haatspraak te monitor.
  • KI is nodig om internetinhoud te modereer vanweë die enorme volume materiaal wat menslike vermoëns oortref.
  • Maar sommige kenners sê dat KI-monitering van spraak kommer wek oor privaatheid.
Image
Image

Namate aanlyn haatspraak toeneem, sê een maatskappy dat dit dalk 'n oplossing het wat nie op menslike moderators staatmaak nie.

'n Opstart genaamd Spectrum Labs verskaf kunsmatige intelligensie-tegnologie aan platformverskaffers om giftige uitruilings intyds op te spoor en te sluit. Maar kenners sê dat KI-monitering ook privaatheidskwessies veroorsaak.

"KI-monitering vereis dikwels dat patrone oor tyd gekyk word, wat die behoud van die data noodsaak," het David Moody, 'n senior medewerker by Schellman, 'n sekuriteits- en privaatheidsnakomingsbeoordelingsmaatskappy, in 'n e-posonderhoud aan Lifewire gesê. "Hierdie data kan data insluit wat wette as privaatheidsdata gemerk het (persoonlik identifiseerbare inligting of PII)."

Meer haatspraak

Spectrum Labs beloof 'n hoë-tegnologie oplossing vir die eeue oue probleem van haatspraak.

"Ons help platforms gemiddeld om inhoudmodereringspogings met 50% te verminder en die opsporing van toksiese gedrag met 10x te verhoog," beweer die maatskappy op sy webwerf.

Spectrum sê dit het saam met navorsingsinstitute met kundigheid in spesifieke skadelike gedrag gewerk om meer as 40 gedragsidentifikasiemodelle te bou. Die maatskappy se Guardian-inhoudmodereringsplatform is gebou deur 'n span datawetenskaplikes en moderators om "die beskerming van gemeenskappe teen toksisiteit te ondersteun."

Daar is 'n groeiende behoefte aan maniere om haatspraak te bekamp, aangesien dit onmoontlik is vir 'n mens om elke stukkie aanlynverkeer te monitor, Dylan Fox, die HUB van AssemblyAI, 'n beginonderneming wat spraakherkenning verskaf en kliënte betrokke het by die monitering van haat toespraak, het in 'n e-posonderhoud aan Lifewire gesê.

"Daar is ongeveer 500 miljoen twiets per dag op Twitter alleen," het hy bygevoeg. "Selfs as een persoon elke 10 sekondes 'n twiet kan nagaan, sal Twitter 60 duisend mense in diens moet neem om dit te doen. In plaas daarvan gebruik ons slim gereedskap soos KI om die proses te outomatiseer."

Anders as 'n mens, kan KI 24/7 funksioneer en moontlik meer regverdig wees omdat dit ontwerp is om sy reëls eenvormig op alle gebruikers toe te pas sonder dat enige persoonlike oortuigings inmeng, het Fox gesê. Daar is ook 'n koste vir daardie mense wat inhoud moet monitor en modereer.

"Hulle kan blootgestel word aan geweld, haat en gemene dade, wat skadelik kan wees vir 'n persoon se geestesgesondheid," het hy gesê.

Spectrum is nie die enigste maatskappy wat poog om aanlyn haatspraak outomaties op te spoor nie. Centre Malaysia het byvoorbeeld onlangs 'n aanlyn-spoorsnyer bekendgestel wat ontwerp is om haatspraak onder Maleisiese netizens te vind. Die sagteware wat hulle ontwikkel het, die Tracker Benci genoem, gebruik masjienleer om haatspraak aanlyn op te spoor, veral op Twitter.

Die uitdaging is hoe om ruimtes te skep waarin mense werklik konstruktief by mekaar kan betrokke raak.

Privaatheidskwessies

Terwyl tegnologiese oplossings soos Spectrum aanlyn haatspraak kan beveg, laat hulle ook vrae ontstaan oor hoeveel polisiëring rekenaars moet doen.

Daar is vrye spraak-implikasies, maar nie net vir die sprekers wie se plasings as haatspraak verwyder sal word nie, het Irina Raicu, direkteur van internet-etiek by die Markkula-sentrum vir toegepaste etiek by die Santa Clara Universiteit, in 'n e-pos aan Lifewire gesê onderhoud.

"Om teistering in die naam van 'vryheid van spraak' toe te laat, het die teikens van sulke spraak (veral wanneer dit op spesifieke individue gerig is) gedryf om op te hou praat - om verskeie gesprekke en platforms heeltemal te laat vaar," het Raicu gesê."Die uitdaging is hoe om ruimtes te skep waarin mense werklik konstruktief by mekaar betrokke kan raak."

AI-spraakmonitering behoort nie privaatheidskwessies te opper as maatskappye publiek beskikbare inligting tydens monitering gebruik nie, het Fox gesê. As die maatskappy egter besonderhede koop oor hoe gebruikers op ander platforms omgaan om problematiese gebruikers vooraf te identifiseer, kan dit kommer oor privaatheid wek.

"Dit kan beslis 'n bietjie van 'n grys area wees, afhangend van die toepassing," het hy bygevoeg.

Image
Image

Justin Davis, die HUB van Spectrum Labs het in 'n e-pos aan Lifewire gesê dat die maatskappy se tegnologie 2 tot 5 duisend rye data binne breuke van 'n sekonde kan hersien. “Die belangrikste is dat tegnologie die hoeveelheid giftige inhoud waaraan menslike moderators blootgestel word, kan verminder,” het hy gesê.

Ons is dalk op die punt van 'n rewolusie in KI wat menslike spraak en teks aanlyn monitor. Toekomstige vooruitgang sluit beter onafhanklike en outonome moniteringsvermoëns in om voorheen onbekende vorme van haatspraak of enige ander sensorbare patrone wat sal ontwikkel, te identifiseer, het Moody gesê.

AI sal ook binnekort in staat wees om patrone in die spesifieke spraakpatrone te herken en bronne en hul ander aktiwiteite in verband te bring deur nuusontleding, openbare indienings, verkeerspatroonanalise, fisiese monitering en baie ander opsies, het hy bygevoeg.

Maar sommige kenners sê dat mense altyd met rekenaars sal moet werk om haatspraak te monitor.

"KI alleen sal nie werk nie," het Raicu gesê. "Dit moet erken word as een onvolmaakte hulpmiddel wat saam met ander antwoorde gebruik moet word."

Regstelling 25/1/2022: Aanhaling van Justin Davis in die 5de paragraaf van die einde bygevoeg om 'n post-publikasie-e-pos te weerspieël.

Aanbeveel: