Twitter-algoritme se rassevooroordeel dui op groter tegniese probleem

INHOUDSOPGAWE:

Twitter-algoritme se rassevooroordeel dui op groter tegniese probleem
Twitter-algoritme se rassevooroordeel dui op groter tegniese probleem
Anonim

Sleutel wegneemetes

  • Twitter hoop om in hul beeldvoorskousagteware reg te stel wat gebruikers rassevooroordeel noem.
  • Die tegnologiereus se oproep is dalk die kulturele berekening wat die bedryf nodig het om kwessies van diversiteit aan te spreek.
  • Tech se gebrek aan diversiteit benadeel die doeltreffendheid van sy tegnologiese vooruitgang.
Image
Image

Twitter gaan 'n ondersoek van stapel stuur na sy prentjie-uitsny-algoritme nadat dit 'n gewilde onderwerp geword het wat 'n groter gesprek oor diversiteitskwessies in die tegnologiebedryf veroorsaak het.

Die sosiale media-kragmeting het opslae gemaak nadat gebruikers oënskynlike rassevooroordeel in sy beeldvoorskoualgoritme ontdek het. Die ontdekking het gebeur nadat die Twitter-gebruiker Colin Madland die platform gebruik het om Zoom se versuim om sy swart kollegas te herken wat die groenskerm-tegnologie gebruik het, maar in 'n groot vertoning van ironie het hy gevind dat Twitter se beeldsny-algoritme soortgelyk gedra en swart gesigte gedeprioritiseer het.

Sekerlik, dit is 'n groot kwessie vir enige minderheid, maar ek dink daar is ook 'n baie breër kwessie.

Ander gebruikers het die neiging ingeneem wat 'n reeks virale twiets laat ontstaan wat wys dat die algoritme konsekwent wit en ligter-velgesigte geprioritiseer het, wat wissel van mense tot spotprentkarakters en selfs honde. Hierdie mislukking is 'n aanduiding van 'n groter kulturele beweging in die tegnologie-industrie wat konsekwent versuim het om rekening te hou met minderheidsgroepe, wat na die tegniese kant oorgespoel het.

"Dit laat minderhede verskriklik voel, asof hulle nie belangrik is nie, en dit kan gebruik word vir ander dinge wat ernstiger skade kan veroorsaak," Erik Learned-Miller, professor in rekenaarwetenskap aan die Universiteit van Massachusetts, in 'n telefoononderhoud gesê."Sodra jy besluit het waarvoor 'n stuk sagteware gebruik kan word en al die skade wat kan voorkom, dan begin ons praat oor die maniere om die kans dat dit gebeur te verminder."

Kanarie op die tydlyn

Twitter gebruik neurale netwerke om beelde wat in tweets ingebed is, outomaties te sny. Die algoritme is veronderstel om gesigte op te spoor om voor te kyk, maar dit blyk 'n merkbare wit vooroordeel te hê. Liz Kelley, woordvoerder van die maatskappy, het 'n reaksie op al die bekommernisse getwiet.

Kelley het getwiet, "dankie aan almal wat dit geopper het. ons het getoets vir vooroordeel voordat die model gestuur is en het nie bewyse van ras- of geslagsvooroordeel in ons toetsing gevind nie, maar dit is duidelik dat ons meer ontleding het om doen. ons sal ons werk oopbron maak sodat ander kan hersien en repliseer."

Mede-outeur van die witskrif "Facial Recognition Technologies in The Wild: A Call for a Federal Office," Learned-Miller is 'n toonaangewende navorser oor die oormaat van gesiggebaseerde KI-leersagteware. Hy bespreek al jare die potensiële negatiewe impak van beeldleersagteware en het gepraat oor die belangrikheid daarvan om 'n werklikheid te skep waar hierdie vooroordele na die beste van hul vermoë versag word.

Baie algoritmes vir gesigsherkenningstegnologie gebruik verwysingsstelle vir data, dikwels bekend as opleidingsstelle, wat 'n versameling beelde is wat gebruik word om die gedrag van beeldleersagteware te verfyn. Dit laat die KI uiteindelik toe om 'n wye verskeidenheid gesigte maklik te herken. Hierdie verwysingsstelle kan egter nie 'n diverse poel hê nie, wat lei tot kwessies soos dié wat deur die Twitter-span ervaar word.

"Sekerlik, dit is 'n groot kwessie vir enige minderheid, maar ek dink daar is ook 'n baie breër kwessie," het Learned-Miller gesê. "Dit hou verband met 'n gebrek aan diversiteit in die tegnologiesektor en die behoefte aan 'n gesentraliseerde, regulerende krag om die behoorlike gebruike van hierdie soort kragtige sagteware wat geneig is tot misbruik en misbruik te wys."

Tegnies gebrek aan diversiteit

Twitter is dalk die nuutste tegnologiemaatskappy op die snyblok, maar dit is ver van 'n nuwe probleem. Die tegnologiese veld bly 'n oorwegend wit, voortdurend manlik-gedomineerde veld en navorsers het gevind dat die gebrek aan diversiteit 'n replikasie van sistemiese, historiese wanbalanse in die ontwikkelde sagteware veroorsaak.

In 'n 2019-verslag deur die New York Universiteit se AI Now Institute, het navorsers bevind dat swart mense minder as 6 persent van die arbeidsmag by die toptegnologiefirmas in die land uitmaak. Net so is vroue net verantwoordelik vir 26 persent van werkers in die veld - 'n statistiek laer as hul aandeel in 1960.

Dit laat minderhede verskriklik voel, asof hulle nie belangrik is nie, en dit kan gebruik word vir ander dinge wat meer ernstige skade kan veroorsaak.

Op die oppervlak lyk hierdie voorstellingskwessies dalk alledaags, maar in die praktyk kan die skade wat veroorsaak word, groot wees. Navorsers in die AI Now Institute-verslag dui daarop dat dit oorsaaklik verband hou met probleme met sagteware wat dikwels nie rekening hou met nie-blanke en nie-manlike bevolkings. Of dit nou infrarooi seepdispensers is wat nie donkerder vel bespeur nie of Amazon se KI-sagteware wat nie vroulike gesigte van dié van hul manlike eweknieë onderskei nie, 'n versuim om diversiteit in die tegnologiebedryf aan te spreek lei tot 'n mislukking van tegnologie om 'n diverse wêreld te hanteer.

"Daar is baie mense wat nie deur die kwessies gedink het nie en nie regtig besef hoe hierdie dinge skade kan veroorsaak en hoe beduidend hierdie skade is nie," het Learned-Miller voorgestel oor KI-beeldleer. "Hopelik is daardie aantal mense besig om te krimp!"

Aanbeveel: