Sleutel wegneemetes
- Algorithmiese vooroordeel is skadelik vir tieners wat baie tyd op die internet deurbring, sê kenners.
- Twitter-gebruikers het onlangs 'n probleem ondervind waarin swart gesigte ten gunste van wit mense uitgeroei is.
- Tieners se ontwikkelende brein kan veral vatbaar wees vir die skadelike uitwerking van algoritmiese vooroordeel, sê navorsers.
Die vooroordeel wat in sekere tegnologie gebak word, bekend as algoritmiese vooroordeel, kan vir baie groepe skadelik wees, maar kenners sê dit is veral skadelik vir tieners.
Algoritmiese vooroordeel, wanneer rekenaarstelsels bevooroordeelde resultate toon, is 'n groeiende probleem. Twitter-gebruikers het onlangs 'n voorbeeld van vooroordeel op die platform gevind toe 'n beeldbespeuringsalgoritme wat foto's sny, swart gesigte ten gunste van wits uitgesny het. Die maatskappy het om verskoning gevra vir die probleem, maar het nog nie 'n oplossing vrygestel nie. Dit is 'n voorbeeld van die vooroordeel wat tieners ondervind wanneer hulle aanlyn gaan, wat hulle meer doen as enige ander ouderdomsgroep, sê kenners.
"Die meeste tieners is onbewus daarvan dat sosiale media-maatskappye hulle in plek het om spesifieke inhoud te bevorder waarvan hulle dink gebruikers sal hou [ten einde] hulle te kry om so lank as moontlik op die platform te bly," Dr. Mai- Ly Nguyen Steers, assistent-professor in die Skool vir Verpleegkunde aan die Duquesne Universiteit wat die gebruik van sosiale media onder adolessente/kollegestudente bestudeer, het in 'n e-posonderhoud gesê.
"Selfs al is daar 'n mate van bewussyn oor die algoritme, is die effek om nie genoeg laaiks en opmerkings te kry steeds kragtig nie en kan dit tieners se selfbeeld beïnvloed," het Steers bygevoeg.
Ontwikkelende brein
Algorithmiese vooroordeel kan tieners op onvoorsiene maniere beïnvloed aangesien hul prefrontale korteks steeds ontwikkel, het Mikaela Pisani, hoofdatawetenskaplike by Rootstrap, in 'n e-posonderhoud verduidelik.
Die effek daarvan om nie genoeg laaiks en opmerkings te kry nie, is steeds kragtig en kan tieners se selfbeeld beïnvloed.
"Tieners is veral kwesbaar vir die verskynsel van die 'Social Factory', waar algoritmes sosiale groepe op aanlyn platforms skep, wat lei tot angs en depressie as die tiener se behoeftes van sosiale goedkeuring nie bevredig word nie," het Pisani gesê. "Algorithmes vereenvoudig gebaseer op vorige onvolmaakte data wat lei tot 'n oorverteenwoordiging van stereotipes ten koste van meer genuanseerde benaderings tot identiteitsvorming.
"As ons die breër standpunt inneem, word ons ook oorgelaat om as 'n samelewing te bevraagteken of ons algoritmes wil hê wat ons tieners se reise na volwassenheid vorm, en ondersteun hierdie stelsel selfs individuele persoonlike groei eerder as om dit te onderdruk?"
As gevolg van hierdie probleme is daar 'n groeiende behoefte om tieners in gedagte te hou wanneer algoritmes ontwerp word, sê kenners.
"Op grond van insette van ontwikkelingspesialiste, datawetenskaplikes en jeugvoorstanders, kan 21ste-eeuse beleid rondom dataprivaatheid en algoritmiese ontwerp ook saamgestel word met adolessente se spesifieke behoeftes in gedagte," Avriel Epps-Darling, 'n doktorsgraad student aan Harvard, onlangs geskryf. "As ons eerder aanhou om die maniere waarop tieners kwesbaar is vir algoritmiese rassisme af te maak of te ignoreer, sal die skade waarskynlik deur die komende geslagte weerklink."
Bekamping van vooroordeel
Totdat daar 'n oplossing is, probeer sommige navorsers maniere vind om die skade wat aan jongmense aangerig word deur bevooroordeelde algoritmes te verminder.
"Intervensies is daarop gefokus om tieners te laat besef dat hul sosiale media-patrone hul geestesgesondheid negatief beïnvloed en probeer om met strategieë vorendag te kom om dit te versag (bv. verminderde sosiale mediagebruik), " het Steers gesê.
"Sommige van die universiteitstudente met wie ons onderhoude gevoer het, het aangedui dat hulle verplig voel om inhoud te genereer om "relevant" te bly, selfs al wil hulle nie uitgaan of plaas nie, "het sy voortgegaan. "Hulle voel egter dat hulle inhoud moet genereer om hul verbindings met hul volgelinge of vriende te behou."
Die uiteindelike antwoord kan wees om menslike vooroordeel van rekenaars te verwyder. Maar aangesien programmeerders net mense is, is dit 'n moeilike uitdaging, sê kenners.
Een moontlike oplossing is om rekenaars te ontwikkel wat gedesentraliseerd en geprogrammeer is om dinge te vergeet wat hulle geleer het, sê John Suit, hooftegnologiebeampte by die robotikafirma KODA.
"Deur 'n gedesentraliseerde netwerk word data en die ontleding van daardie data saamgestel en ontleed vanaf verskeie punte," het Suit in 'n e-posonderhoud gesê. "Data word versamel en verwerk, nie van 'n enkele KI-gedagsverwerking binne die perke van sy algoritme nie, maar honderde of selfs duisende.
"Soos daardie data ingesamel en ontleed word, word ou "gevolgtrekkings" of oorbodige data vergeet. Deur hierdie stelsel sal 'n algoritme wat dalk met vooroordeel begin het, uiteindelik daardie vooroordeel regstel en vervang as dit verkeerd blyk te wees."
Hoewel vooroordeel 'n eeue oue probleem kan wees, is daar dalk maniere om dit te bekamp, ten minste aanlyn. Om rekenaars te ontwerp wat ons vooroordele kwytraak, is die eerste stap.