Waarom sagteware vir emosielees jou privaatheid kan skend

INHOUDSOPGAWE:

Waarom sagteware vir emosielees jou privaatheid kan skend
Waarom sagteware vir emosielees jou privaatheid kan skend
Anonim

Sleutel wegneemetes

  • Zoom het glo gesê hy sal KI gebruik om 'n gebruiker se sentiment of betrokkenheidvlak te evalueer.
  • Menseregtegroepe vra Zoom om sy plan te heroorweeg weens kommer oor privaatheid en datasekuriteit.
  • Sommige maatskappye gebruik ook sagteware vir emosiebespeuring tydens onderhoude om te bepaal of die gebruiker aandag gee.
Image
Image

Die toenemende gebruik van kunsmatige intelligensie (KI) om menslike emosies te monitor, wek kommer oor privaatheid.

Menseregte-organisasies vra Zoom om sy plan te vertraag om emosie-ontleding KI in sy videokonferensie-sagteware in te voer. Die maatskappy het glo gesê dat hy KI sal gebruik om 'n gebruiker se sentiment of betrokkenheidsvlak te evalueer.

"Kenners erken dat emosie-analise nie werk nie," het die konsortium van menseregtegroepe, insluitend die ACLU, in 'n brief aan Zoom geskryf. "Gesigsuitdrukkings word dikwels van die emosies daaronder ontkoppel, en navorsing het bevind dat nie eens mense die emosies van ander van die tyd akkuraat kan lees of meet nie. Die ontwikkeling van hierdie instrument voeg geloofwaardigheid by tot pseudowetenskap en plaas jou reputasie op die spel."

Zoom het nie onmiddellik op 'n versoek deur Lifewire vir kommentaar gereageer nie.

Hou op hoogte van jou emosies

Volgens die Protokol-artikel sal die Zoom-moniteringstelsel genaamd Q for Sales gebruikers se praattydverhouding, reaksietydvertraging en gereelde sprekerveranderinge nagaan om na te gaan hoe verloof die persoon is. Zoom sal hierdie data gebruik om tellings tussen nul en 100 toe te ken, met hoër tellings wat hoër betrokkenheid of sentiment aandui.

Die menseregtegroepe beweer dat die sagteware teen mense met gestremdhede of sekere etnisiteite kan diskrimineer deur te aanvaar dat almal dieselfde gesigsuitdrukkings, stempatrone en lyftaal gebruik om te kommunikeer. Die groepe stel ook voor dat die sagteware 'n datasekuriteitsrisiko kan inhou.

Image
Image

"Deur diep persoonlike data te oes, kan enige entiteit wat hierdie tegnologie ontplooi 'n teiken maak om regeringsowerhede en kwaadwillige kuberkrakers te snuffel," volgens die brief.

Julia Stoyanovich, 'n professor in rekenaarwetenskap en ingenieurswese aan die Universiteit van New York, het in 'n e-posonderhoud aan Lifewire gesê sy is skepties oor die aansprake agter emosiebespeuring.

"Ek sien nie hoe sulke tegnologie werk nie - mense se emosionele uitdrukking is baie individueel, baie kultureel afhanklik en baie konteksspesifiek," het Stoyanovich gesê."Maar, miskien selfs belangriker, ek sien nie hoekom ons wil hê dat hierdie gereedskap moet werk nie. Met ander woorde, ons sal in nog meer moeilikheid wees as hulle goed werk. Maar miskien selfs voordat ons aan die risiko's dink, moet ons vra - wat is die potensiële voordele van sulke tegnologie?"

Zoom is nie die enigste maatskappy wat sagteware vir emosiebespeuring gebruik nie. Theo Wills, die senior direkteur van privaatheid by Kuma LLC, 'n privaatheids- en sekuriteitskonsultasiemaatskappy, het per e-pos aan Lifewire gesê sagteware om emosies op te spoor word tydens onderhoude gebruik om te bepaal of die gebruiker aandag gee. Dit word ook in die vervoerbedryf geloods om te monitor of bestuurders lomerig voorkom, op videoplatforms om belangstelling te peil en aanbevelings aan te pas, en in opvoedkundige tutoriale om te bepaal of 'n spesifieke onderrigmetode boeiend is.

Wills het aangevoer dat die kontroversie rondom emosiemoniteringsagteware meer 'n kwessie van data-etiek as privaatheid is. Sy het gesê dit gaan daaroor dat die stelsel werklike besluite neem wat gebaseer is op vermoedens.

"Met hierdie tegnologie neem jy nou aan die rede waarom ek 'n spesifieke uitdrukking op my gesig het, maar die dryfkrag agter 'n uitdrukking verskil baie as gevolg van dinge soos sosiale of kulturele opvoeding, gesinsgedrag, vorige ervarings of senuweeagtigheid op die oomblik,” het Wills bygevoeg. "Om die algoritme op 'n aanname te baseer, is inherent gebrekkig en potensieel diskriminerend. Baie populasies word nie verteenwoordig in die populasie waarop die algoritmes gebaseer is nie, en toepaslike voorstelling moet geprioritiseer word voordat dit gebruik moet word."

Praktiese oorwegings

Die probleme wat deur emosienasporingsagteware ontstaan, kan prakties sowel as teoreties wees. Matt Heisie, die medestigter van Ferret.ai, 'n KI-gedrewe toepassing wat verhoudingsintelligensie verskaf, het in 'n e-pos aan Lifewire gesê gebruikers moet vra waar die ontleding van gesigte gedoen word en watter data gestoor word. Word die studie gedoen oor oproepopnames, verwerk in die wolk of op die plaaslike toestel?

Heisie het ook gevra, soos die algoritme leer, watter data dit versamel oor 'n persoon se gesig of bewegings wat moontlik van die algoritme losgemaak kan word en gebruik kan word om iemand se biometrie te herskep? Berg die maatskappy kiekies om die algoritme se leerstellings te verifieer of te valideer, en word die gebruiker in kennis gestel van hierdie nuwe afgeleide data of gestoorde beelde wat moontlik van hul oproepe versamel word?

"Dit is alles probleme wat baie maatskappye opgelos het, maar daar is ook maatskappye wat deur skandaal geruk is wanneer dit blyk dat hulle dit nie reg gedoen het nie," het Heisie gesê. "Facebook is die belangrikste geval van 'n maatskappy wat sy gesigsherkenningsplatform teruggerol het oor kommer oor gebruikersprivaatheid. Moedermaatskappy Meta trek nou AR-kenmerke van Instagram in sommige jurisdiksies soos Illinois en Texas oor privaatheidswette rondom biometriese data."

Aanbeveel: