Facebook se Deepfake-tegnologie sal ons nie red nie, sê kenners

INHOUDSOPGAWE:

Facebook se Deepfake-tegnologie sal ons nie red nie, sê kenners
Facebook se Deepfake-tegnologie sal ons nie red nie, sê kenners
Anonim

Sleutel wegneemetes

  • Namate dieepfakes makliker word om te maak, het nuwe en verbeterde maniere om dit raak te sien 'n prioriteit geword.
  • Facebook se deepfake-spotting-tegnologie gebruik omgekeerde masjienleer om te ontdek of 'n video 'n diepvals is of nie.
  • Kenners sê die gebruik van blokkettingtegnologie sal die beste manier wees om te sien of 'n video eg is of nie, aangesien die metode op kontekstuele data staatmaak.
Image
Image

Facebook is vol vertroue in sy masjienleermodel om diepvals te bekamp, maar kenners sê masjienleer op sy eie sal ons nie red om deur diepvals mislei te word nie.

Maatskappye soos Facebook, Microsoft en Google werk almal daaraan om diepvals te bekamp om oor die web en sosiale netwerke te versprei. Alhoewel metodes verskil, is daar een potensiële dwaas-betroubare metode om hierdie vals video's raak te sien: blokkettings.

“[Blokkettings] gee jou net baie potensiaal om die deepfake te bekragtig op 'n manier wat die beste vorm van validering is wat ek kan sien,” Stephen Wolfram, stigter en uitvoerende hoof van Wolfram Research en skrywer van A New Kind of Science, het aan Lifewire oor die telefoon gesê.

Facebook se Deepfake-Spotting-tegnologie

Deepfake-tegnologie het die afgelope paar jaar vinnig gegroei. Die misleidende video's gebruik masjienleermetodes om dinge te doen soos om iemand se gesig op 'n ander persoon se liggaam te plaas, agtergrondtoestande te verander, vals lipsinkronisering, en meer. Hulle wissel van onskadelike parodieë tot om bekendes of openbare figure iets te laat sê of doen wat hulle nie gedoen het nie.

Kenners sê dat die tegnologie vinnig vorder, en dat deepfakes net meer oortuigend (en makliker om te skep) sal word namate die tegnologie meer algemeen beskikbaar en meer innoverend word.

Image
Image

Facebook het onlangs meer insig gegee in sy diepvals-opsporingstegnologie in samewerking met Michigan State University. Die sosiale netwerk sê dit maak staat op omgekeerde ingenieurswese van 'n enkele kunsmatige intelligensie-gegenereerde beeld tot die generatiewe model wat gebruik word om dit te vervaardig.

Navorsingswetenskaplikes wat met Facebook gewerk het, het gesê dat die metode staatmaak op die ontbloot van die unieke patrone agter die KI-model wat gebruik word om 'n diepvals te genereer.

“Deur beeldtoeskrywing na oopstelherkenning te veralgemeen, kan ons meer inligting aflei oor die generatiewe model wat gebruik word om 'n diepvervalsing te skep wat verder gaan as om te erken dat dit nog nie voorheen gesien is nie. En deur ooreenkomste tussen patrone van 'n versameling diepvals na te spoor, kon ons ook sien of 'n reeks beelde van 'n enkele bron afkomstig is,” het navorsingswetenskaplikes Xi Yin en Tan Hassner in Facebook se blogpos geskryf oor die metode om die diepvals te sien.

Image
Image

Wolfram sê dit maak sin dat jy masjienleer sal gebruik om 'n gevorderde KI-model ('n diep vals) raak te sien. Daar is egter altyd ruimte om die tegnologie te flous.

“Ek is glad nie verbaas dat daar 'n ordentlike masjienleer-manier is om [deepfakes op te spoor] nie,” het Wolfram gesê. “Die enigste vraag is as jy genoeg moeite doen, kan jy dit flous? Ek is seker jy kan.”

Bekamp Deepfakes op 'n ander manier

In plaas daarvan het Wolfram gesê dat hy glo dat die gebruik van blokketting die beste opsie sal wees om sekere tipes diepvals akkuraat op te spoor. Sy mening oor die gebruik van blokketting bo masjienleer gaan terug na 2019, en hy het gesê dat die blokkettingbenadering uiteindelik 'n meer akkurate oplossing vir ons diepvalsprobleem kan bied.

“Ek sou verwag dat beeld- en videokykers gereeld teen blokkettings (en 'data-triangulasie-berekenings') kan kyk, 'n bietjie soos hoe webblaaiers nou sekuriteitsertifikate nagaan,” skryf Wolfram in 'n artikel wat in Scientific American gepubliseer is.

Aangesien blokkettings data in blokke stoor wat dan in chronologiese volgorde saamgeketting word, en aangesien gedesentraliseerde blokkettings onveranderlik is, is die data wat ingevoer word onomkeerbaar.

Die enigste vraag is as jy genoeg moeite doen, kan jy dit flous? Ek is seker jy kan.

Wolfram het verduidelik dat deur 'n video in 'n blokketting te plaas, jy in staat sal wees om die tyd wat dit geneem is, die ligging en ander kontekstuele inligting te sien wat jou sal toelaat om te sien of dit op enige manier verander is.

“In die algemeen, hoe meer metadata daar is wat die prentjie of video kontekstualiseer, hoe groter is die kans dat jy dit kan vertel,” het hy gesê. "Jy kan nie tyd op 'n blokketting namaak nie."

Wolfram het egter gesê die metode wat gebruik word – of dit nou masjienleer is of die gebruik van blokketting – hang af van die tipe deepfake waarteen jy probeer beskerm (d.w.s. 'n video van Kim Kardashian wat iets dom sê of 'n video van 'n politikus wat 'n stelling of voorstel maak).

“Die blokketting-benadering beskerm teen sekere soorte diep vervalsings, net soos die masjienleer-beeldverwerking beskerm teen sekere soorte vervalsings,” het hy gesê.

Die kern van die saak, blyk dit, is waaksaamheid vir ons almal wanneer dit kom by die bekamping van die komende diep vals vloed.

Aanbeveel: