Hoe KI sy gevaarlike nageslag kon monitor

INHOUDSOPGAWE:

Hoe KI sy gevaarlike nageslag kon monitor
Hoe KI sy gevaarlike nageslag kon monitor
Anonim

Sleutel wegneemetes

  • 'n Nuwe artikel beweer dat kunsmatige intelligensie kan bepaal watter navorsingsprojekte dalk meer regulering as ander benodig.
  • Dit is deel van 'n groeiende poging om te ontdek watter soort KI gevaarlik kan wees.
  • Een kenner sê die werklike gevaar van KI is dat dit mense dom kan maak.

Image
Image

Kunsmatige intelligensie (KI) bied baie voordele, maar ook 'n paar potensiële gevare. En nou het navorsers 'n metode voorgestel om hul gerekenariseerde skeppings dop te hou.

'n Internasionale span sê in 'n nuwe referaat dat KI kan bepaal watter tipe navorsingsprojekte dalk meer regulering as ander benodig. Die wetenskaplikes het 'n model gebruik wat konsepte uit biologie en wiskunde meng en deel is van 'n groeiende poging om te ontdek watter soort KI gevaarlik kan wees.

"Natuurlik, terwyl die 'wetenskapfiksie' gevaarlike gebruik van KI kan ontstaan as ons so besluit […], wat KI gevaarlik maak, is nie KI self nie, maar [hoe ons dit gebruik], " Thierry Rayna, die voorsitter van Tegnologie vir Verandering, by die École Polytechnique in Frankryk, het in 'n e-posonderhoud aan Lifewire gesê. "Die implementering van KI kan óf bevoegdheidverbeterend wees (dit versterk byvoorbeeld die relevansie van mens/werker se vaardighede en kennis) óf bevoegdheidvernietiging, dit wil sê, KI maak bestaande vaardighede en kennis minder bruikbaar of verouderd."

Keeping Tabs

Die skrywers van die onlangse koerant het in 'n pos geskryf dat hulle 'n model gebou het om hipotetiese KI-kompetisies te simuleer. Hulle het die simulasie honderde kere gehardloop om te probeer voorspel hoe werklike KI-wedrenne kan uitwerk.

"Die veranderlike wat ons veral belangrik gevind het, was die "lengte" van die wedloop - die tyd wat ons gesimuleerde rasse geneem het om hul doelwit ('n funksionele KI-produk) te bereik," het die wetenskaplikes geskryf. "Wanneer KI-wedrenne hul doelwit vinnig bereik het, het ons gevind dat mededingers wat ons gekodeer het om altyd veiligheidsmaatreëls oor die hoof te sien, altyd gewen het."

Daarteenoor het die navorsers bevind dat langtermyn-KI-projekte nie so gevaarlik was nie, want die wenners was nie altyd diegene wat veiligheid oor die hoof gesien het nie. "Gegewe hierdie bevindings, sal dit belangrik wees vir reguleerders om vas te stel hoe lank verskillende KI-wedrenne waarskynlik sal duur, deur verskillende regulasies toe te pas op grond van hul verwagte tydskale," het hulle geskryf. "Ons bevindinge dui daarop dat een reël vir alle KI-wedrenne - van naellope tot marathons - tot sekere uitkomste sal lei wat ver van ideaal is."

David Zhao, die besturende direkteur van Coda Strategy, 'n maatskappy wat konsulteer oor KI, het in 'n e-posonderhoud met Lifewire gesê dat dit moeilik kan wees om gevaarlike KI te identifiseer. Die uitdagings lê in die feit dat moderne benaderings tot KI 'n diep leerbenadering volg.

"Ons weet dat diep leer beter resultate lewer in talle gebruiksgevalle, soos beeldbespeuring of spraakherkenning," het Zhao gesê. "Dit is egter onmoontlik vir mense om te verstaan hoe 'n diep leeralgoritme werk en hoe dit sy uitset produseer. Daarom is dit moeilik om te sê of 'n KI wat goeie resultate lewer gevaarlik is, want dit is onmoontlik vir mense om te verstaan wat aangaan."

Sagteware kan "gevaarlik" wees wanneer dit in kritieke stelsels gebruik word, wat kwesbaarhede het wat deur slegte akteurs uitgebuit kan word of verkeerde resultate kan lewer, het Matt Shea, direkteur van strategie by die KI-firma MixMode, per e-pos gesê. Hy het bygevoeg dat onveilige KI ook kan lei tot die onbehoorlike klassifikasie van resultate, dataverlies, ekonomiese impak of fisiese skade.

"Met tradisionele sagteware kodeer ontwikkelaars algoritmes wat deur 'n persoon ondersoek kan word om uit te vind hoe om 'n kwesbaarheid te prop of 'n fout reg te stel deur na die bronkode te kyk," het Shea gesê."Met KI word 'n groot deel van die logika egter geskep uit data self, geïnkodeer in datastrukture soos neurale netwerke en dies meer. Dit lei tot stelsels wat "swart bokse" is wat nie ondersoek kan word om kwesbaarhede te vind en reg te stel nie. soos gewone sagteware."

Dangers Ahead?

Terwyl KI in rolprente soos The Terminator uitgebeeld is as 'n bose mag wat van plan is om die mensdom te vernietig, kan die werklike gevare meer prosaïes wees, meen kenners. Rayna stel byvoorbeeld voor dat KI ons dommer kan maak.

“Dit kan mense ontneem om hul brein op te lei en kundigheid te ontwikkel,” het hy gesê. “Hoe kan jy 'n kenner in waagkapitaal word as jy nie die meeste van jou tyd spandeer om aansoeke vir beginondernemings te lees nie? Erger nog, KI is berug 'swart boks' en min verklaarbaar. Om nie te weet hoekom 'n spesifieke KI-besluit geneem is nie, beteken dat daar baie min sal wees om daaruit te leer, net soos jy nie 'n kundige hardloper kan word deur op 'n Segway in die stadion rond te ry nie."

Dit is moeilik om te sê of 'n KI wat goeie resultate lewer gevaarlik is, want dit is onmoontlik vir mense om te verstaan wat aangaan.

Miskien is die mees onmiddellike bedreiging van KI die moontlikheid dat dit bevooroordeelde resultate kan lewer, het Lyle Solomon, 'n prokureur wat skryf oor die regsimplikasies van KI, in 'n e-posonderhoud gesê.

"KI kan help met die verdieping van samelewingsskeidings. KI is in wese gebou uit data wat van mense ingesamel is," het Solomon bygevoeg. "[Maar] ten spyte van die groot data, bevat dit minimale subsets en sal dit nie insluit wat almal dink nie. Dus, data wat ingesamel word uit kommentaar, publieke boodskappe, resensies, ens., met inherente vooroordele sal KI diskriminasie en haat laat versterk."

Aanbeveel: