AI kan menslike redenasie inhaal

INHOUDSOPGAWE:

AI kan menslike redenasie inhaal
AI kan menslike redenasie inhaal
Anonim

Sleutel wegneemetes

  • Navorsers het tegnieke geskep waarmee gebruikers die resultate van 'n masjienleermodel se gedrag kan rangskik.
  • Kenners sê die metode wys dat masjiene besig is om mense se denkvermoë in te haal.
  • Vooruitgang in KI kan die ontwikkeling van rekenaars se vermoë om taal te verstaan bespoedig en die manier waarop KI en mense met mekaar omgaan, rewolusie.
Image
Image

'n Nuwe tegniek wat die redenasiekrag van kunsmatige intelligensie (KI) meet, wys dat masjiene besig is om mense in te haal in hul vermoëns om te dink, sê kenners.

Navorsers by MIT en IBM Research het 'n metode geskep wat 'n gebruiker in staat stel om die resultate van 'n masjienleermodel se gedrag te rangskik. Hul tegniek, genaamd Shared Interest, sluit maatstawwe in wat vergelyk hoe goed 'n model se denke ooreenstem met mense s'n.

"Vandag is KI in staat om menslike prestasie te bereik (en in sommige gevalle te oortref) in spesifieke take, insluitend beeldherkenning en taalbegrip," Pieter Buteneers, direkteur van ingenieurswese in masjienleer en KI by die kommunikasie maatskappy Sinch, het in 'n e-posonderhoud aan Lifewire gesê. "Met natuurlike taalverwerking (NLP) kan KI-stelsels tale sowel as mense interpreteer, skryf en praat, en die KI kan selfs sy dialek en toon aanpas om by sy menslike eweknieë te pas."

Artificial Smarts

AI lewer dikwels resultate sonder om te verduidelik hoekom daardie besluite korrek is. En gereedskap wat kundiges help om sin te maak van 'n model se redenasie verskaf dikwels net insigte, slegs een voorbeeld op 'n slag. KI word gewoonlik opgelei deur miljoene data-insette te gebruik, wat dit vir 'n mens moeilik maak om genoeg besluite te evalueer om patrone te identifiseer.

In 'n onlangse referaat het die navorsers gesê dat gedeelde belangstelling 'n gebruiker kan help om neigings in 'n model se besluitneming te ontbloot. En hierdie insigte kan die gebruiker toelaat om te besluit of 'n model gereed is om ontplooi te word.

“In die ontwikkeling van Gedeelde Belang, is ons doel om hierdie ontledingsproses op te skaal sodat jy op 'n meer globale vlak kan verstaan wat jou model se gedrag is,” Angie Boggust, 'n mede-outeur van die koerant, in die nuusverklaring gesê.

Gedeelde belangstelling gebruik 'n tegniek wat wys hoe 'n masjienleermodel 'n spesifieke besluit geneem het, bekend as opvallende metodes. As die model beelde klassifiseer, beklemtoon opvallende metodes areas van 'n beeld wat belangrik is vir die model wanneer dit sy besluit neem. Gedeelde belangstelling werk deur opvallende metodes met mensgegenereerde aantekeninge te vergelyk.

Navorsers het Gedeelde Belangstelling gebruik om 'n dermatoloog te help bepaal of hy 'n masjienleermodel moet vertrou wat ontwerp is om kanker te help diagnoseer uit foto's van velletsels. Gedeelde belangstelling het die dermatoloog in staat gestel om vinnig voorbeelde van die model se korrekte en verkeerde voorspellings te sien. Die dermatoloog het besluit hy kan nie die model vertrou nie, want dit het te veel voorspellings gemaak op grond van beeldartefakte eerder as werklike letsels.

“Die waarde hier is dat die gebruik van Gedeelde Belang, ons in staat is om te sien dat hierdie patrone in ons model se gedrag na vore kom. Binne ongeveer 'n halfuur kon die dermatoloog besluit of hy die model moet vertrou of nie en of hy dit moet ontplooi of nie,” het Boggust gesê.

Die redenasie agter 'n model se besluit is belangrik vir beide masjienleernavorser en die besluitnemer.

Meet vordering

Die werk deur MIT-navorsers kan 'n belangrike stap vorentoe wees vir KI se vordering in die rigting van menslike vlak intelligensie, het Ben Hagag, hoof van navorsing by Darrow, 'n maatskappy wat masjienleeralgoritmes gebruik, gesê dit het in 'n e-posonderhoud aan Lifewire gesê.

“Die redenasie agter 'n model se besluit is belangrik vir beide masjienleernavorser en die besluitnemer,” het Hagag gesê. "Eersgenoemde wil verstaan hoe goed die model is en hoe dit verbeter kan word, terwyl laasgenoemde 'n gevoel van vertroue in die model wil ontwikkel, daarom moet hulle verstaan hoekom daardie uitset voorspel is."

Maar Hagag het gewaarsku dat die MIT-navorsing gebaseer is op die aanname dat ons menslike begrip of menslike redenasie verstaan of kan annoteer.

“Daar is egter 'n moontlikheid dat dit dalk nie akkuraat is nie, so meer werk om menslike besluitneming te verstaan is nodig,” het Hagag bygevoeg.

Image
Image

Vooruitgang in KI kan die ontwikkeling van rekenaars se vermoë om taal te verstaan versnel en die manier waarop KI en mense met mekaar omgaan, rewolusie, het Buteneers gesê. Chatbots kan honderde tale op 'n slag verstaan, en KI-assistente kan teksliggame skandeer vir antwoorde op vrae of onreëlmatighede.

“Sommige algoritmes kan selfs identifiseer wanneer boodskappe bedrieglik is, wat besighede en verbruikers kan help om strooiposboodskappe uit te roei,” het Buteneers bygevoeg.

Maar, het Buteneers gesê, KI maak steeds 'n paar foute wat mense nooit sou doen nie. "Terwyl sommige bekommerd is dat KI menslike werke sal vervang, is die realiteit dat ons altyd mense sal nodig hê wat saam met KI-bots werk om hulle in toom te hou en hierdie foute in toom te hou terwyl hulle 'n menslike aanraking in besigheid behou," het hy bygevoeg.

Aanbeveel: