Disse smertepunkter forhindrer virksomheder i at anvende dyb læring

Forfatter: Roger Morrison
Oprettelsesdato: 23 September 2021
Opdateringsdato: 1 Juli 2024
Anonim
Disse smertepunkter forhindrer virksomheder i at anvende dyb læring - Teknologi
Disse smertepunkter forhindrer virksomheder i at anvende dyb læring - Teknologi

Indhold


Kilde: Agsandrew / Dreamstime.com

Tag væk:

Deep learning har meget at tilbyde virksomheder, men mange er stadig tøvende med at vedtage den. Her ser vi på nogle af dets største smertepunkter.

Deep learning er et underfelt i maskinlæring, der (generelt set) er teknologi, der er inspireret af den menneskelige hjerne og dens funktioner. Først introduceret i 1950'erne informeres maskinindlæring kumulativt af det, der er kendt som det kunstige neurale netværk, en overflod af sammenkoblede dataknudepunkter, der samlet danner grundlaget for kunstig intelligens. (Se Grundlæggende om maskinlæring ved at tjekke Machine Learning 101.)

Maskinlæring tillader i det væsentlige computerprogrammer at ændre sig selv, når de bliver bedt om af eksterne data eller programmering. Af natur er det i stand til at opnå dette uden menneskelig interaktion. Det deler lignende funktionalitet med data mining, men med udvindede resultater, der skal behandles af maskiner snarere end mennesker. Det er opdelt i to hovedkategorier: overvåget og uovervåget læring.


Overvåget maskinlæring involverer inferensen af ​​forudbestemte operationer gennem mærkede træningsdata. Med andre ord er overvågede resultater på forhånd kendt af den (menneskelige) programmerer, men systemet, der udleder resultaterne, er trænet til at ”lære” dem. Uovervåget maskinlæring trækker derimod konklusioner fra umærkede inputdata, ofte som et middel til at registrere ukendte mønstre.

Dyb læring er unik i sin evne til at træne sig selv gennem hierarkiske algoritmer i modsætning til de lineære algoritmer ved maskinlæring. Dybe læringshierarkier bliver mere og mere komplekse og abstrakte, når de udvikler sig (eller "lærer") og stoler ikke på overvåget logik. Kort sagt er dyb læring en meget avanceret, nøjagtig og automatiseret form for maskinlæring og er i forkant med kunstig intelligens teknologi.

Forretningsapplikationer af Deep Learning

Maskinindlæring er allerede ofte brugt i flere forskellige brancher. Sociale medier bruger f.eks. Det til at sammenstille indholdsfeeds i brugerens tidslinjer. Google Brain blev grundlagt for flere år siden med det formål at fremstille dyb læring på tværs af Googles udvalg af tjenester, når teknologien udvikler sig.


Med sit fokus på forudsigelig analyse er markedsføringsfeltet især investeret i dyb læringsinnovation. Og da dataakkumulering er det, der driver teknologien, er brancher som salg og kundesupport (som allerede har et væld af rige og forskellige kundedata) unikt placeret til at anvende dem på jordniveau.

Tidlig tilpasning til dyb læring kunne meget vel være den afgørende faktor for, hvor meget specifikke sektorer der drager fordel af teknologien, især i de tidligste faser. Ikke desto mindre holder nogle få specifikke smertepunkter mange virksomheder i stand til at tage springet ind i dyb læringsteknologiinvesteringer.

V'erne for Big Data og Deep Learning

I 2001 skitserede en analytiker for META Group (nu Gartner) ved navn Doug Laney, hvad forskere opfattede som de tre største udfordringer ved big data: volumen, variation og hastighed. Over halvandet årti senere har den hurtige stigning i adgangspunkter til internettet (hovedsagelig på grund af spredning af mobile enheder og stigningen i IoT-teknologi) bragt disse spørgsmål på forkant for store teknologiselskaber såvel som mindre virksomheder og startups både. (Se Dagens Big Data-udfordring, der stammer fra variation, ikke volumen eller hastighed for at lære mere om de tre v'er).

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

Den seneste statistik over global dataforbrug er svimlende. Undersøgelser viser, at omtrent 90 procent af alle verdens data kun blev oprettet inden for de sidste par år. Verdensomspændende mobiltrafik udgjorde ca. syv eksabyte pr. Måned i løbet af 2016 ifølge et skøn, og antallet forventes at stige med syv gange inden for det næste halve årti.

Ud over volumen er variation (den hurtigt stigende mangfoldighed i datatyper, når nye medier udvikler sig og udvides) og hastighed (den hastighed, hvormed elektroniske medier sendes til datacentre og hubs) er også vigtige faktorer for, hvordan virksomheder tilpasser sig det spirende felt af dyb læring. Og for at udvide den mnemoniske enhed er der blevet tilføjet flere andre v-ord til listen over big data smertepunkter i de senere år, herunder:

  • Validitet: Målingen af ​​inputdata nøjagtighed i big datasystemer. Ugyldige data, der ikke opdages, kan forårsage betydelige problemer såvel som kædereaktioner i maskinlæringsmiljøer.
  • Sårbarhed: Big data fremkalder naturligvis sikkerhedsproblemer, simpelthen i kraft af deres skala. Og selvom der er et stort potentiale, der ses i sikkerhedssystemer, der er aktiveret ved maskinlæring, bemærkes disse systemer i deres nuværende inkarnationer for deres manglende effektivitet, især på grund af deres tendens til at generere falske alarmer.
  • Værdi: At bevise den potentielle værdi af big data (i erhvervslivet eller andre steder) kan være en betydelig udfordring af en række årsager. Hvis nogen af ​​de andre smertepunkter på denne liste ikke kan adresseres effektivt, kan de faktisk tilføje negativ værdi til ethvert system eller organisation, måske endda med katastrofale effekter.

Andre alliterative smertepunkter, der er føjet til listen inkluderer variation, veracitet, flygtighed og visualisering - alle præsenterer deres egne unikke sæt udfordringer til big data-systemer. Og flere kan muligvis stadig tilføjes, når den eksisterende liste (sandsynligvis) aftager med tiden. Selvom det kan virke lidt foragtet for nogle, omfatter den mnemoniske “v” -liste alvorlige problemer, der konfronterer big data, der spiller en vigtig rolle i fremtiden for dyb læring.

Black Box-dilemmaet

En af de mest attraktive træk ved dyb læring og kunstig intelligens er, at begge er beregnet til at løse problemer, som mennesker ikke kan. De samme fænomener, der antages at tillade, at det imidlertid også præsenterer et interessant dilemma, der kommer i form af det, der er kendt som den "sorte kasse."

Det neurale netværk, der oprettes gennem processen med dyb læring, er så stort og så komplekst, at dets indviklede funktioner i det væsentlige er ubestridelige for menneskelig observation. Datavidenskabsmænd og -ingeniører kan have en grundig forståelse af, hvad der går ind i dybe læringssystemer, men hvordan de ofte når frem til deres outputbeslutninger, forbliver helt uforklarlige.

Selvom dette muligvis ikke er et væsentligt spørgsmål for f.eks. Marketingfolk eller sælgere (afhængigt af hvad de markedsfører eller sælger), kræver andre brancher en vis mængde procesvalidering og begrundelse for at få brug af resultaterne. Et finansselskabsfirma kan for eksempel bruge dyb læring til at etablere en meget effektiv kreditvurderingsmekanisme. Men kreditresultater skal ofte komme med en slags verbal eller skriftlig forklaring, som ville være vanskeligt at danne, hvis den faktiske kreditvurderingsligning er helt uigennemsigtig og uforklarlig.

Dette problem strækker sig også til mange andre sektorer, især inden for rammerne af sundhed og sikkerhed. Medicin og transport kunne begge tænkes på store måder ved dyb læring, men også står over for en betydelig hindring i form af den sorte kasse. Ethvert output resulterer i disse felter, uanset hvor gavnligt, det kunne kasseres fuldstændigt på grund af deres underliggende algoritmernes komplette uklarhed. Dette bringer os til det måske mest kontroversielle smertepunkt af dem alle ...

Regulering

I foråret 2016 vedtog Den Europæiske Union den generelle databeskyttelsesforordning (GDPR), som (blandt andet) giver borgerne "retten til en forklaring" for automatiserede beslutninger genereret af maskinlæringssystemer, der "væsentligt påvirker" dem. Reguleringen skal træde i kraft i 2018 og skaber foruroligelse blandt teknologivirksomheder, der investerer i dyb læring på grund af dens uigennemtrængelige sorte kasse, hvilket i mange tilfælde ville hindre en forklaring, der er givet af GDPR.

Den "automatiserede individuelle beslutningstagning", som GDPR agter at begrænse, er et væsentligt træk ved dyb læring. Men bekymring over denne teknologi er uundgåelig (og i vid udstrækning gyldig), når potentialet for forskelsbehandling er så stort og gennemsigtighed så lavt. I USA regulerer Food and Drug Administration på lignende måde test og markedsføring af medikamenter ved at kræve, at disse processer forbliver hørbare. Dette har præsenteret hindringer for den farmaceutiske industri, som det angiveligt er tilfældet for Massachusetts-baserede bioteknologiselskab Biogen, som er forhindret i at bruge ufortolkelige metoder til dyb læring på grund af FDA-reglen.

Konsekvenserne af dyb læring (moralsk, praktisk og videre) er hidtil uset og ærligt talt ganske dybe. Meget af bekymring omgiver teknologien hovedsageligt på grund af en kombination af dens forstyrrende potentiale og dens uigennemsigtige logik og funktionalitet.Hvis virksomheder kan bevise eksistensen af ​​håndgribelig værdi inden for dyb læring, der overskrider alle tænkelige trusler eller farer, kunne de hjælpe med at føre os gennem den næste kritiske fase af kunstig intelligens.