Living on the Edge: De 5 vigtigste fordele ved Edge Analytics

Forfatter: Lewis Jackson
Oprettelsesdato: 12 Kan 2021
Opdateringsdato: 23 Juni 2024
Anonim
Origins of Genus Homo–Australopiths and Early Homo; Variation of Early Homo; Speciation of Homo
Video.: Origins of Genus Homo–Australopiths and Early Homo; Variation of Early Homo; Speciation of Homo

Indhold


Tag væk:

Mens kantanalyse har givet teknologien til at udnytte IoT på en smartere, bedre måde, strækker dens løfte faktisk ud over IoT til kanten af ​​et mere traditionelt dataøkosystem.

Edge-analyse - eller analyse af data tættere på, hvor de er indsamlet - er en relativt ny idé inden for dataanalyse, og i det mindste hidtil har vi oftest hørt de henvist til i forbindelse med IoT. Når alt kommer til alt, i en verden med sensorer overalt og en stigende mængde data, der strømmer ind, tilbyder kantanalyse en måde at hente værdi fra data på en måde, der er hurtigere, enklere og i mange tilfælde mere praktisk. Men mens kantanalyse har givet teknologien til at udnytte IoT, strækker dens løfte sig faktisk ud over IoT til kanten af ​​et mere traditionelt dataøkosystem. Her kan du godt se på fordelene ved at behandle data på kanten over at lagre dem og anvende mere traditionel analyse, og hvorfor mange organisationer begynder at søge muligheden for at vælge mellem disse to muligheder, der passer til deres behov.


Nogle data er ikke værd at gemme

I de tidlige dage med big data handlede organisationer om indsamling af data. Den kollektive visdom på det tidspunkt var, at indsamling af data var en god ting, selvom det ikke kunne analyseres fuldt ud. Problemet er, at da dataindsamlingen blev bedre, begyndte datamængderne at eksplodere. Ifølge en rapport udgivet af forskningsorganisationen SINTEF i 2013 var 90% af alle verdensdata blevet genereret i løbet af de foregående to år. Ifølge IDC oprettes 1,7 megabyte med ny information hvert sekund for hver person på planeten i 2020. Det udgør cirka 44 zettabyte data.

Efterhånden som de samlede data blev spørgsmålet åbenlyst: Hvad skal vi faktisk? gøre med alle disse oplysninger? Desværre svarer svaret til tider meget lidt. En undersøgelse, der blev frigivet af Pricewaterhouse Coopers og Iron Mountain i 2015, fandt, at 43% af de undersøgte virksomheder opnåede "lidt konkret fordel" af de data, de indsamlede. Yderligere 23% viste sig at have "ingen fordele overhovedet." Hvad organisationer i stigende grad lærer, er at selvom dataindsamling har store fordele, er ikke alle data nyttige, og ikke alle data er værd at opbevare, især når de strømmer fra det utal af sensorer, vi kalder "IoT."

"Meget af de data, der kommer fra IoT, er muligvis ikke nødvendigvis data, som vi er nødt til at opbevare på atomniveau," sagde Shawn Rogers, direktør for global marketing og kanaler for Dell Statistica.


"Jeg tror, ​​at alle nyder evnen til at opbevare flere data, analysere flere data og få rigere og dybere indsigt fra alle disse enorme mængder information. Når det er sagt, bare fordi du kan, betyder det ikke, du skal."

Fordi kantanalyse giver organisationer mulighed for at analysere data tættere på, hvor de faktisk forekommer, giver det mulighed for at tage beslutninger, inden data sendes ud for at blive gemt. Som et resultat kan det reducere behovet for at gemme og konsolidere så mange data. Da datagenerering og -indsamling fortsætter med at udvide, er det bestemt en god ting.

Agility tæller

Der er en anden fordel ved at analysere data tættere på deres kilde: smidighed. I nogle tilfælde er data meget mere nyttige i realtid. Dette gælder især de data, der strømmer fra IoT-sensorer. Fabrikssensorer, medicinsk udstyr, applikationer til handel og svig, og systemovervågning, blandt mange andre eksempler, leverer alle data, der muligvis skal adresseres på en hurtigere og mere lydhør måde. Denne såkaldte "streambehandling" er vigtig i applikationer, hvor data skal behandles hurtigt og / eller kontinuerligt. Når forretningstempoet stiger, bliver denne kapacitet mere en nødvendighed i mange brancher.

"Som forbruger af analyser vil jeg have evnen til at tage strategiske beslutninger om, hvilke data de skal investere i i det lange løb, og hvilke data der skal udledes værdi fra med det samme, om hvilke data der er værd at opbevare og hvilke data der ikke er værd at opbevare," sagde Rogers .

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

"Jeg synes, at flytte analytics til data i stedet for altid at flytte data til analytics er en vigtig afhentning, og jeg tror, ​​det er et krav, som de fleste kunder vil have, når analytics bliver mere spredt."

Lagring af data er dyre

I de tidlige dage med store datalagring indsamlede mange organisationer en masse data med en idé om, at det kunne være nyttigt en dag. Problemet er, at dataindsamling og -lagring har en omkostning, der ofte ikke formindskes med den værdi, der stammer fra disse data.

”Det, vi har set i det sidste årti, var mennesker, der stod op i Hadoop-klynger, lægger data ind i dem og tænker, at det kunne være nyttigt en dag ... og derefter hurtigt finde ud af, at selv med fordelen ved nogle Hadoop-teknologier koster indsamling af data stadig meget penge, ”sagde Rogers.

Edge-analyse giver en måde at ikke kun give organisationer mulighed for at reagere på data hurtigere, men at skabe en bedre proces omkring deres dataindsamling og analyse. Edge-analyse giver også organisationer mulighed for at vælge, hvilke data de skal opbevare til længerevarende, dybere analyse. Dette kan gøre data lettere - og billigere - at administrere.

Data bliver mere distribueret

Dagene med at opbevare data et enkelt sted er sandsynligvis forbi. Det skaber et behov for at implementere, styre og optimere analyser omkring forskellige platforme samt på tværs af de forskellige områder, hvor data forekommer, såsom IoT-sensorer.

"Hvis du vil distribuere dine data rundt på forskellige platforme som Hadoop sky eller analytiske apparater osv., Har du virkelig brug for denne fleksibilitet for at flytte analysen til dataene. Edge analytics er ikke kun for kanten af ​​IoT, det tager analytics til kanten af ​​et mere traditionelt dataøkosystem, ”sagde Rogers.

Mindre data (og kompleksitet) kan være mere

Indtil for nylig handlede samtalen omkring indsamling, lagring og analyse af big data om indsamling af data fra kildesystemer og kørsel ind i et datavarehus. Men ikke kun er et datavarehus stadig mindre i stand til at holde trit med analysenes stress, disse systemer udgør problemer omkring kompleksitet og sikkerhed, fordi de involverer transport af data over store netværk for at analysere det.

"Der er meget kompleksitet i alt det arbejde, der går i at flytte data fra punkt A til punkt B, som vi kan bruge. Edge-analyse giver os mulighed for at tage beslutninger om, hvorvidt vi vil flytte dataene til et sted for analyse eller hvis vi gerne vil placere analyserne, hvor dataene er, ”sagde Rogers.

Med andre ord giver kantanalyse flere muligheder med hensyn til, hvordan data bruges, og hjælper med at bevare de ressourcer, der er bedst egnet til dybere dataanalyse.

"Edge-analyse påvirker bestemt verdenen af ​​datastyring, og hvordan vi flytter data fra et sted til et andet. Den anden ting, det gør, er at give kunderne mulighed for at vælge, hvilken platform der fungerer bedst og give dem svarene som hastigheden på deres forretning."