Autonome systemer og hæve mennesker fra at være Middleware: Spørgsmål og svar med Ben Nye, administrerende direktør for Turbonomic

Forfatter: Lewis Jackson
Oprettelsesdato: 12 Kan 2021
Opdateringsdato: 25 Juni 2024
Anonim
Autonome systemer og hæve mennesker fra at være Middleware: Spørgsmål og svar med Ben Nye, administrerende direktør for Turbonomic - Teknologi
Autonome systemer og hæve mennesker fra at være Middleware: Spørgsmål og svar med Ben Nye, administrerende direktør for Turbonomic - Teknologi

Indhold


Tag væk:

Vores samtale med Ben Nye, administrerende direktør for Turbonomic.

Måske har du hørt om autonom computing. Det henviser til en computer- eller systems evne til selvorganisering og selvstyring. Og indtil for nylig var det stadig lidt af en futuristisk pipedrøm. Vi ønskede at lære lidt mere om, hvordan et autonomt system fungerer, så vi talte med Ben Nye, administrerende direktør for Turbonomic og administrerende direktør for Bain Capital Ventures. Turbonomic (tidligere VMTurbo) gennemgik for nylig et genmærke for mere nøjagtigt at skildre, hvad deres software gør. Det nye navn inkorporerer Turbonomics kernetemaer i sin applikationsstyringsplatform: Turbo (realtidspræstation), autonom kontrol (selvorganiserende og styring af arbejdsmængder) og økonomiske principper (udbud og efterspørgsel). Her taler Ben om autonome systemer og vigtigheden af ​​automatisering i stadig mere komplekse, datadrevne miljøer.


Techopedia: Du har optrådt adskillige gange på Forbes Midas-listen for top venture capitalists (VCs). Som VC har du et interessant udsigtspunkt for at se hele teknologilandskabet med hvor meget verden har ændret sig gennem årene. Hvad overrasker dig, når du ser tilbage på, hvor meget ting der har ændret sig i datacentret?

Ben Nye: Det korte svar er, jeg tror, ​​at forandringshastigheden i datacentret virkelig er steget ud over alt, hvad folk så. Hvad der skete var denne udvikling af det softwaredefinerede datacenter og grundlæggende abstraktionen væk fra hardware. Det åbnede et helt vækstdrev inden for elementerne i software.

Så nu i stedet for at beskæftige sig med opdateringscyklusserne fra hardwareleverandører (som i lang tid næsten fungerede som en gateholder til datacentret), blev det nu bogstaveligt åbnet for elementet i, hvor hurtigt kan du oprette ideer - fordi software, virkelig er ideer. Uden begrænsningerne for idégenerering, har det været en meget spændende og sjov tid, men ændringshastigheden i datacentret og endda definitionen af ​​datacentret har udviklet sig materielt og hurtigere end nogensinde før.


Noget, som jeg finder meget interessant ved, er, at da vi gik til et softwaredefineret datacenter, blev alle controllere og API'er og drejeknapper i hardwareverdenen omdefineret i software. Hvad vi gjorde var at tænke på dette i form af en ny måde at drive ydelse og produktivitet på, hvilket ville være at tage applikationen og den ændrede efterspørgsel på denne applikation og binde dem til de omdefinerede controllere i software, fordi det i sidste ende er software til software.

Når du gør det, kan du nu fjerne den menneskelige mellemvare fra applikationslaget og infrastrukturlaget, fordi du nu for første gang kan binde dem direkte sammen - her er et vigtigt ord - autonomt, hvilket betyder bogstaveligt at tillade, at applikationerne er selvledende og selvorganiserende.

Det gør det også økonomisk i den forstand, at nu efterspørgslen finder udbud, og vi er fokuseret på en forbrugsmodel af IT, en økonomisk model i stedet for en allokeringsbaseret model eller forsyningsbaseret model. Det er en temmelig grundlæggende vri i historien om, hvordan IT eller en teknologibransjestyringsmodel skal køre. Og det resulterede i bedre ydelse og mere effektivitet med hensyn til omkostninger. Det gør også kunderne meget mere smidige og elastiske og gør måde bedre brug af arbejdskraft på markedet

Her er hvad der er så ironisk med hvad der skete i 2016 med alle de softwaredefinerede datacentre. Først overvåger du din hardware for at finde ud af, hvornår applikationerne går i stykker, hvilket betyder, at de krænkede en servicekvalitet eller en SLA, men mens vi bruger software til at finde fejlen, går vi tilbage til hardware til maskingenererede advarsler . Den anden ledetråd er, at vi tillader applikationer, der driver virksomheden at gå i stykker, og så den tredje er, at vi tager disse gentagende maskine-genererede advarsler, og vi overleverer disse advarsler til mennesker.

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

Dette skal være baglæns.

Og det var her, vi ønskede at ændre IT-styringsmodellen væk fra tildelinger eller gætte og tilbage til en efterspørgselsbaseret forbrugsbaseret model.

Læs: Det efterspørgselsdrevne datacenter - Hvad systemadministratorer kan lære af Wall Street

Techopedia: Nu hvor du nævner det, ja, vi laver softwaredefineret noget, men så sendes alarmerne bare til den langsomme del af processen, som som sagt, den menneskelige mellemvare.

Du nævnte udtrykket autonom. Kan du måske tale lidt mere om betydningen af ​​autonome systemer i it? I betragtning af navneændringen fra VMTurbo til Turbonomic gætter jeg på, at det er vigtigere, end de fleste er klar over.

Ben Nye: Absolut. Først og fremmest definitionen af autonom, når det anvendes til computing, er omkring systemer, der kan selvstyre og selvorganisere.

Så tænk på bayesiske netværk, tænk på søgealgoritmer, tænk på big data, som folk nu kalder "dyb læring". Det er former for kunstig intelligens. Det, jeg synes er mest interessant ved Turbonomic, er, at det er den ultimative form for kunstig intelligens, fordi applikationsarbejdsbyrderne træffer beslutninger autonomisk i software om, hvilke infrastrukturelementer de skal køre på, og hvornår de skal flytte sig selv, størrelse sig selv, starte og stoppe sig selv, klone sig selv. Det er virkelig, virkelig interessant - og det gør vi ved at udnytte den abstraktion og likviditet, der ydes af enten virtualisering, eller containere eller skyer.

Derefter, med en lignende abstraktion af alle de forskellige former for krav - så du kan have VM'er, du har containere, kan du have JVM'er - vi ser på alle disse former for efterspørgsel og alle disse former for levering og de er abstraherede. Så lad os efterspørgslen derefter vælge eller matche sig selv efter udbuddet. Og så, hvis de er på en fysisk vært, og det begynder at overbelaste, snarere end at begynde at lade det mislykkes og generere en advarsel og få applikationen, ved du, sprænge, ​​hvorfor ikke bare simpelthen lade den tage en beslutning om at flytte sig selv? Så længe du prisfastsætter i din beslutning - flytningen og omkostningerne til at flytte tilbage - så kan du faktisk tage langt mere interessante beslutninger om ressourcefordeling.

Techopedia: Jeg elsker analogi med udbud og efterspørgsel. I økonomisk teori er forsyningskilderne rettet på kort sigt og kan kun ændre sig over en lang periode. I det, du beskriver - hvis du bevarer den økonomiske analogi - ændrer du hele paradigmet. Det vil sige, du kan ændre udbuddet på kort sigt, ikke? Du har fuld fleksibilitet til faktisk at være mere effektiv og tænke på ressourceudnyttelsen som et marked og have et næsten effektivt marked i realtid?

Ben Nye: Du har ret. Det er en økonomisk model, der bliver det princip, som efterspørgslen finder udbud på, men at it styres ved hjælp af økonomiske principper. Og som John Maynard Keynes sagde, "I det lange løb er vi alle døde."

Techopedia: Jeg tror ikke, du ville møde nogen CIO lige nu, som ikke allerede er flyttet eller ikke seriøst overvejer at flytte flere ressourcer i skyen. Hvor ser du branchen gå i de kommende år?

Ben Nye: Jeg tror, ​​du vil se en række ændringer. Det er temmelig klart for os, at det ikke bliver en hel omformning af teknologi. Ligesom mainframe stadig er her, tror jeg ikke, du nogensinde vil se en 100% genformular. Mere end sandsynligt vil du se en hybridverden. Du har privat og offentligt, men jeg tror, ​​at offentligheden virkelig ville være offentlig multi-sky, ikke offentlig enkelt sky. Når man ser på de største spillere her, er der kun en håndfuld. Men når du rejser til Europa eller resten af ​​verden, ser du mange transportører, der også er skyer, og derfor synes jeg ikke, det er et stort spring, ikke? Det egentlige spørgsmål er dog, hvordan får kunderne de rigtige skyer til at køre deres arbejdsbelastning? Vores teori bag virksomheden er det enhver arbejdsbyrde skal kunne køre på enhver infrastruktur, overalt. Betydning til eller fra og til enhver tid, fordi husk, tiden er surrogat for efterspørgsel.

Så når efterspørgslen ændres, kan du måske briste til skyen. Eller hvis du vil flytte disse arbejdsmængder til skyen permanent, hvilke arbejdsbelastninger vil du trække tilbage i? For nu har du kapacitet i dit datacenter. Hvorfor betale to gange? Og en af ​​de ting, vi gør sammen med Verizon Intelligent Cloud Control, men også med andre miljøer, er at give kunderne mulighed for at basere deres beslutning om, hvor de skal køre disse arbejdsbelastninger, ikke kun på pris, fordi pris kan låse dig ind, men også vigtigere om applikationsydelse. Derefter kan du have andre overvejelser såsom pris, overholdelse eller datasuverænitet eller sikkerhed og andre ressourcer, der bare er grundlæggende omsættelige ressourcer på dette marked, vi beskriver.

Techopedia: Det er den økonomiske model?

Ben Nye: Ja. Så det hele går tilbage til den økonomiske model. Bare tænk på hvor logisk dette er. Det er ikke kun en analogi, det er faktisk også den måde, modellen fungerer på. Arbejdsmængderne har budget, og arbejdsmængderne ser på køteori og overbelastning, og det er derfor langt mere udvidet. Det er ikke en lineær prisstigning, når den begynder at stige; det går op eksponentielt og tvinger budgettet til at blive påvirket og derfor arbejdsbyrden for at tage en beslutning om at flytte.

Så længe du har abstraheret alle kompleksiteterne i datacentret, kan du nu handle IOPS med en XtremIO-boks, en ren opbevaringsboks og en Compellent-boks og en 3Par-boks, fordi de alle har forskellige IOPS-egenskaber, men applikationen kan køb derfor disse ressourcer efter eget valg. Det er ikke andet end at se på CPU eller vCPU, MEM eller vMEM, ikke? De kan alle sælges, så skal jeg løbe her eller her? Det betyder ikke noget! Den fælles råvare her er infrastrukturforsyning.

Den almindelige vare her er infrastrukturforsyningen, og grunden til at det betyder noget - jeg vil bruge en analogi - hvis du husker

tilbage i 1978 afregulerede vi flyselskaberne. Før det var hvert sæde det samme, vi prissatte dem alle de samme, og selvom det var logisk, var det forkert, for på forbrugssiden var betalingsvilligheden meget differentieret. Så sæderne var en vare, men ved at ændre fokus til efterspørgsel, prisen pr. Sæde - selvom sæderne var de samme - kunne du konstatere forskellig betalingsvillighed. Så hvad vi gjorde, var at vi tog ressourcen, der repræsenterede den fælles vare, offentliggjorde den på nettet - først var det Saber og Apollo, men så blev det Travelocity, Kayak og Priceline.

Pludselig, når du lader efterspørgslen vælge udbuddet, se og se hele industrien. Belastningsfaktorer steg, men udgifterne til flyvning faldt, og hele luftfartsinfrastrukturen, som vi har i dette land, blev moderniseret. Det var en stor fremgang. Åh, og forresten, hvis man ser på Priceline i dag, er det 70 milliarder dollars værd. Det er mere end noget flyselskab, og de ejer ikke et enkelt fly.

Techopedia: Interessant. Jeg har aldrig virkelig tænkt på det på den måde ...

Ben Nye: De ejer ikke et fly, de ejer ikke en port, de ejer ikke et sæde, de har ikke en pilot, ikke? Og så siger du: ”Men hvilke andre eksempler har vi på forsyningsbaseret centreret økonomi?” Lad os skifte. Hoteller er forsyningsbaserede, ikke? Du har et hotel, du kan ikke flytte det. Du har disse værelser men hvordan koster du disse værelser? Og sammen kommer Hotels.com, Expedia, og Travelclick osv. Og det samme skete. Du ser på restauranter, og du har OpenTable. Du ser på gule sider. fra Google. Du ser på klassificerede annoncer i aviserne, og de blev erstattet af eBay eller Craigslist.

Et af mine yndlingseksempler er Uber. Hvis du går rundt i en hvilken som helst by, ser du en linje med førerhus, der venter på folk, og så går du op til en anden del af den samme by, og der er en række mennesker, der venter på førerhuse. Og du tror, ​​det kan ikke være rigtigt. Derefter kommer Uber, der bruger smartphonen til at lade efterspørgslen drev levering. Nu, med Uber, har du 90% af efterspørgslen opfyldt inden for 10 minutter, mens 90% af efterspørgslen i taxaverdenen ikke er opfyldt inden for 10 minutter, og det er derfor, Ubers sidste runde var 62 milliarder dollars. Og husk, de ejer ikke en førerhus eller en bil!

Techopedia: Så i et typisk datacenter gør vi stort set det samme som at hylde et førerhus, ikke?

Ben Nye: Så tænk på det på denne måde: Arbejdsmængderne er budgetindehaverne, fordi det er grunden til, at vi byggede datacentret. Så de er faktisk dine mennesker i dette eksempel. Så har jeg denne ressource, denne fælles ressource, alt sammen abstraheret. Det kaldes forsyning, og det kan være overalt - det er alt under applikationens behov, fra serveren og computermiljøet ned til netværket, ned til lageret. Det, vi nu ønsker, er at sikre, at dette er et effektivt marked. Så disse budgetholdere skal være i stand til at handle autonomt, hvilket betyder autonomt og i realtid givet mængden af ​​ændring i efterspørgsel på selve arbejdsbyrden eller, i dette tilfælde, på applikationen. Derfor er dette meget analogt med efterspørgslen efter at finde udbud. Ved hjælp af dette system slutter du med langt bedre applikationsydelse, fordi du ikke venter på en flaskehals på menneskelig arbejdskraft for at svare på en maskine-genereret advarsel om at tage en pleje-beslutning om appen. Du gør det i stedet for i realtid. Og du gør det i skala, fordi disse institutioner, disse kunder, kører tusinder af apps om dagen, og de er nødt til at udføre.

Så for det første får du en meget bedre ydelsesoplevelse. Derudover har du ikke folk, der tilbringer deres dage som gørere. I stedet vender de tilbage til at være tænkere, og de tager ikke bare maskingenererede advarsler, de tænker på, at de faktisk kan hjælpe virksomheden. De tænker på mikrotjenestestrategien og hybrid- og multi-skystrategien og om softwaredefinerede netværk og netværksfunktioner og virtualisering - alle disse ting, der rent faktisk fremmer virksomheden og får dem ud af verdenen med break-fix-applikationer, der kan fodres, eller alarm reagerer.

Vi finder faktisk ud af, at overalt mellem 40% og 60% af datacentrets kapital er for meget til rådighed, og vi har råd til, at meget af det enten skal genfordeles - så man undgår køb af ny hardware - eller nedlægges og årsagen det der betyder så meget er -

Techopedia: Undskyld, lad mig tjekke dette, 40-60%? Beklager, dette nummer er forbløffende.

Ben Nye: Ja. Og hvad der er mere vigtigt er 14% af elektricitet i dette land forbruges af datacentre.

Techopedia: Så vi kunne spare 5-8% af landets hele elforbrug, hvis vi bare ikke overforsynte vores datacentre?

Ben Nye: Lad mig give dig noget sikkerhedskopi, der forklarer dig hvorfor, okay? Det går tilbage til en forsyningsbaseret økonomis verden. Først, når du har en ny applikation, og du kører en IT-butik, hvordan skal du størrelsen gøre den?

Techopedia: Ja, du går til arkitekten, og de gætter slags, ikke? Og så venter de, indtil det går i stykker.

Ben: Nemlig. Du går til branchen, og du har en samtale, og de ved intet, som du ikke kender. Så de gætter, og du gætter, og sammen prøver vi at gætte, hvad størrelsen skal være.

Så du vil tildele fire eller otte VCPU'er. Det, der er interessant, er, at allokering inkluderer en fysisk fod eller den virtuelle fod på en fysisk server. Hver gang en anmodning kommer fra denne applikation, bliver den i kø som fire eller otte VCPU. Det er i det væsentlige som at gå på en restaurant og sige, at du er en fest på fire eller otte, selvom du muligvis kun er en fest af en. Du bliver aldrig siddende.

Vi overfordeler med vores gætte, hvilket betyder, at vi får den dårligste ydelse, og at den er vidt dyre. Det er problemet nummer et. Problem nummer to er, at du nu ikke kan størrelsen af ​​din applikation nøjagtigt, hvilket giver anledning til spørgsmålet: hvordan placerer du det, hvis du ikke kan formatere det?

Du gætter igen. OK, så nu gætter vi på den første ting, vi gætter på den anden ting, så er der denne ting, der hedder VM sprawl, eller en VM uden efterspørgsel efter den. Det efterlades i sin tilstand i stedet for at blive fjernet, og det reserverer også hardware. Så hvad vi gør er at prøve at sammensætte alle disse ting i en menneskebaseret historisk kapacitetsmodel, og fordi vi kun kører det en eller to gange om året, er vi nødt til at opbygge en anden hæk i, så talte 20-30% afdækning fordi efterspørgsel stiger muligvis på alle disse apps, og så vil vi ”lukke klyngen”, fordi vi vil betragte den gruppe af værter som ”fulde”. Lige der har du nu låst så meget som halvdelen af ​​dit datacenterkapacitet, og det er overforsynet.

Techopedia: Det er som om du er klar til fiasko, ligesom der ikke er nogen mulig måde i det gamle paradigme at faktisk ikke overskydes eller ikke sprede ...

Ben Nye: Hvis alt hvad du ser og administrerer er infrastrukturforsyning, hvordan i verden ved du så, om du har tilstrækkelig forsyning til at være modstandsdygtig, hvis du ikke ser og forstår og i realtid binder efterspørgsel? Hvis alt hvad du ser er forsyning, hvordan ved du, om du har nok? Hvordan ved du, om du har for meget?

Techopedia: Nå, du ansætter sandsynligvis et par flere hoveder for at gætte nogle mere. Du bruger flere penge på at undersøge det problem, ikke?

Ben Nye: Og du afvikler stadig grundlæggende for store forsyninger i rækkefølgen af, kalder det halvt, og du køber hardware unødigt. Hele konceptet bag virtualiseringen i sin første øjeblikkelighed var rundt i stedet for at have en dedikeret stak hardware til hver eneste app. Jeg vil være i stand til at flytte disse arbejdsmængder mellem dedikerede stakke, og derfor var hele ideen at skaffe hardware til gennemsnittet af toppene i stedet for summen af ​​toppene for al den hardwarekapital.

Når du imidlertid nu tager autonom kontrol i realtid, ydelseskontrol, forbrugssiden af ​​VM eller container eller sky, og du tænker på det samme; hvad gør vi? Vi går ud, og vi stresstest hver eneste app, og der er tusinder - der er hundreder til tusinder af apps i et miljø afhængigt af kundens størrelse - og så går vi stresstest dem til CPU, for vCPU, for MEM, for vMEM, og så videre, at alle de forskellige elementer eller ressourcer ikke? Og så leverer vi igen baseret på summen af ​​toppe igen. Forskellen er, hvis du ikke har et forsinkelse eller en flaskehals forbundet med arbejdskraft, og du nu kan forsyne gennemsnittet af toppe, gæt hvad vi kan gøre? Vi kan administrere dette miljø aktivt, fordi alle apps ikke spider alle på én gang.

Techopedia: Wow. Thats virkelig komme tilbage til hvad virtualisering skulle være alt om i første omgang.

Ben: Dette er virtualisering eller containerisering 2.0: Realtid, autonom ydeevne kontrol.

Techopedia: Så hvis den gamle break-fix-loop er en forældet måde at tænke på, hvordan forklarer du det for den gennemsnitlige fyr på frontlinjen?

Ben Nye: Lad mig stille et simpelt spørgsmål: Hvorfor overvåger en?

Techopedia: Nå, du vil vide, hvad der går galt, eller når noget går galt, ikke?

Ben Nye: OKAY. Ja. Du vil vide, hvornår det går i stykker. Men hvorfor vil du lade det gå i stykker? Det er hele spørgsmålet. Se, du vil uundgåeligt have en vis overvågning for nogle afdelinger eller dele af dit datacenter, men grundlæggende, hvis jeg kan sikre mig, at mine applikationer kører udførligt i det, vi kalder den ønskede tilstand, hvilket er den rigtige mængde ressourcer til støtte dem i realtid, det er en langt bedre verden end at vente på overvågning og alarmering og forsøge at reagere på det.

Da virtualisering først gav anledning til de softwaredefinerede datacentre, var det en virkelig interessant fremgang, men de tog det et skridt for langt, fordi de kaldte sig fremtidens operativsystem for datacentre, og det var lige fra kassen, ikke? Men hvis du faktisk går hen og ser på de fem ting, som et operativsystem skal gøre, er det første ydelsesstyring. Så lad mig spørge dig, gør en hypervisor performance management?

Techopedia: Selvfølgelig ikke.

Ben Nye: Nej. Så den anden ting, det skal gøre, er ressourcetildeling. Så gør hypervisoren ressourcetildeling? Ingen.

Hvad med jobplanlægning? Hvad med forbehold? Hvad med planlægning? Nej, nej og nej. Så pludselig er du klar over, hvordan de opnåede dette, er at de genererer alarmer, og antallet af alarmer vokser og vokser, når vi bruger ressourcerne på et højere niveau, men også når vi opretter flere apps, og flere former for arbejdsbyrde og flere steder hvor de kan løbe. Pludselig knuser vi folk med alle disse alarmer.

Men den største ting er, at det, vi gør ved at få mennesker til at jage disse alarmer, vender sig mennesker ind i de moderne datacentre-operativsystemer, og det er underligt, fordi det viser sig, at folk sover. Mennesker har familier, folk tager ferie, og derfor kan folk ikke være operativsystemer, og det er derfor, hvad vi gjorde, vi har oprettet dette applikationspræstationskontrolsystem, Turbonomic, for at være i stand til at gøre nøjagtigt de fem ting. Vi er enige om, at hypervisoren er en god opfindelse og containere og skyer, men vi ser dem som udbydere af likviditet; de er ikke et operativsystem. Resten af ​​operativsystemet kommer fra at have et applikationspræstationskontrolsystem. Det gør disse ting, det gør performance management, ressourceallokering, jobplanlægning, reservationer og planlægning - det er hele værdien af ​​det, vi har. Derfor findes vi på markedet.

Techopedia: Fortæl mig, hvilken rolle du tror, ​​maskinlæring eller AI spiller i dette i løbet af det næste, du ved, to til fem år? Hvordan ændrer Turbonomic med AI datacentret?

Ben Nye: Der er nogle utrolige, interessante konklusioner, man kan foretage i alle slags forskellige miljøer. Jeg vil sige, at hvad der var ved at være langt mere præcist end det. Husk, at et af problemerne med store big datasæt er, at du har brug for tid til at udvikle disse data og derefter korrelere dem og trække konklusionerne på disse data.

Nogle gange trækker du den forkerte slutning, og det er meget svært at vide, hvor lang tid det tager for det store datasæt at aflære denne inferens, hvad enten det er rigtigt eller forkert. Derefter i slutningen er det stadig bagved med et menneske eller en form for statisk menneskelig arbejdskomponent for faktisk at tage en handling. I vores tilfælde er dette autonom intelligens. Det er ikke kun kunstig intelligens og disse arbejdsmængder, der virkelig træffer beslutninger på egen hånd i modellen, men du gør det med en vis præcision. Det er langt større end hvad der kan opnås med blot et stort datasæt.

Techopedia: Hvis du kunne forlade en hos den gennemsnitlige systemadministrator eller den gennemsnitlige datacenterarkitekt eller den gennemsnitlige CIO, hvor skal tingene være i det næste år eller to? Hvad er det, som folk ikke ved nu, at de har brug for at vide om 2017, 2018 og videre?

Ben Nye: Jeg tror, ​​det vigtigste er at huske, hvorfor vi gik ind i teknologiområdet; fordi vi grundlæggende er nysgerrige, og vi vil gøre det muligt for den amerikanske økonomi - eller enhver økonomi - at gøre mere med mindre. På den måde virksomhederne løber og ruller. Det kan ikke være rigtigt at holde sig til gårsdagens tilgang til en allokerings- eller forsyningsbaseret model, når den kræver, at vi kører i størrelsesordenen ca. 50% overforsyning, og i en applikationsverden med break-fix, og hvor vi har vendt vores arbejde fra tænkere til gørere.

Der er en bedre måde. Den bedre måde er at omfavne nye ideer og nye teknologier fra nye leverandører, der giver dig muligheden for at se på efterspørgselssiden af ​​ligningen, forbrugssiden af ​​en VM, en container, en sky og at køre mere præstabelt på mere skala med smartere arbejdskraft og bedre effektivitet i din kapital og fleksibilitet med hensyn til både smidighed og elasticitet på tværs af dine operationer ..

Derfor fandt jeg denne mulighed så overbevisende, at jeg ville køre den, og hvorfor jeg tror på den så fuldt ud.

Hvis du gerne vil have et gratis testdrev Turbonomic's Application Performance Control Platform, kan du downloade her.