Hvordan virtualisering driver effektivitet

Forfatter: Robert Simon
Oprettelsesdato: 23 Juni 2021
Opdateringsdato: 1 Juli 2024
Anonim
How to Update Drivers on Windows 10
Video.: How to Update Drivers on Windows 10

Indhold


Tag væk:

Der er stadig et par rynker, der skal stryges, men it-fagfolk er begejstrede for virtualiseringer uden grænser.

Når energiomkostningerne stiger, og kontorlokalet falder, er energi- og pladsbesparende løsninger en absolut præmie. Med hensyn til ren økonomi virker implementering af en total migration til et virtualiseret miljø lidt overflødigt. Generelt set er virtualisering mødt med entusiasme i it-branchen. Der er stadig et par rynker, men det er det ubegrænsede potentiale, der har folk virkelig begejstrede. Her kigger vi på fordele og ulemper og lader dig beslutte.

Lidt historie om virtualisering

Ifølge VMwares officielle hjemmeside begyndte praktiseringen af ​​virtualisering i 1960'erne, da IBM forsøgte at bedre opdele mainframe-computere i et forsøg på at øge CPU-udnyttelsen. Slutresultatet var en mainframe, der samtidig kunne udføre flere operationer. Da starten af ​​1980'erne og 90'erne blev x86-arkitekturen den valgte arkitektur, da distribueret computing virkelig begyndte at få fat i IT-branchen. Spredningen af ​​x86-arkitekturen forårsagede effektivt en masseudvandring fra virtualisering, da server-klientmodellen begyndte en hurtig stigning i popularitet.

I 1998 blev VMware grundlagt af en gruppe forskere fra University of California Berkley, der forsøgte at tackle nogle af manglerne ved x86-arkitekturen. Blandt disse mangler var et koncept kendt som utilstrækkelig CPU-anvendelse. Inden for mange implementeringer af x86-arkitektur er CPU-udnyttelsen i gennemsnit mellem 10 og 15 procent af den samlede kapacitet. En af de primære årsager til dette involverer praksis med at køre en server pr CPU for at øge ydelsen af ​​hver enkelt server. Dette forbedrede ydelsen, men på bekostning af hardwareeffektiviteten.

Fordele ved virtualisering

Der er ingen tvivl om, at virtualisering er blevet meget populær inden for it-branchen, men hvorfor? Nogle af de mere indlysende årsager involverer øget CPU-udnyttelse, øget pladsudnyttelse og evnen til at standardisere serveropbygninger. Med hensyn til CPU-udnyttelse oversættes flere servere på en fysisk maskine typisk til mere arbejde, der udføres af CPU'en. Så snarere end at modtage al webtrafik på en maskine, al SMTP-trafik på en anden maskine og al FTP-trafik på endnu en anden, er det muligt at modtage al nævnte trafik på en fysisk maskine og derved øge CPU-udnyttelsen. At gøre dette med succes medfører brug af en vis skøn ved at placere flere virtuelle maskiner på en værtsmaskine, da dette scenarie har potentialet til at reducere ydelsen.

CPU-anvendelsen, der leveres af virtualisering, påvirker indirekte pladsudnyttelsen. Husk det ovennævnte scenarie, hvor flere servere er placeret på en fysisk maskine, er det en grund til, at med virtualisering er der behov for færre fysiske maskiner, og at der som et resultat forbruges mindre plads.

Endelig egner virtualisering sig ret let til begreberne kloning, ghosting, snapshots og enhver anden type replikerende software, der i øjeblikket er tilgængelig. Værdien i dette stammer fra spillerummet, det giver en systemadministrator til at oprette billeder af ethvert operativsystem på netværket. Oprettelse af brugerdefinerede billeder giver en systemadministrator mulighed for at oprette en standardopbygning, der kan replikeres i hele netværket. Den tid, dette sparer, når du konfigurerer yderligere servere, er uvurderlig. (For at lære mere, se Server virtualisering: 5 bedste fremgangsmåder.)

Virtualisering Ulemper

De fleste af de etablerede ulemper ved virtualisering vedrører primært sikkerhed. Den første, og måske vigtigste ulempe, involverer begrebet enkelt mislykket punkt. Kort sagt, hvis en organisations webserver, SMTP-server og enhver anden form for server alle er på den samme fysiske maskine, behøver en initiativrig ung hacker kun at udføre et benægtelse af tjeneste-angreb på den værtsmaskine for at deaktivere flere servere inden for et netværks serverinfrastruktur. At lukke en organisations webserver kan være ødelæggende i sig selv, men at tage flere servere ud kan være positivt katastrofalt.

For det andet er en almindelig sikkerhedspraksis at placere et intrusionsdetekteringssystem (IDS) på flere netværksgrænseflader inden for et givet netværk. Hvis de er konfigureret korrekt, kan IDS være et nyttigt værktøj, når du studerer trends, heuristik og andre sådanne aktiviteter i netværket. Dette bliver imidlertid næsten umuligt i et virtualiseret miljø, hvor flere operativsystemer er placeret på en værtsmaskine på grund af det faktum, at indtrængende detektionssystemer kun er i stand til at overvåge fysiske netværksgrænseflader. Med andre ord fungerer IDS som en charme, når man overvåger indtrængen og udtræder trafik på det fysiske netværksgrænseflade, men når trafikken bevæger sig mellem virtuelle servere, hører IDS kun andet end crickets i skoven. (For relateret læsning, se The Dark Side of the Cloud.)

Et must for det

De fleste virksomheds indsats for at forblive flydende teknologisk har skabt en umættelig tørst efter mere kapacitet og mere ydelse. I betragtning af behovet for at gøre mere med mindre, bør det ikke overraske, at virtualisering hurtigt er blevet en hæfteklamme i systemadministrationen. Indtil en ny innovation inden for CPU-arkitektur tager IT-verdenen med storm, vil virtualisering fortsat blive betragtet som et absolut must inden for ethvert hæderligt it-netværk.