Hvorfor kvanteberegning kan være den næste tur på Big Data Highway

Forfatter: Judy Howell
Oprettelsesdato: 27 Juli 2021
Opdateringsdato: 11 Kan 2024
Anonim
Hvorfor kvanteberegning kan være den næste tur på Big Data Highway - Teknologi
Hvorfor kvanteberegning kan være den næste tur på Big Data Highway - Teknologi

Indhold


Kilde: Krishnacreations / Dreamstime.com

Tag væk:

Computerteknologi er kommet frem ad den samme vej i årtier, men kvanteberegning er en enorm afvigelse fra hvad der kom før den.

Den 28. september 2012 kørte New York Times en historie, "Australians Surge in Quest for New Class of Computer," om, hvad der ser ud til at være et gennembrud i løbet om at opbygge en fungerende kvantecomputer.

Selvom definitionen af ​​en kvantecomputer vil antyde mange læsere, er det tilstrækkeligt at sige, at en fungerende kvantecomputer vil være revolutionerende i teknologiens verden.

Computerteknologi ligger til grund for ændringerne i verden, som vi har oplevet de sidste 50 år - den globale økonomi, internettet, digital fotografering, robotik, smartphones og e-handel er alle afhængige af computere. Det er da vigtigt, at jeg tror, ​​at vi har en vis grundlæggende forståelse af teknologien for at forstå, hvor kvanteberegning kan føre os.


I begyndelsen var der ENIAC

Så lad os starte i begyndelsen. Den første elektroniske computer, der arbejdede, var den elektroniske numeriske integrator og computer, mere almindeligt kendt som ENIAC. Det blev udviklet på University of Pennsylvania's Moore School of Engineering under finansiering af den amerikanske hær for at beregne skyttebaner i 2. verdenskrig. (Ud over at være et teknisk vidunder, brændte ENIAC sporet for mange store it-projekter i årene siden, men det var for sent for 2. verdenskrig, der sluttede, før computeren blev afsluttet.)

Kernen i ENIACs processorkapacitet var vakuumrør - 17.468 af dem. Fordi et vakuumrør kun har to tilstande - slukket og tændt (også omtalt som 0/1) - vedtog computere binær aritmetik snarere end decimaltegn, hvor værdier går fra 0 til 9. Hver af disse individuelle repræsentationer kaldes en smule, forkortelse for "binært ciffer." (Se The Women of ENIAC: Programming Pioneers for at lære mere om ENIACs historie).


Det var åbenlyst nødvendigt, at der var en måde at repræsentere de tal, bogstaver og symboler, som vi er bekendt med, så et kodningsskema foreslået af American National Standards Institute (ANSI), kendt som American Standard Character Information Interchange (ASCII), blev til sidst standarden. Under ASCII kombinerer vi 8 bit for at danne en karakter eller byte under et forudbestemt skema. Der er 256 kombinationer, der repræsenterer tal, store bogstaver, små bogstaver og specialtegn.

Forvirret? Må ikke bekymre dig om det - den gennemsnitlige computerbruger har ikke behov for at kende detaljerne. Det præsenteres her kun som en byggesten.

Dernæst gik computere relativt hurtigt fra vakuumrør til transistorer (William Shockley og hans Bell Labs-team vandt Nobelprisen for udvikling af transistorer) og derefter evnen til at sætte flere transistorer på en chip for at skabe integrerede kredsløb. Det var ikke længe før disse kredsløb omfattede tusinder eller endda millioner af transistorer på en chip, som blev kaldt meget storskala integration. Disse kategorier: 1) vakuumrør, 2) transistorer, 3) IC'er og 4) VLSI betragtes som de fire generationer af hardwareudvikling, uanset hvor mange transistorer der kan sidde fast på en chip.

Ingen fejl, ingen stress - Din trinvis vejledning til oprettelse af livsændrende software uden at ødelægge dit liv

Du kan ikke forbedre dine programmeringsevner, når ingen er interesseret i softwarekvalitet.

I tiden siden ENIAC "gik i live" i 1946 og gennem disse generationer, har den underliggende anvendelse af den vakuumrørbaserede binære aritmetik forblevet på plads. Kvanteberegning repræsenterer en radikal afbrydelse fra denne metode.

Quantum Computing: The Big Break

Kvantecomputere udnytter kraften hos atomer og molekyler til at behandle og udføre hukommelsesopgaver med meget hurtigere hastighed end en siliciumbaseret computer ... i det mindste teoretisk. Selvom der er nogle grundlæggende kvantecomputere, der er i stand til at udføre specifikke beregninger, er en praktisk model sandsynligvis stadig flere år væk. Men hvis de dukker op, kunne de drastisk ændre computerens processorkraft.

Som et resultat af denne magt har kvanteberegning magten til at forbedre big data-behandling i vid udstrækning, fordi det i det mindste teoretisk skal udmærke sig ved den massivt parallelle behandling af ustrukturerede data.

Computere har fortsat med binær behandling af en grund: Der havde virkelig ikke været nogen grund til at tænke over noget, der virkede. Når alt kommer til alt, er computerbehandlingshastighederne fordoblet hver 18. måned til to år. I 1965 skrev Intel-vicepræsident Gordon Moore et papir, der detaljerede det, der blev kendt som Moores lov, hvor han erklærede, at tætheden af ​​processorer ville fordobles hvert andet år, hvilket resulterede i en fordobling af behandlingshastigheden. Selvom han havde skrevet, at han forudsagde, at denne tendens ville vare i 10 år, har den - bemærkelsesværdigt - fortsat til i dag. (Der har været et par computerepionerer, der har brudt den binære form. Lær mere i Why Not Ternary Computers?)

Men stigningen i behandlingshastighed har været langt fra den eneste faktor i forbedret computerydelse. Forbedringer i lagerteknologi og fremkomsten af ​​telekommunikation har været næsten lige så vigtige. I de tidlige dage med personlige computere indeholdt disketter 140.000 tegn, og den første harddisk, som jeg købte, indeholdt 10 millioner tegn. (Det kostede mig også $ 5.500 og var så stor som en stationær computer). Heldigvis er lagring blevet meget større i kapacitet, mindre i størrelse, hurtigere i overførselshastighed og meget, meget billigere.

Den store kapacitetsforøgelse gør det muligt for os at indsamle information i områder, som vi enten tidligere kun kunne ridse overfladen på eller overhovedet ikke dykke ned i. Dette inkluderer emner med en masse data, såsom vejr, genetik, sprogvidenskab, videnskabelig simulering og sundhedsforskning, blandt mange andre.

At give mening af Big Data

I stigende grad finder store dataudnyttelse, at det på trods af alle gevinster i den forarbejdningskraft, vi har gjort, det bare ikke er nok. Hvis vi vil være i stand til at give mening ud af denne enorme mængde data, som vi indsamler, har vi brug for nye måder at analysere dem og præsentere dem såvel som hurtigere computere til at behandle dem. Kvantecomputere er måske ikke klar til handling, men eksperter har set deres fulde udvikling som det næste niveau af computerforarbejdningskraft. Vi kan ikke sige med sikkerhed, men den næste store ændring i computerteknologi kan være en reel afvigelse fra siliciumchips, der har ført os indtil videre.