edderkop

Forfatter: Peter Berry
Oprettelsesdato: 18 August 2021
Opdateringsdato: 1 Juli 2024
Anonim
Børnesang med Zik og Zak: Lille Peter Edderkop
Video.: Børnesang med Zik og Zak: Lille Peter Edderkop

Indhold

Definition - Hvad betyder Spider?

I forbindelse med Internettet er en edderkop en specialiseret software designet til systematisk at gennemgå og gennemse World Wide Web normalt med det formål at indeksere websider for at give dem som søgeresultater for brugersøgeforespørgsler. Den mest berømte af sådanne edderkopper er Googlebot, Googles vigtigste crawler, som hjælper med at sikre, at relevante resultater returneres til søgeforespørgsler.


Edderkopper er også kendt som webcrawlere, søgebots eller blot bots.

En introduktion til Microsoft Azure og Microsoft Cloud | Gennem denne vejledning lærer du, hvad cloud computing handler om, og hvordan Microsoft Azure kan hjælpe dig med at migrere og drive din virksomhed fra skyen.

Techopedia forklarer Spider

En edderkop er i det væsentlige et program, der bruges til at høste information fra World Wide Web. Det gennemsøger gennem siderne på websteder, der udtrækker information og indekserer dem til senere brug, normalt til resultater af søgemaskiner. Edderkoppen besøger websteder og deres sider gennem de forskellige links til og fra siderne, så en side uden et enkelt link går til det vil være vanskeligt at indeksere og kan være rangeret rigtig lavt på søgeresultatsiden. Og hvis der er mange links, der peger på en side, ville dette betyde, at siden er populær, og at den vises højere oppe i søgeresultaterne.


Trin involveret i webcrawling:

  • Edderkoppen finder et sted og begynder at gennemsøge siderne.
  • Edderkoppen indekserer ordets og indholdet på webstedet.
  • Edderkoppen besøger de links, der findes på webstedet.

Edderkopper eller webcrawlers er bare programmer, og som sådan følger de systematiske regler, der er fastlagt af programmererne. Ejere af websteder kan også komme ind på dette ved at fortælle edderkoppen, hvilke dele af webstedet der skal indekseres, og hvilke ikke bør. Dette gøres ved at oprette en "robots.txt" -fil, der indeholder instruktioner til edderkoppen om, hvilke dele der skal indekseres og links, der skal følges, og hvilke den skal ignorere. De mest betydningsfulde edderkopper derude er dem, der ejes af større søgemaskiner som Google, Bing og Yahoo, og dem, der er beregnet til datamining og forskning, men der er også nogle ondsindede edderkopper skrevet for at finde og indsamle s, som brugeren kan sælge til reklame virksomheder eller for at finde sårbarheder inden for websikkerhed.