Crawl budget

Termin ten używany jest w odniesieniu do indeksowania stron WWW przez przeglądarki. Określa ilość url-i dopuszczonych do indeksowania i pobranych przez roboty przemierzające przestrzenie Internetu.

 

Ograniczony czas

 

W wypadku potężnych witryn WWW programy indeksujące najzwyczajniej nie mieszczą się w przewidzianym na wizytę czasie i nie odwiedzają wszystkich dostępnych podstron.

 

Witrynamusi mieć dobrze stworzoną strukturę linków wewnetrznych by ułatwić botom indeksację. Nie powinno być żadnej podstrony w ramach witryny która nie byłaby połączona z innymi stronami.

 

Ogólny stan sprzyjający szybkiej indeksacji nazywany jest crawl health, czyli zdrowie. Istotnymi właściwościami stanu zdrowia jest np. szybkość ładowania się plików całej strony internetowej do stanu najniższej z możliwych pełnej funkcjonalności dla internauty. A czas, w jakim odpowiada serwer strony, daje robotom więcej czasu na pobranie większej ilości danych o poszczególnych podstronach.

pozycjonowanie Olsztyn

Dwa parametry

 

Budżet indeksacji zawiera dwa elementy.

 

Crawl rate limit

Crawl budget to kompromis i syzyfowa praca, którą realizują crawlery. Aktywność nigdy się nie kończy. Przeglądarka, jeśli chce być na bieżąco, musi dzielić czas dostępności i zajętości serwera na wszystkie odwiedzane strony. Dlatego limitując czas na odwiedziny, optymalizuje wyniki pracy botów.

 

Crawl demand – określa jak często aplikacje indeksujące, łączą się z serwerem serwisu.

 

Dopiero balans obudwu zjawisk przesądza o pełnym obrazie. Chcąc zapewnić równowagę obu zdarzeń i podtrzymać ich stosunkowo znaczną wartość należy dbać o atrakcyjność witryny, czyli jej subiektywny współczynnik merytoryczny i wciąż monitorować warunki techniczne, które mogą ulec zmianie podczas np. przebudowy kodu źródłowego strony.

 

Ogólny stan sprzyjający szybkiej indeksacji nazywany jest crawl health, czyli zdrowie. Typowymi właściwościami stanu zdrowia jest np. szybkość ładowania się plików serwisu do stanu najniższej z możliwych pełnej funkcjonalności dla użytkownika. A czas, w jakim odpowiada serwer strony, daje robotom więcej czasu na pobranie większej ilości danych o poszczególnych podstronach.

 

Author: admin

Dodaj komentarz

Twój adres email nie zostanie opublikowany.