Archivace internetu

Archivace internetu je proces sbírání části obsahu internetu a zajištění, že sbírané objekty jsou dlouhodobě uchovávány a zpřístupňovány pro budoucí badatele, historiky a veřejnost. Archivování internetu se obvykle provádí automaticky pomocí robotu (web crawlers). Největší institucí, která se archivací internetu zabývá je Internet Archive, v česku WebArchiv.

Sběr webu

[editovat | editovat zdroj]

Archivují se obvykle všechny součásti obsahu internetu, včetně HTML, stylů CSS, JavaScriptu, digitálních obrázků a multimediálních souborů. Také se skladují metadata související s těmito objekty, jako jsou informace o tom, kdy byl objekt získán, jakého je typu, jakou technologií byl sklizen, jak je velký atp. Metadata jsou důležitá pro určení autenticity a původnosti dat.

Nejčastěji se internet sbírá pomocí robotů, které vidí stránky podobně jako uživatel. Používané roboty jsou například:

Související články

[editovat | editovat zdroj]

Externí odkazy

[editovat | editovat zdroj]