Web harvesting: auteursrechtelijke implicaties en oplossingsrichtingen

Abstract

‘Web harvesting’ is het proces waarbij een web crawler – een gespecialiseerd computerprogramma – wordt ingezet om websites en internetpagina’s op geautomatiseerde wijze te verzamelen en toe te voegen aan een webarchief. Nederlandse erfgoedinstellingen gebruiken deze techniek bijvoorbeeld om websites aan hun collecties toe te voegen die op het Nederlandse publiek zijn gericht (‘nationale domeincrawl’). Web harvesting kan ook beperkt zijn tot specifiek geselecteerde websites die met een bepaald onderwerp of gebeurtenis samenhangen (‘beredeneerde selectie’). In Nederland gebeurt web harvesting thans enkel nog op kleine schaal. Web crawling gaat namelijk gepaard met talloze reproductiehandelingen, waarvoor vanuit auteursrechtelijk perspectief toestemming kan zijn vereist. Voor het herhaaldelijk en systematisch harvesten van grote hoeveelheden materiaal op het web is het verkrijgen van individuele toestemming een schier onmogelijke taak. Daarnaast willen erfgoedinstellingen het geharveste materiaal ook op een of andere manier ontsluiten om het gebruik voor algemene zin – toegang tot het digitale culturele erfgoed te bieden. Dit artikel onderzoekt tegen deze achtergrond, mede aan de hand van een rechtsvergelijking met het buitenland, welke oplossingsrichtingen er binnen het huidige auteursrechtelijke kader bestaan om web harvesting-activiteiten door erfgoedinstellingen op grotere schaal mogelijk te maken. Dit is nodig om gaten in de archivering van het online Nederlands erfgoed te voorkomen en het digitale culturele erfgoed voor het nageslacht te bewaren en beschikbaar te stellen.

Auteursrecht, frontpage, webharvesting

Bibtex

Article{nokey, title = {Web harvesting: auteursrechtelijke implicaties en oplossingsrichtingen}, author = {van Gompel, S. and Schumacher, L.D. and Senftleben, M.}, url = {https://www.ivir.nl/auteursrecht_2022_1/}, year = {0303}, date = {2022-03-03}, journal = {Auteursrecht}, issue = {1}, abstract = {‘Web harvesting’ is het proces waarbij een web crawler – een gespecialiseerd computerprogramma – wordt ingezet om websites en internetpagina’s op geautomatiseerde wijze te verzamelen en toe te voegen aan een webarchief. Nederlandse erfgoedinstellingen gebruiken deze techniek bijvoorbeeld om websites aan hun collecties toe te voegen die op het Nederlandse publiek zijn gericht (‘nationale domeincrawl’). Web harvesting kan ook beperkt zijn tot specifiek geselecteerde websites die met een bepaald onderwerp of gebeurtenis samenhangen (‘beredeneerde selectie’). In Nederland gebeurt web harvesting thans enkel nog op kleine schaal. Web crawling gaat namelijk gepaard met talloze reproductiehandelingen, waarvoor vanuit auteursrechtelijk perspectief toestemming kan zijn vereist. Voor het herhaaldelijk en systematisch harvesten van grote hoeveelheden materiaal op het web is het verkrijgen van individuele toestemming een schier onmogelijke taak. Daarnaast willen erfgoedinstellingen het geharveste materiaal ook op een of andere manier ontsluiten om het gebruik voor algemene zin – toegang tot het digitale culturele erfgoed te bieden. Dit artikel onderzoekt tegen deze achtergrond, mede aan de hand van een rechtsvergelijking met het buitenland, welke oplossingsrichtingen er binnen het huidige auteursrechtelijke kader bestaan om web harvesting-activiteiten door erfgoedinstellingen op grotere schaal mogelijk te maken. Dit is nodig om gaten in de archivering van het online Nederlands erfgoed te voorkomen en het digitale culturele erfgoed voor het nageslacht te bewaren en beschikbaar te stellen.}, keywords = {Auteursrecht, frontpage, webharvesting}, }