Data Scraping – automatyczne pobieranie danych ze stron internetowych.
Data scraping to proces automatycznego pozyskiwania danych z witryn internetowych, polegający na ekstrakcji informacji bezpośrednio z kodu źródłowego stron WWW. Technika ta wykorzystywana jest do gromadzenia dużych zestawów danych, które następnie mogą być przetwarzane i analizowane przez systemy informatyczne, w tym aplikacje oparte na sztucznej inteligencji. W przeciwieństwie do ręcznego kopiowania, data scraping umożliwia szybkie i efektywne pozyskiwanie informacji, często z wielu źródeł jednocześnie.
Proces ten realizowany jest za pomocą specjalistycznych narzędzi i skryptów, które analizują strukturę strony internetowej, identyfikują interesujące fragmenty danych i zapisują je w ustrukturyzowanej formie, na przykład w bazach danych lub plikach tekstowych. Stosowanie automatycznego pobierania danych może być wykorzystywane w wielu dziedzinach, takich jak e-commerce, badania rynku, monitorowanie mediów czy tworzenie baz wiedzy. W praktyce istotnym aspektem jest przestrzeganie regulacji prawnych oraz zasad etycznych dotyczących wykorzystania informacji pozyskiwanych z sieci.