Tagi

, , , , , ,

Crawlery są programami komputerowymi, których zadaniem jest systematyczne przeszukiwanie Internetu i indeksowanie stron internetowych. Crawlery są potrzebne, żeby użytkownik mógł pozyskiwać przetworzone i wyselekcjonowane informacje według interesujących go kryteriów. Bez nich szukalibyśmy informacji w Internecie z podobną skutecznością jak zaginionego przedmiotu w odmętach oceanu. To jednak nie jedyny cel, któremu crawlery służą. W dzisiejszych czasach wiele innowacyjnych pomysłów w sieci powstaje w oparciu o przetwarzanie informacji pozyskanych z wielkich baz danych. Wydaje się, że ograniczenie możliwości eksploracji internetu za pomocą automatów cofnęłoby jego rozwój.

Status prawny czynności crawlowania jest jednak niejasny.

Z jednej strony istnieją regulacje prawne, które ograniczają możliwość crawlowania, ale tylko w określonych przypadkach. Jak interpretowane są te regulacje? Jak bardzo ograniczają legalny crawling?

Z drugiej strony firmy często próbują chronić swoje zasoby przed ich przeszukiwaniem za pomocą odpowiednich zapisów w regulaminach i posługiwania się plikami robots txt. Jaką skuteczność prawną mają takie działania?

Na te pytania postaram się odpowiedzieć.

(Jeśli masz konkretne pytanie albo potrzebujesz pomocy prawnej skontaktuj się ze ze mną używając powyższego formularza)

Wydaje się, że podstawową sprawą jest rozróżnienie samej czynności crawlowania (automatycznego przeszukiwania treści stron internetowych, indeksowania jej i pobierania) od ewentualnego późniejszego wykorzystywania pozyskanych w ten sposób treści.

Crawler

1.

Obecnie możliwość crawlowania  na mocy przepisów prawa ograniczona jest w Unii Europejskiej w zasadzie tylko w odniesieniu do chronionych baz danych.

Bazy danych mają różny charakter. W zależności od ich charakteru, różnie z prawnego punktu widzenia należy oceniać crawlowanie ich zawartości.

W świetle przepisów unijnych, a w ślad za nimi – i naszych, bazy danych można podzielić na:

1. bazy danych, które w ogóle nie podlegają ochronie prawnej (np. zawierające  zestawienia wyników meczów piłkarskich);

2. bazy danych chronione na podstawie przepisów ustawy z dnia 27 lipca 2001 r. o ochronie baz danych (Dz.U. Nr 28, poz. 1402 ze zm.);

3. bazy danych chronione przez ustawę o prawie autorskim i prawach pokrewnych (przy czym aby baza mogła podlegać przepisom prawa autorskiego musi posiadać cechy oryginalne i twórcze).

Nas w tym opracowaniu interesuje jedna kategoria baz danych, a mianowicie ta, w ramach której mieszczą się bazy dane poddane ochronie sui generis (czyli pkt 2 powyżej). Przepisy polskiej ustawy stanowią w tym zakresie implementację unijnej dyrektywy 96/9/WE z dnia 11 marca 1996 r. w sprawie ochrony prawnej baz danych.

Zgodnie z art. 2 ust. 1 pkt. 1 ustawy o bazach danych: „baza danych oznacza zbiór danych lub jakichkolwiek innych materiałów i elementów zgromadzonych według określonej systematyki lub metody, indywidualnie dostępnych w jakikolwiek sposób, w tym środkami elektronicznymi, wymagający istotnego, co do jakości lub ilości, nakładu inwestycyjnego w celu sporządzenia, weryfikacji lub prezentacji jego zawartości”.

Zgodnie z art. 8 ustawy o bazach danych:”1. Wolno korzystać z istotnej, co do jakości lub ilości, części rozpowszechnionej bazy danych:

  1)   do własnego użytku osobistego, ale tylko z zawartości nieelektronicznej bazy danych,

  2)   w charakterze ilustracji, w celach dydaktycznych lub badawczych, ze wskazaniem źródła, jeżeli takie korzystanie jest uzasadnione niekomercyjnym celem, dla którego wykorzystano bazę,

  3)   do celów bezpieczeństwa wewnętrznego, postępowania sądowego lub administracyjnego.

2. Nie jest dozwolone powtarzające się i systematyczne pobieranie lub wtórne wykorzystanie sprzeczne z normalnym korzystaniem i powodujące nieusprawiedliwione naruszenie słusznych interesów producenta”.

Tak daleko idąca ochrona właściciela bazy danych musi być uzasadniona tylko istotnym co do jakości lub ilości, nakładem inwestycyjnym poniesionym przez niego w celu sporządzenia, weryfikacji lub prezentacji jej zawartości. I Europejski Trybunał Sprawiedliwości w swych dotychczasowych wyrokach dowiódł, że traktuje naprawdę poważnie przytoczone określenia. Gdyby zaprezentował inne podejście do omawianego zagadnienia mogłoby to prowadzić do zablokowania możliwości podawania w różnych serwisach w różnych celach chociażby przywołanych już wcześniej wyników meczów.

Crawler

2.

Tyle przepisy. Zdarza się jednak, że właściciel strony internetowej w regulaminie korzystania z serwisu zabrania crawlowania. W takim przypadku najczęściej posługuje się robotami txt, to jest plikami zawierającymi instrukcje dla robotów indeksujących strony internetowe, ograniczającymi możliwość dokonywania takich działań. Nie jest to fizyczna blokada uniemożliwiająca automatyczne „przeczesywanie” zawartości strony, ale raczej informacja, że nie wolno tego robić.

I tu pojawia się problem jaką moc prawną mają takie zapisy regulaminów i instrukcje robotów txt. Ja przychylałabym się do stwierdzenia, że wprowadzenie „regulaminowego” zakazu crawlowania nie narusza prawa. Wszak mamy zasadę swobody umów, a zatem osoba udostępniająca coś użytkownikom w sieci może z nimi zawrzeć „umowę” dowolnej treści (jeśli nie narusza przy tym prawa, a przy „umowie” z konsumentem nie zawiera niedozwolonych klauzul). Mam z tym jednak pewien problem, ponieważ sama czynność crawlowania wydaje się być nieco podobna do użycia kombinacji klawiszy CtrlF na klawiaturze, która pomaga nam przeszukiwać tekst według zadanego słowa. Oczywiście crawlowanie jest czynnością znacznie bardziej skomplikowaną, polega też na ciągłym aktualizowaniu informacji itp., ale co do zasady chodzi o łatwiejsze niż poprzez przeglądanie całej zawartości, wyszukiwanie informacji na stronach internetowych. Można by się zastanowić, dlaczego, w sytuacji gdy mamy publicznie dostępną treść, ograniczać możliwość jej przeszukiwania. Czy można zabronić używania CtrlF?

Inny problem dotyczy egzekwowania tego zakazu nawet w sytuacji, gdy pozyskany w wyniku crawlowania content zostanie potem wykorzystany? Udowodnienie w jaki sposób podmiot go wykorzystujący wszedł w jego posiadanie wydaje się wyjątkowo trudne.

Znacznie łatwiejsze do wyegzekwowania wydaje się zakazywanie wykorzystywania tak pozyskanych treści. Pytanie tylko, czy taki zakaz jest legalny. I moim zdaniem odpowiedź w tym przypadku brzmi: NIE. Jako ogólny zakaz – nie. Kwestia korzystania z treści znajdujących się w internecie jest bowiem regulowana prawnie. Zatem treści nie chronione (głównie prawem autorskim czy w związku z ochroną danych osobowych) mogą być w zasadzie wykorzystywane swobodnie. Nic nie chroni bowiem wspomnianych bowiem wyników meczów, czy informacji o wysokości temperatur. Z kolei treści chronione prawem autorskim czy przepisami o ochronie danych osobowych mogą być wykorzystywane w zgodzie z ogólnie obowiązującymi przepisami prawa. Zatem, gdy na przykład jakieś treści są dostępne na zasadzie otwartej licencji, a udostępniane w ramach dużej bazy danych, to próby ograniczania ich publikacji w drodze regulaminowych zakazów zawartych na stronie zawierającej taką bazę danych, należy uznać za sprzeczne z prawem (no chyba, że sama baza danych podlega ochronie, o czy pisałam wcześniej). Podobnie należy ocenić wszelkie podobne zakazy w odniesieniu do treści udostępnianych na zasadach licencji ustawowych. Skoro można korzystać z takich „pojednynczych” treści, to w ich statusie prawnym nic nie zmienia fakt, że są one udostępniane „w masie”.

W podobnym duchu wypowiadały się sądy, niestety jak dotąd tylko za granicą. Przy dokonywaniu analizy dopuszczalności prawnej umownego zakazu indeksowania i wtórnego wykorzystywania treści w internecie, brały pod uwagę charakter prawny tej treści i uznawały to za element decydujący o prawnej dopuszczalności takich działań.

Crawler

3.

Wydaje mi się, że regulacje prawne powinny zmierzać do jak najszerszego umożliwienia eksploracji zasobów internetu (data mining) ponieważ to jest nasza przyszłość. W kontekście toczącej się obecnie w Europie debaty nad kształtem nowego prawa własności intelektualnej warto o tym pamiętać.

Przetwarzanie wielkich danych może przynieść rozwój w wielu dziedzinach i na wielu polach, które teraz nawet trudno nam sobie wyobrazić. Na przykład „kojarzenie” danych medycznych z różnych baz danych tworzonych na całym świecie może przynieść odpowiedzi na pytania, na które biorąc pod uwagę tylko ograniczoną ilość danych, którymi dysponuje każda baza z osobna – nie sposób odpowiedzieć.

Najbardziej obiecujące i dochodowe firmy powstają w dzisiejszych czasach w branży internetowej. Dla tych firm prawne otwarcie możliwość jak najszerszej eksploracji zasobów internetu to szansa na rozwój. Szansa, że kiedyś właśnie w Unii Europejskiej, w Polsce powstaną kolejne wielkie firmy internetowe takie jak Google czy Facebook, które będą napędzać całą gospodarkę.

Przede wszystkim zatem powinno się jak najszerzej otworzyć możliwość eksploracji baz danych zawierających czyste fakty i dane. Oczywiście należy zadbać przy tym o to, by bazy te nie były wykorzystywane do prostego robienia konkurencji podmiotowi, który je pierwotnie zebrał i zestawił. Ponadto należy, dbając o interesy twórców i pozostając całkowicie w zgodzie z prawem autorskim (jakikolwiek kształt ono przybierze) umożliwić także eksplorację materiałów objętych ochroną prawnoautorską.

Dyskusja na ten temat chyba jeszcze przed nami, ponieważ – póki co – w ogłoszonych przez Komisję Europejską konsultacjach na temat „Licencji dla Europy” w obszarze eksploracji tekstu i danych w internecie nie osiągnięto żadnego konsensusu. Porażkę dyskusji w tym obszarze skomentowali w Liście do uczestników Grupy Roboczej pracującej w obszarze „text and date mining” przedstawiciele europejskich organizacji pozarządowych i naukowcy. Zaapelowali oni o przyjęcie jak najbardziej otwartych prawnych rozwiązań w tym obszarze, co umożliwi rozwój europejskim przedsiębiorstwom. Sygnatariusze listu podkreślili, że w innych częściach świata obowiązują rozwiązania, które wspierają tamtejszą przedsiębiorczość przez umożliwienie dokonywania w szerszym stopniu eksploracji danych niż w Europie. Europa chce iść w odwrotnym kierunku, co może tylko zahamować rozwój gospodarek państw członkowskich.

*******************************

Ikona crawlera: Everaldo Coelho – http://www.everaldo.com/, na licencji LGPL

Tekst jest objęty wolną licencją Creative Commons Uznanie autorstwa – Na tych samych warunkach.

Advertisements