Dobre i złe roboty internetowe – przykłady oraz ich lista

Dobre i złe roboty internetowe

W dzisiejszych czasach możemy już bardzo długo rozmawiać o sztucznej inteligencji, jednakże coraz częściej dochodzimy do końcowego dylematu, czy jest ona dla nas dobra, czy zła.

Czy pomoże nam w codziennych trudach pracy, czy po prostu ją nam zabierze i będziemy bezrobotni?

Niezależnie od tego, czy dany robot indeksuje podstrony w wyszukiwarkach, czy sprząta za nas mieszkanie… są one nam niezbędne. Ciężko pracują na swoją renomę poprzez zrewolucjonizowanie internetu oraz automatyzację wielu zadań, które były dla nas uciążliwe, czasochłonne albo zbyt kosztowne do wykonania przez zwykłego człowieka.

Niestety w naszym świecie nie ma takiego wynalazku, który by dawał nam tylko i wyłącznie dobre rzeczy.

Dlatego wyróżniamy dobre i złe roboty internetowe. Te pierwsze nam pomagają, a te drugie uprzykrzają życie.

W tym wpisie skupimy się na ich podziale.

Jak się okazuje, istnieją dosyć proste sposoby na ich odróżnienie. Na pewno nie trzeba być ekspertem, wystarczy mieć odpowiednie informacje.

Bez zbędnych ceregieli…

Oto wskazówki, które pomogą odróżnić od siebie dobre i złe roboty internetowe.

Dobre roboty internetowe

1. Roboty internetowe wykrywające plagiat.

Te roboty przeszukują internet w poszukiwaniu treści, które potencjalnie zostały splagiatowane.

Odnajdują one:

  • Nielegalnie umieszczone pliki na serwerach.
  • Skopiowane treści bez odpowiedniego wskazania ich autora.
  • Niewłaściwe użycie zastrzeżonych treści oraz zdjęć itp.

Roboty internetowe wykrywające plagiat są najczęściej stosowane w sferze social media, a zwłaszcza tam, gdzie oryginalna treść jest ważnym elementem marketingowym.

Dobrym przykładem mogą być:

  • System Content ID na platformie YouTube. Dlatego udostępnione wideo, które należy np. do TVP, Polsatu, czy TVN zostanie bardzo szybko zablokowane.
  • Roboty DMCA. Jeżeli Twój serwer leży w USA lub w kraju gdzie DMCA obowiązuje, to treści lub pliki, które naruszają zasady, mogą zostać usunięte.

Ciekawostka. Strona internetowa (gdy jeszcze działała) torrent-polska.info została całkowicie wycięta z indeksu ze względu na roszczenia autorskie. Dodatkowo Google już od kilku lat obniża pozycje w wyszukiwarce tym stronom, które naruszają prawa DMCA.

2. Roboty internetowe gromadzące aktualności.

Te roboty internetowe wertują strony internetowe w poszukiwaniu tzw. „newsów”, pogody, danych na temat kursów walut czy też ważnych informacji ze świata.

Przykładem takich botów mogą być:

  • Amazon Echo
  • Siri
  • Google Home

3. Roboty internetowe zbierające informacje o strukturach i treści stron internetowych.

Są to najbardziej rozpowszechnione roboty internetowe w sieci. Korzystają z nich głównie wyszukiwarki – po to, aby indeksować nowo powstałe witryny.

Przykładowo Google ma swój własny robot indeksujący o nazwie Googlebot, który wykorzystuje stale rozwijający się algorytm Google, aby ustalić, które strony internetowe indeksować i na jakiej pozycji.

Wybrane roboty indeksujące:

  • Googlebots
  • MSN bot
  • Yahoo! bots itd.

4. Roboty internetowe zbierające informacje o cenach produktów.

Pewnie ten rodzaj robota internetowego jest Twoim ulubionym.

Dlaczego?

Są to roboty internetowe, które przemierzają internet w poszukiwaniu najlepszej oferty, która nas akurat interesuje.

Bardzo często są wykorzystywane przez sprzedawców e-commerce, którzy chcą zaoferować klientom jak najniższą cenę danego produktu.

Jeżeli chodzi o konsumenta, to warto spojrzeć na rozszerzenie Honey do naszych przeglądarek, które automatycznie znajdzie kupon (jeżeli istnieje) i zastosuje go w naszym koszyku zamówień. Warto wypróbować to rozszerzenie, jeżeli często kupujesz na Amazonie.

Złe roboty internetowe

1. Roboty internetowe, które „klikają”.

Jednym z robotów z ciemnej strony mocy okazuje się tzw. Clickbot lub Fraudbot. Zasada ich działania jest dosyć prosta.

Ich zadaniem jest klikać w reklamy np. AdWords i imitować prawdziwego użytkownika, który jest zainteresowany daną stroną, przez co system AdWords zabierze nam cząstkę dziennego budżetu.

Clickboty nie tylko zabierają nam pieniądze, ale i potrafią solidnie namieszać w statystykach.

Mogą naliczać nam np. fałszywe kliknięcia w przyciski na stronie internetowej podpięte pod wydarzenia w Google Analytics, przez co mylnie odbieramy zainteresowanie klientów naszą ofertą, czy produktem.

2. Roboty internetowe, które „pobierają” na potęgę.

Zasada ich działania jest podobna do clickbotów. Pobierają zasoby, które umieszczamy na naszych serwerach, przez co kolejny raz mylnie odbieramy zainteresowanie np. grą, czy e-bookiem.

W 2012 nieuczciwi deweloperzy aplikacji na iOS wykorzystywali takie boty, aby sztucznie podbić swój ranking w sklepie AppStore. Więcej informacji o tym incydencie można znaleźć tutaj.

3. Roboty internetowe, które się „maskują”.

Łatwo pomylić maskujące roboty internetowe z clickbotami, ponieważ jak ich nazwa wskazuje, podają się za prawdziwych użytkowników.

Jednakże ich działania są nawet bardziej szkodliwe niż tylko generowanie fałszywych kliknięć.

Ich celem jest ominięcie zabezpieczeń na stronach internetowych. Maskujące roboty najczęściej stoją za atakami DDoS.

Przykład?

W 2016 roku, gdy mogło się wydawać, że większość popularnych serwisów tj. Twitter czy Spotify przestała działać, został przeprowadzony atak DDoS przy pomocy botnetu Mirai.

4. Roboty internetowe, które plagiatują treść.

Ich zadaniem jest osiągnąć odwrotny efekt do działania robotów internetowych, które wyszukują plagiatowaną treść i rozpowszechnić – wszędzie gdzie się da – odrobinę zmodyfikowane treści, tak aby jak najtrudniej można było je usunąć ze względu na roszczenia autorskie.

5. Roboty internetowe, które spamują.

Wydawałoby się, że roboty spamerskie to już przeszłość, tak samo, jak magnetowidy i czarna ospa.

Niestety to nieprawda i w wielu sytuacjach są coraz bardziej inteligentne, a my nie potrafimy już ich odróżniać od prawdziwego człowieka.

Są to roboty, które rozpowszechniają treści spamerskie np. bezsensowne komentarze do wpisów.

Najczęściej można je znaleźć w mediach społecznościowych typu Facebook czy Instagram. Ostatnio wybuchła wielka dyskusja, dlaczego Facebook usuwa polubienia dużych fanpejdży.

Spowodowane to było kasowaniem kont, które zostały wykryte jako boty lub były od pewnego czasu już nieaktywne (np. z uwagi na śmierć użytkownika).

6. Roboty internetowe, które szpiegują.

Czy kiedykolwiek dostałeś e-maila od kogoś zupełnie obcego i zastanawiałeś się, jak taka osoba pozyskała Twoje dane kontaktowe?

Nasza pomysłowość nie zna granic. Ktoś kiedyś wymyślił, że napisze takiego robota internetowego, który będzie szukał informacji np. na temat osób, które założyły całkiem niedawno firmę.

Teraz pomyśł, że w ciągu miesiąca taki robot zebrał 10 tysięcy e-maili, które są połączone z nazwą firmy, danymi osobowymi oraz miejscem prowadzenia działalności.

Każdy masowo wysłany e-mail może być dosyć dobrze spersonalizowany o imię i nazwisko, nazwę firmy itd.

Dodatkowo po wykorzystaniu takiej bazy z pewnością znajdzie się ktoś, kto chętnie od nas ją odkupi, mimo że takie działania są sprzeczne z prawem i etyką zawodową.

Jakie są dobre i złe roboty internetowe?

Czy musimy obawiać się złych robotów internetowych?

I tak i nie.

Istnieje wiele sposobów, aby im przeciwdziałać, a popularne platformy marketingowe typu Facebook czy AdWords, mają swoje własne zabezpieczenia.

Jednakże najważniejsza jest świadomość oraz wiedza, w jaki sposób działają. Teraz, po przeczytaniu naszego wpisu, będziesz umiał odróżnić najczęściej pojawiające się roboty w sieci, przez co w przyszłości będziesz umiał zdiagnozować np. clickbota i zwrócić się z twardymi dowodami do AdWords o zwrócenie pieniędzy.

Dodatkowo masz już świadomość, że statystyka np. odwiedzin Twojej podstrony może być fałszywa i warto pozbyć się spamu ze swoich danych, aby lepiej przeprowadzać kampanie marketingowe i analizować ruch na stronie internetowej.

Spodobał Ci się ten tekst?

Jeśli sądzisz, że moglibyśmy Tobie pomóc, odezwij się do nas. Wypełnij bardzo prosty formularz szybkiej wyceny. Gwarantujemy szybką odpowiedź.

Bądź pierwszą osobą, która skomentuje ten artykuł! 😉

Oświadczam, że akceptuję postanowienia zawarte w polityce prywatności. *

Jakub Ozorowski

Co-founder agencji interaktywnej MobileTry z Olsztyna, świadczącej kompleksowe usługi przede wszystkim małym firmom. Specjalizacją agencji jest tworzenie stron internetowych i sklepów internetowych. Ponadto MobileTry prowadzi kampanie reklamowe w internecie oraz oferuje usługi z zakresu pozycjonowania.

Mało czytania? Nie ma problemu!

Sprawdź inne teksty powiązane z tym artykułem

Jakub Ozorowski

5 lat temu

Aktualizacja strony internetowej – kiedy najlepiej ją przeprowadzić?

W którym momencie aktualizacja strony internetowej powinna być przeprowadzona? Po czym poznać, że najwyższy czas na zmiany? Poznaj nasz poradnik.

Bartłomiej Kiljan

5 lat temu

Jak mierzyć skuteczność strony internetowej? – 5 metryk

Sprawdź, jak mierzyć skuteczność strony internetowej. Oto kilka metryk mówiących o tym, co warto zbadać w panelu Google Analytics, aby mierzyć efektywność.

Michał Ziółkowski

5 lat temu

Rozwój strony internetowej – zestaw 11 obszernych poradników

Jak powinien przebiegać właściwy rozwój strony internetowej? Co wziąc pod uwagę, planując rozwój strony internetowej? Odpowiedzi znajdziesz w tym tekście.

Jakub Ozorowski

5 lat temu

Analiza stron internetowych – do czego służy oraz ją wykonać?

Do czego służy analiza stron internetowych? Co można dzięki niej osiągnąć? Sprawdź, które rzeczy na stronie www warto poprawić, by podnieść jej poziom.

Bartłomiej Kiljan

5 lat temu

Jak korzystać z Google Analytics? – przegląd panelu

Dzięki Google Analytics można odczytać dane, jakie zostawiają użytkownicy na stronie. Sprawdź zatem, jak zainstalować i korzystać z Google Analytics.

Michał Ziółkowski

5 lat temu

Utrzymywanie strony internetowej opartej o WordPressa – 8 porad

Na czym konkretnie polega utrzymywanie strony internetowej opartej o WordPressa? Jakich wytycznych należy się trzymać, aby należycie dbać o własny serwis?