16 eksperymentów seo, które zmienią Twój sposób myślenia o seo na zawsze
W tym artykule przedstawię wyniki tych eksperymentów i odniosę się do nich.
1. CTR ma wpływ na pozycje strony w wynikach organicznych
Test opublikowano: 16.07.2014
Rand Fishkin przeprowadził taki test pisząc na Twitterze prośbę o wyszukanie frazy i kliknięcie w link prowadzący do jego strony. Po około 3 godzinach i 228 kliknięciach strona z 7 pozycji weszła do 1. Późniejsze testy przeprowadzone przez inny serwis nie dały, aż takiego efektu być może Google zmieniło znaczenie wpływu CTR na pozycję strony, a być może inne elementy miały na to wpływ.
Ta teza jak najbardziej ma sens. Jeśli dany link w wynikach wyszukiwania ma wyższy CTR, czyli jest klikalny częściej niż linki umieszczone nad nim , charakteryzuje się większą klikalnością niż średnio w danej branży na danej pozycji to może to być sygnałem, że strona jest lepiej dopasowana do wyników wyszukiwania i Google może ją przesunąć na wyższe pozycje.
Działa to podobnie jak w Google AdWords gdzie pozycja reklamy jest ustalana m.in. na podstawie jej CTR.
Powodem tego może być lepszy tytuł czy opis strony, pojawienie się adresu znanej marki.
Jeśli dany link w wynikach wyszukiwania ma wyższy CTR, to może to być sygnałem, że strona jest lepiej dopasowana do wyników wyszukiwania i Google może ją przesunąć na wyższe pozycje.
2. Mobilegedon był bardzo ważnym wydarzeniem
Tutaj na blogu >> opisałem czym jest mobilegedon. Ta zmiana miała bardzo mocno uderzyć w strony nie dostosowane do urządzeń mobilnych. Wiele ludzi nie zauważyło różnicy, jednak test wykazał, że 50% nie posiadających stron przygotowanych pod urządzenia mobilne ucierpiało, a 30% przygotowanych odnotowało wzrosty. Zmiana nie została wprowadzona z dnia na dzień, dlatego też od razu wiele osób tego nie odczuło.
Osobiście wdrożyłem tę zmianę na blogu prawie rok wcześniej i opisałem tego efekty w artykule “Strona mobilna zwiększyła liczbę odwiedzin o 644%”. Od kwietnia 2014 w Google Analytics z urządzeń mobilnych przeważają wzrosty na blogu.
50% nie posiadających stron przygotowanych pod urządzenia mobilne ucierpiała, a 30% przygotowanych odnotowała wzrosty
3. Linki działają nawet po ich usunięciu?
Ten test Rand Fishkin przeprowadził na 2 witrynach i ponownie sprawdził go na 8 kolejnych. Witryna A była na 31 pozycji i witryna B na 11 pozycji. Do obu stron dodano 22 linki i strona A poszybowała na 1 pozycję, a strona B na 5.
Zdecydowano się na usunięcie tych linków i o dziwo ich pozycje nie wiele się zmieniły. Strona A pozostała na pozycji 1, a strona B spadła na pozycję 6. Ten efekt utrzymywał się przez ponad 4 miesiące. Testy ponawiano i efekt był za każdym razem podobny. Strony jeszcze ponad 4 miesiące trzymały swoje pozycje.
Moim zdaniem działa to podobnie jak indeksowanie linków, na co czasami trzeba czekać nawet i kilka miesięcy. Ciekaw jestem czy linki ze stron często aktualizowanych, odwiedzanych przez boty Google też tak długo przekazują moc.
Mimo usunięcia linków do strony, potrafią one przekazywać moc seo jeszcze przez kilka miesięcy
4. Strony ze skopiowaną treścią mogą zajmować wysokie pozycje nawet na konkurencyjne frazy
Test opublikowano: 06.11.2012
Jeśli tworzysz unikalną treść i Google ją zaindeksuje to pojawi się ona jako oryginał jako pierwsza w wynikach wyszukiwania. Wszystkie kopie zajmą dalsze miejsca, albo w ogóle się nie zaindeksują. Tak to wygląda w teorii.
Dan Petrovic przeprowadził test na 4 domenach. Skopiował treść ze stron z niższym parametrem PR i w 3 z 4 przypadków oryginalne strony zostały zepchnięte na dalsze pozycje Google. Zatem w momencie kiedy w sieci są umieszczone 2 takie same treści, Google wyżej umieści tę która została umieszczona na stronie z wyższym PR.
Jako, że PR już nie jest wyświetlane powiedziałbym, że wygra witryna, która cieszy się większym zaufaniem, ma dłuższy staż, więcej mocnych linków…
Autor testu stworzył subdomenę z treścią skopiowaną ze strony moza i na frazę “Rand Fishkin” (autor moza) pojawił się wyżej w wynikach wyszukiwania niż sam moz.
Eksperyment o tyle ciekawy, że mocna konkurencja może stosować tę metodę, aby wyeliminować mniejszych graczy, aczkolwiek Dan w Google Search Console otrzymał informację o treści słabej jakości znajdującej się na stronie.
Dan w takich przypadkach proponuje ustawiać cannonical, linkować wewnątrz witrynę, dodać authorship Google.
Zatem w momencie kiedy w sieci są umieszczone 2 takie same treści, Google wyżej umieści tę która została umieszczona na stronie z wyższym PR.
5. Pozycja 1 nie jest najważniejsza
Test opublikowano: 21.10.2015
Direct Answers to wyróżniony element w wynikach wyszukiwania, który od razu bez wchodzenia na stronę daje odpowiedz na zapytanie użytkownika np.: wyniki meczów, repertuar kin, lotów… Taki element charakteryzuje się wyższym wzkaźnikiem CTR, natomiast nie muszą go otrzymać strony z top 1. Bardzo często strony umieszczone niższej w wynikach wyszukiwania pojawiają się właśnie w direct answers.
Erez Barak przeprowadził test, który wykazał, że strona umieszczona w direct answers otrzymała ponad 2 krotnie więcej kliknięć od strony znajdującej się pod nią.
Wyniki takie pokazują się w przypadku dość prostych pytań wpisywanych do wyszukiwarki. Aby Twoja strona znalazła się w takich wynikach umieść prostą, jasną i użyteczną odpowiedz na pytanie na swojej stronie. Dodaj też więcej informacji szczegółowych, wartościowych, pomocnych. Daj łatwą możliwość linkowania i udostępniania tej informacji w social media.
Więcej informacji o direct answers znajdziesz tutaj >>.
Strona umieszczona w direct answers otrzymała ponad 2 krotnie więcej kliknięć od strony znajdującej się pod nią.
6. Używanie https może aktualnie szkodzić pozycji Twojej strony
Test opublikowano: 19.11.2014
Google jakiś czas temu ogłosiło, że https jest czynnikiem wpływającym na pozycję strony w wynikach wyszukiwania. Podczas testu śledzono pozycje dla 50,000 słów kluczowych i 218,000 domen. 630 z tych domen zmieniło adres na https, a wynik to spadek pozycji, następnie wzrost do pozycji nieco niższych jak przez zmianą adresów.
Dotąd nie natknąłem się na testy, które udowodniły, że wdrożenie https wpłynęło na poprawę pozycji strony.
Jeśli potrzebujesz użyć https np. ze względów bezpieczeństwa zrób to, ale jeśli chcesz to zrobić tylko, aby podnieść pozycje w Google przemyśl czy warto.
7. Noindex w robots.txt nie zawsze działa
Test opublikowano: 03.11.2015
Jeśli nie chcesz, aby Twoja strona była indeksowana przez wyszukiwarki wystarczy w znacznikach meta robots wpisać noindex i zostanie ona wyindeksowana.
Test wykazał, że mimo wprowadzenia takiego zapisu, strona została wyindeksowana, jednak robot zaglądał do pliku nawet kilka razy dziennie.
To samo można zrobić w pliku robots.txt i tutaj efekt jest dużo lepszy, aczkolwiek też nie zawsze działa to idealnie, natomiast w tym przypadku Googlebot przestał zaglądać na stronę.
Z tego co mi wiadomo to:
Informacje umieszczone w robots.txt są tylko sugestią dla Google. Umieszczenie w nim informacji o nieindeksowaniu stron nie musi być brane pod uwagę.
8. Anchor z frazą kluczową działa lepiej niż naturalny?
Test opublikowano: 16.07.2014
Wiemy, że z anchorami na frazy kluczowe trzeba uważać, bo zbyt wielka ich liczba możesz zaszkodzić naszej stronie i zostanie nałożony na nią filtr, dlatego większość osób zaleca ich dywersyfikacje i ograniczenie liczby takich linków. Zamiast tego dajemy anchory związane z brandem, adresem url i bardzo naturalne jak “kliknij tutaj”, “sprawdź to”…
Rand Fishkin przeprowadził 3 eksperymenty. Dla jednej strony A dał 20 linków nie zawierających frazy w anchorze, a dla innej B 20 z dokładnym anchor textem. Za każdym razem linkowanie na frazy kluczowe znacznie poprawiało pozycję strony w wynikach wyszukiwania. Strona A początkowo była na pozycji 14, a po linkowani wskoczyła na 9, natomiast strona B była na pozycji 20 i awansowała do 1.
Bez względu na anchor linki działają, jednak linki z frazą w anchor text działają dużo lepiej
9. Linkowanie do innych stron może podnieść pozycję Twojej strony
Test opublikowano: 21.02.2016
Mówi się, że poprzez linkowanie do zewnętrznych stron tracimy moc seo na naszej stronie. Wypływa ona z każdym linkiem, im jest ich więcej tym gorzej dla nas.
Przeprowadzono kolejny test. Zarejestrowano 10 podobnych domen. Każda ze stron zawierała artykuł na 300 znaków zoptymalizowanych pod 1 konkretną frazę.
Po jej wpisaniu w Google pokazywało się 0 wyników. W tekstach 10 domen dodano linki do 5 bardzo zaufanych witryn (strony znanych uczelni).
Gdy wszystkie strony zostały zaindeksowane sprawdzono ich pozycje. 5 które zawierały linki do zaufanych zewnętrznych stron znalazły się na początku, a pozostałe 5 na dalszych pozycjach.
W treściach na swojej stronie umieszczaj linki do pomocnych, zaufanych, wiarygodnych domen, aby poprawić pozycję ten strony
10. Linki z parametrem nofollow mają wpływ na pozycję strony
Test opublikowano: 16.07.2014
Mówi się, że linki z parametrem nofollow nie przekazują mocy stronie linkowanej.
Strona była na 16 miejscu i podlinkowano ją z 55 domen linkami nofollow. Po zaindeksowaniu się tych linków, pozycja strony wzrosła do pozycji 15. Gdy poproszono uczestników testu o usunięcie parametru nofollow z linków pozycja strony poszybowała na 6 miejsce.
Do drugiego testu wybrano mniej konkurencyjną frazę, pozycja strony była 9 i podlinkowaną ją z 42 unikalnych domen. Po zaindeksowaniu wszystkich linków pozycja strony wzrosła do 6. Gdy uczestnicy testu na prośbę usunęli z linków parametr nofollow pozycja wzrosła już tylko o 1 pozycję.
Myślę, że warto byłoby ten test powtórzyć, bo wyniki nie były jednoznaczne.
Linki z parametrem nofollow mają pozytywny wpływ na pozycję strony
11. Linki ze stron posiadających tysiące linków wychodzących działają
Test opublikowano: 12.12.2012
Gdy widzimy zbyt wiele linków wychodzących ze strony to na myśl przychodzi nam farma linków, słaba jakość… Czym więcej takich linków tym gorzej, bo moc strony się rozprasza na wszystkie linki.
Z drugiej strony mamy katalogi stron, której wbrew temu jaka krąży opinia potrafią całkiem nieźle działać.
Dan Petrovic przeprowadził test angażując w niego 2 domeny bardzo podobne, jednak różniące się unikalną treścią. Stronę B podlinkował ze strony z PR7 i ponad 4 tyś. linków wychodzących. O dziwo strona poszybowała w górę na pozycję 2.
Linki ze stron posiadających wiele linków zewnętrznych działają bardzo dobrze
12. Linki z obrazków działają bardzo dobrze
Test opublikowano: 09.04.2013
Większość osób pozyskuje linki tekstowe i uważa je za najbardziej wartościowe, natomiast do linków z obrazków raczej nie przykłada się dużej uwagi.
Dan Petrovic przetestował to. Użył 4 podobnych domen i każdą podlinkował w inny sposób:
- frazą kluczową,
- adresem url – w jego pobliżu znajdował się test z frazą kluczową,
- frazą kluczową w tekście alternatywnym obrazka,
- używając słowa “kliknij tutaj” i w pobliżu frazy kluczowej.
Wyniki były następujące:
- strona, którą linkował z obrazka była na pierwszym miejscu,
- strona linkowana słowem kluczowym znalazła się na 5 miejscu,
- strona linkowana adresem url i słowem “kliknij tutaj” nie została w ogóle zaindeksowana.
Autor zaznaczył, że zrobił tylko 1 taki test, więc wypadałoby go powtórzyć.
Linki z obrazków z odpowiednim opisem alternatywnym pomagają w pozycjonowaniu
13. Linki z informacji prasowych działają
Test opublikowano: 12.01.2013
Matt Cutts w 2014 roku napisał, że nie spodziewa się, aby linki z informacji prasowych miały wpływ na pozycję strony w Google.
W teście opublikowano informację prasową z linkiem do bloga Matta Cuttsa 🙂 Jego blog na frazę użytą w linki tej informacji prasowej pojawił się na 2 pozycji.
Wbrew zapewnieniom pracownika Google linki z informacji prasowych mają wpływ na pozycję strony
14. Zasada działania first link count działa
Test opublikowano: 03.07.2008
Ten przeprowadzony przez Randa Fishkina jest już bardzo stary, ale ze względu na ciekawe rezultaty zdecydowano się go przedstawić.
Zasada jest taka, że jeśli do danej podstrony kieruje kilka linków to tylko pierwszy z nich przekazuje moc seo.
W teście strona A linkowała do strony B 2 linkami z różnymi anchorami. W jego wyniku strona B pokazała się na pierwszą frazę, a na drugą nie, czyli wszystko poszło według znanej reguły.
W drugim teście pozycje linków na stronie A prowadzące do strony B zostały zamienione miejscami. Fraza druga pojawiła się jako pierwsza na stronie A.
Google przeindeksował zmianę i strona B zniknęła z Google na frazę drugą (czyli wcześniej pierwszą na którą stroną rankowała) i pojawiła się na pierwszą frazę (która była wcześniej jako druga).
Co ciekawe dodanie do pierwszego linka parametru nofollow nie spowodowało, że strona zaczęła rankować na drugą frazę.
Tylko pierwszy link prowadzący do danej strony przekazuje moc
15. Anchory linków w tytułach stron
Test opublikowano: 24.04.2014
Dan Petrovic na swojej stronie ustawił tytułu strony “Untitled Document” i skierował na nią linki z anchorem “banana”. Google Search Console pokazał ten tytuł jako nie informacyjny, a w wyszukiwarce Google po wpisaniu komendy “site:adrestrony” wyświetlił stronę z tytułem “banana – Dejan SEO”
Anchory linków mogą pojawiać się w tytułach stron
16. Depozycjonowanie stron: jak możesz zaszkodzić swojej konkurencji w wynikach wyszukiwania
Test opublikowano: 07.06.2012
W to, że negatywne seo istnieje chyba nikt nie ma wątpliwości choć kiedyś Google próbowało nas do tego przekonywać
W celu przeprowadzenia testu zakupiono sporą liczbę spamerskich linków i skierowano na konkretną stronę. Strona była stabilna i pojawiała się w Google na kilka słów kluczowych. Łącznie monitorowano stronę na 52 frazy kluczowe. Wydano 40$ na: linki z komentarzy, profile z for, linki z sidebara blogów.
Wynik testu to spadek z pozycji 3 na 14 pozycję kluczowej frazy.
Co ciekawe linki z komentarzy przynajmniej w momencie się ich pojawienia nie spowodowały spadku, 7 dniu później dodano linki z for i spowodowały one nawet wzrost. Dopiero po kolejnych 7 dniach gdy dodano linki z sidebar pozycja strony spadła drastycznie na 14 pozycję. Moim zdaniem nie oznacza to, że pierwsze 2 partie linków nie zaszkodziły, ale może trzeba było poczekać dłużej na efekt. Oprócz frazy głównej spadki zanotowały też 26 inne frazy.
Depozycjonowanie stron istnieje
Podsumowanie
Niestety w branży seo zmiany następują bardzo szybko, więc to co przetestowano jakiś czas temu, nie musi być aktualne w tym momencie. Weź też pod uwagę, że testy te przeprowadzano na niewielkiej ilości stron. Takie testy warto przeprowadzać co jakiś czas samodzielnie (powyższe wcale nie były robione na dużej próbie stron).
Mimo wszystko należy docenić autorów testów za przekazane informacje i odkrycia rąbka tajemnicy.
Niektóre wyniki testów były oczywiste inne już mniej. Mnie dość mocno zaskoczyło to, że linki po usunięciu tak długo cały czas przekazują moc, oraz bardzo duży wpływ linków z obrazków na pozycje strony.
Napisz w komentarzu, który z testów Ci się spodobał, zaskoczył!
Można się zgodzić z niektórymi rzeczami ale, moim zdaniem, dogrzebywanie testów z 2008 trochę trąci już historią z dużym kurzem…
Co do duplikacji contentu to jest to obecnie zjawisko nagminne, że Gugiel sobie z tym po prostu nei radzi i kopie sa niejednokrotnie wyżej przez jakiś czas niż oryginalne treści… Smutne ale tak właśnie jest.
Rozumiem Zgred specjalnie podałem daty, aby nie było wątpliwości co do tego kiedy opublikowano wyniki testów, natomiast może to zainspiruje innych do robienia własnych testów.
Też widziałem kiedyś przypadki, że duże serwisy typu onet.pl kopiowały tekst z małych, lokalnych serwisów i znajdowały się wyżej w wynikach wyszukiwania. Ale tu działa autorytet strony i fakt, że duży może więcej.
Myślę, że Google coraz lepiej sobie radzi ze zjawiskiem duplikatu treści 😉
Super artykuł Sławku!
Tylko czemu dajesz tak cenną wiedzę za darmo? 🙂
Umiejętne wykorzystanie treści tego artykułu pomoże nam zaoszczędzić tysiące złotych na pozycjonowanie w zewnętrznych firmach.
Z niecierpliwością czekam na kolejne ciekawe wpisy.
Fajnie. A ile z tych eksperymentów bylo polskich? 0. To pokazuje czym jest polskie seo. Po drugie to co dziala lub niedziela w Usa nie oznacza ze tak samo jest u nas. Bo jak wiadomo sa roznice.
Ależ oczywiście i dlatego zachęcam do przeprowadzania własnych testów i nie brania tego za pewniki.
Świetny artykuł, jeszcze brakuje wewnętrznego duplicate content 🙂
Sławek ciekawy artykuł, ale poddaje w wątpliwość użyteczność tych testów ze względu na ich datę publikacji. Wszyscy wiemy jak szybko google potrafi zmienić reguły gry.
Skąd bierzesz takie fajne ikony? Pomijając treść artykułu, bardzo mi się podoba jego przejrzystość i układ. Będę miał kilka rzeczy do wypróbowania w takim razie. Nie wiedziałem np. że obrazki mogą tak dobrze linkować.
Piotrek ikony kupuję na stockach.
Depozycjonowanie, te linki z for i profili to brzmi jak i pozycjonowanie, chyba że strony z których wychodziły były słabej jakości?
fajnie to zebrałeś Sławku,. a może ktoś pokusiłby się o re-test w 2016?
Przeszło mi to dziś przez myśl 🙂
Fajnie, tylko po co wyciagac stare pierdy sprzed nawet 4 lat? 50% powyzszego mozna juz odrzucic.
Dlatego, że część nawet tych starych testów cały czas jest aktualna, a nie każdy o tym wie, a tego, aby zainspirować ludzi do robienia własnych testów.
Cześć Sławku. Bardzo fajne zestawienie, dobrze się czytało!
Wyniki niektórych, a może nawet wszystkich, testów mogą obecnie odbiegać od rzeczywistości. Zastanawiam się, czy to, że wyniki tych testów – podważające wręcz dogmaty SEO – biorą się z niedoskonałości algorytmów Google, czy raczej jest to efekt algorytmów działających poprawnie, ale inaczej, niż się to komunikuje społeczności użytkowników Google’a.
Spośród tych testów dla mnie szczególnie ciekawe jest linkowanie z obrazków – tzn. na ile to faktycznie działa i na ile faktycznie lepiej, niż anchor z frazą kluczową.
Takie testy są obecnie robione przez wiele osób, ale nie są publicznie udostępniane. A co do różnic w działaniu czegoś w Polsce, lub nie Polsce – to raczej większych różnic nie ma.
Cześć Sławek, w punkcie 7 to jakieś same herezje są 🙂
Disallow w robots.txt nigdy nie odpowiadał za wyindeksowanie zasobu. Meta robots z noindex działa zawsze skutecznie.
Parametr noindex nie wpływa na odwiedziny przez Googlebota danego zasobu, co jest logiczne. To, że strona ma nie wyświetlać się w SERP nie oznacza, że nie zawiera linków, które robot chce odwiedzić. Chyba że jest noindex,nofollow, wówczas ślepa uliczka. Przydałby się test, który by porównał noindex,follow z noindex,nofollow w tym zakresie.
Jeżeli dla danego zasobu, który zawsze lub długo był typu index, zmieniono meta robots na noindex, to jestem w stanie zrozumieć wzrost częstotliwości odwiedzin bota – upewnia się, że to nie pomyłka.
O disallow nikt nic nie pisał 🙂
Bardzo fajne zestawienie, najlepsze w sumie z tym że usunięte linki działają jeszcze po czasie. Mam przykład strony gdzie pozycje były powyżej 100. Po linkowaniu wszystko było w 10 a po zdjęciu linków pozycje spadły o max 10 oczek.
Jeśli chodzi o to czy CTR ma wpływ na pozycjonowanie to zauważyłem kilka razy że po wrzuceniu (banalnych) fraz do monitoringu i nic nie robieniu przy stronie, pozycje potrafiły podskoczyć nawet o 5-10 oczek.
Zaskakujące jest, że po przyłożeniu 20 linków strona wskakuje na 1 miejsce, chyba że na frazę na którą nie ma konkurencji.
Z tym depozycjonowaniem to bym za bardzo nie wierzył, przyłożyłem ok 60K linków z komentarzy, joomla k2, guestbooków i innych zaspamowanych miejscówek i nic się nie wydarzyło.
Ja Marku miewam sytuacje zdziwionych klientów spadającymi pozycjami, po czym gdy zaglądam w profil linków widać, że w ostatnim miesiącu przybyło im np. 20k linków .
To mnie akurat nie dziwi, a topy zrobić 20 linkami to chyba na frazy wyssane z palca.
Marek 20k czyli 20 tysięcy linków.
Wiem co to 20K 😉 i dlatego nie dziwię się, że pozycje lecą. Nie twierdzę, że ilość daje pozycje ale w tekście była mowa o 20 przyłożonych linkach, które wbiły frazę w topy, to mnie dziwi, ale są frazy i frazy.
12. Linki z obrazków działają bardzo dobrze
To mi się podoba, mam co robić 🙂
A sam artykuł super!
Pozdro z Panem
Bardzo fajny artykuł ! Nie siedzę w pozycjonowaniu. Zajmuje się tym raczej amatorsko. O niektórych rzeczach z tego artykułu dowiaduje się dopiero pierwszy raz. Moja uwagę przykuły informacje nt. obrazków. Będę je brał teraz częściej pod uwagę oraz to, ze tylko pierwszy link w linkowaniu podstrony przekazuje moc. To bardzo cenne informacje. Na pewno nie omieszkam jeszcze raz przeczytac tego arta.
Gdaq dzięki za tekst i zebranie tych informacji. Co do wpływu https na pozycję strony to rzeczywiście po przejściu na protokół szyfrowany widzę spadki na stronach, z drugiej strony nie zrobił nikt eksperymentu w który obie strony startują od zera – jedna z https druga bez.
Co do samego certyfikatu SSL na stronie to ma to ogromny wpływ na moje zakupy – otóż nie kupuję na stronach bez szyfrowanego połączenia, czasami wystarczy, że ktoś by wrzucił SSL na sam moment płatności i podawania informacji wrażliwych.
Jeszcze raz wielkie dzięki, udostępniam dalej!
Ciekawy jestem dlaczego linkowanie z forów i blogów tak negatywnie wpłynęło na pozycję strony. Czy czasem nie myły to serwisy niskiej jakości?
Przecież olbrzymia większość firm zajmujących się seo wspiera swoje działania takimi praktykami.
Darku po pierwsze spadek zanotowano dopiero przy ostatniej porcji linków z sidebar, a nie z for, choć pewnie i one miały wpływ na finalny wynik.
Po drugie mnóstwo osób wspomaga się komentowaniem na blogach, czy forach ale to co innego niż puszczenie blasta 1 dnia 100K linków 🙂
Bardzo wartościowy materiał, choć kilka testów należałoby ponowić, ze względu na datę tych testów. Pozycjonowanie samymi obrazkami już wielokrotnie wbijało cięższe frazy w topy 🙂
Świetne zestawienie testów! Większość koniecznie trzeba poddać ponowieniu w 2016 ze względu na dynamizm algorytmu wyszukiwarki, ale spora część z nich ma zaskakujące rezultaty (bardzo spodobały mi się linki z anchorami w postaci altów) 🙂
Oj, zgadza się – w branży SEO zmienia się wszystko jak w kalejdoskopie, dlatego trzeba być czujnym no i czasem też eksperymentować, bo takie eksperymenty, chodź niepozbawione ryzyka, potrafią być bardzo przydatne! 🙂
Faktycznie, kilka testów można by było powtórzyć, dzięki za inspirację – sam je wykonam 🙂
Fajny zbiór testów będących inspiracją do własnego eksperymentowania – dzięki!
Długo nic się nie działo na blogu i teraz fajne wejście. Myślę, że warto sprawdzić te wszystkie testy.
Zdecydowanie udał Ci się artykuł.
Najbardziej mnie rozbawiło zastosowanie https, sam obserwuję, że sporo witryn po wdrożeniu nie wraca na swoje pozycje 🙂
Usuwanie linków tez ciekawe…
Chętnie przeczytam więcej takich materiałów !
Fajnie napisany artykuł. To, co mnie zastanawia najbardziej, to sprawa unikalności treści jako takiej… Z Twojego artykułu wynika, że content wcale nie jest taki king… 😉
Pozycjonowałem jedną stronę samymi opisami alt obrazków, tytuły nagłówków, key words i description, niewielki opis na każdej podstronie, bez linkowania z innych stron – wynik: na kilka słów kluczowych dość powszechnych w google grafika na pierwszym miejscu, w wyszukiwaniu google miejsca od 2-10. Strona aktualizowana mniej więcej raz na pół roku. Więc niezbadane są wyroki google’a…
Gratuluję i dzięki za informacje 🙂
Bardzo fajny tekst. O tym, że https może zaszkodzić nie wiedziałem. To, że może narobić nieco bigosu w GA, to fakt sprawdzony empirycznie. Ale, żeby aż osłabiał stronę? Ciekawe.
Tylko co zrobić, jeśli mamy sklep internetowy, i właściwie taki protokół jest już w zasadzie standardem?
Pozycja, pozycją, a bezpieczeństwo? 🙂
Ale jeśli taki test by się potwierdził faktycznie w szerszym zakresie, to myślę, że zakrawało by to ze strony Google’a na zwykłe chamstwo. No, bo jak to inaczej określić?
Strona wpisywana przez http i https to dla Google dwa różne adresy – stąd takie “kfiatki” po migracjach. Natomiast jeżeli chcesz by Twoja strona była ostoją bezpieczeństwa to na początek podepnij https pod koszyk i wirtualną kasę i stopniowo przechodź na https.
Artykuł wart przeczytania. Dzięki za informacje widzę, że coś wykorzystam u siebie.
Dobry wpis. Test na CTR robiłem sam i zawsze wychodziło mi tak samo tzn. strona z wyższym CTR wskakiwała na wyższe pozycja. Jest to szczególnie widoczne przy wydarzeniach które generują duży ale krótkotrwały ruch. Strona wskakuje na wysokie pozycje po czym w dwa – trzy tygodnie spada tam gdzie była.
Ciekawe to wszystko i trudne. Ale będę musiała wypromować swój nowo stworzony blog. na razie to wszystko to dla mnie czarna magia. Jednak jestem na dobrej drodze, ogarnęłam porządnie wordpress dzięki kursowi ze strony eduweb.pl. Więc teraz czas na SEO. Dzięki za wpis 🙂
Ciekawy artykuł. Co prawda dane są już troszkę przedawnione, ale zachęca do ponownych testów i analizy, jak to wygląda obecnie. Może ktoś pokusi się o takie działania i opublikuje swoje wyniki 🙂
Witam Ja testuję na własne potrzeby wiele różnych bezpiecznych rozwiązań na kilku wcale nie najgorszych swoich stronach i efekty są różne. Dla zainteresowanych jakimiś bezpiecznymi testami chętnie mogę współpracować wprowadzając zmiany i testy i wspólnie będziemy obserwować efekty testów.
Konkretne zestawienie. Szczerze powiedziawszy o niektórym pozycjach z listy nie miałem zielonego pojęcia.
Dzięki ! 🙂
Linkowanie do innych stron może podnieść pozycję Twojej strony – Zgadzam się w 100 procentach, przeprowadziłem nawet test jednej domeny, po dodaniu linków do wikipedi oraz stron rządowych gov. pozycje skoczyły z 10 do 5. Linki były dofollow.
Wielki szacun za zebranie tego w jedno miejsce. Jednak obecnie algorytm zmienia się tak bardzo i tak często że część tych eksperymentów równie szybko się przedawni. Niektóre z tych eksperymentów potwierdza działania SEO które prędzej czy później zostaną zdewaluowane przez Wujka G. Mam na mysli np. pkt 4, 8 i 11. Nawet jeśli teraz działają, to na logikę nie jest do do końca white hat i można się spodziewać że za parę-parenaście miesięcy google weźmie się za tego typu praktyki. Wszystko należy robić z głową i myśleć długofalowo.
Z drugiej strony mamy pkt 1 i 9 – działania które na logikę powinny podnosić wyniki ale nigdy nie było na to dowodu. Teraz są 🙂
Gdaq mam do Ciebie pytanie odnośnie systemu komentarzy. Czy to standardowe rozwiązanie? Czy korzystasz z jakiejś wtyczki? Ja jestem nowy w świecie WordPressa i mam kupiony szablon graficzny. moje komentarze wyglądają jakoś inaczej.
Dzięki za odpowiedź.
Cześć Damian. To standardowe rozwiązanie, wygląd to kwestia szablonu, ostylowania pól formularza.
Bardzo przydatny zbiór, powiem szczerze, że niektóre wyniki eksperymentów nas zdziwiły. Potwierdza to tylko, że pozycjonowanie to nie tylko linkowanie, jest wiele możliwości by podnieść pozycję w wyszukiwarkach. Niebezpieczne za to zaczynają być firmy, które specjalizują się w depozycjonowaniu. Jestem ciekawy jak czy niedługo takie usługi będą reklamowane jako coś normalnego.
Ja ostatnio dostałem zapytanie o koszt realizacji takiej usługi także zainteresowanie jest.
Choć to dla mnie zabawa.
Pozycjonowanie jako główne źródło ruchu jest bardzo niebezpieczne. Zbyt ryzykowne aby opierać na nim swój biznes. Jako dodatkowe źródło ruchu jest super bonusem do pozyskiwania klientów.
W sumie jestem początkujący, ale widać, że włożyłeś sporo pracy w napisanie tego artykułu. Muszę nieco zmienić myślenie na temat pozycjonowania i iść nieco inną drogą niż mi się wydawało.
Gdaq, nie wiem, jak to robisz, że nawet ktoś zupełnie nie znający się na temacie (czyli ja), rozumie co napisałeś 🙂
To moja misja 🙂 odczarowywać seo.
Dla mnie zaskoczeniem i nowością był punkt 14.. człowiek uczy się całe życie, dzięki 🙂
Właśnie co do punktu 4 ostatnio się nad tym zastanawiałam.
Biorąc pod uwagę, że mamy małą stronę, na którą boty google wpadając co x czasu i umieścimy wpis wcześniej niż onet, to i tak boty znajdą wpis onetu wcześniej i potraktują jako oryginał, bo zauważyły go wcześniej.
Właśnie ostatnio się zastanawiałam, czy to możliwe, a ten eksperyment to potwierdza.
Czasami to strach się bać na co to google zwraca uwagę. Najgorszy jest numer 14. Ktoś skopiuje tekst, a Ty cierpisz..
Bardzo pomocny temat, należą się wielkie podziękowania dla admina wpisu! Czegoś takiego właśnie szukałem. Spora dawka przydatnej wiedzy dla początkujących seo’wców min dla mnie. Teraz już mniej więcej wiem, którą drogą iść, które drzwi otwierać, a w które kompletnie się nie pakować.
Co do ostatniego punktu.. Czy komentarze z for zawierających linki do strony powodują spadek pozycji? Kwestia do dyskusji. Na pewno 3 eksperymenty nie mogą o tym decydować zwłaszcza, że jak pisze “W celu przeprowadzenia testu zakupiono sporą liczbę spamerskich linków i skierowano na konkretną stronę…”. Zrobiono to dużą ilością link w krótkim czasie. A nawet jak by to komu by się chciało w to bawić?
Dobry artykuł, a choć już leciwy, to z przyjemnością i lekko się czyta. Dzięki
A jak uważacie, czy widoczna data publikacji ma znaczenie także czy jest nieistotna. Wiele stron ma ukryte daty publikacji treści a inne ją podają. Czy według Was ma to znaczenie dla pozycji w wyszukiwarce – chodzi o widoczność dat na stronie. Google samo wie kiedy zindeksowało treść i ma to też w sitemap – a mi chodzi tylko o widoczną datę na stronie pod treścią w schemie.
Depozycjonowanie? Czy ktoś się jeszcze w to bawi?