Kurier Oxenfurcki

Kurier Oxenfurcki to newsletter redagowany przeze mnie. Mógłbym napisać, że będzie super, inny niż wszystkie, w ogóle mega. Ale zamiast tego poniżej zamieszczam jego pierwsze wydanie. Przeczytaj i oceń samodzielnie. Zapisać się możesz na dole strony.

Witaj w pierwszym numerze Kuriera Oxenfurckiego! Niezmiernie się cieszę z faktu jego wysłania :). Mam nadzieję, że otrzymując go regularnie co tydzień (docelowo w każdą sobotę), stanie się dla Ciebie wartościowym źródłem informacji co też ciekawego wydarzyło się ostatnio w świecie szeroko pojętego marketingu internetowego, ze szczególnym naciskiem na wyszukiwarki. Formuła jeszcze się wykuwa, więc kolejne edycje mogą się nieco różnić. Chcę co tydzień zbierać istotne wiadomości, mieszać je z jeszcze ciekawszymi artykułami o bezlitosnej długości, całość dopełniając szczyptą autorskiego komentarza. Jeśli po przeczytaniu zechcesz podzielić się swoimi uwagami - zapraszam do kontaktu - wystarczy odpowiedzieć na ten email. Niniejsze wydanie, jak i każde inne, możesz także przesłać znajomym jeżeli uważasz, że mogą się zainteresować - zapisy (jeszcze) czynne pod adresem https://bartek.io/kurier-oxenfurcki/.

Nuntio SEO

Google indeksuje i wyświetla w wyszukiwarce obrazki z plików PDF

Może jakiś wielki news to nie jest, ale zawsze przyjemniej zobaczyć potwierdzenie czegoś co się przypuszcza, niż w przypuszczeniach tkwić :). Informacja szczególnie ważna dla biznesów posiadających tego typu treści w ramach witryn (hello, regulaminy? schematy produktów? instrukcje?). Dodatkowy zastrzyk ruchu z Image Search jest zawsze miły, aczkolwiek to jaki będzie miał potencjał konwersyjny to już odrębna kwestia. Według informacji SEL, testy tej funkcjonalności rozpoczęły się w czerwcu br.

Czynniki wpływające na ranking w Google

Przyzwyczailiśmy się do listy czynników wpływających na ranking, publikowanej przez Moz.com w cyklu dwuletnim. Już sama ilość prezentowanych elementów warunkuje właśnie taki cykl publikacji, więc siłą rzeczy materiałów pokrewnych w równie szerokim zakresie praktycznie nie ma. Ale ostatnio trafiła się rodzynka w postaci opracowania wydanego przez Northcutt Consulting Group. W odróżnieniu od Moz, ludzie z Northcutt dokonali zestawienia 261 czynników, które sami określają jako pochodzące z trzech źródeł, tj.: Patent filings, Direct statements from Google and/or their team, Applying The Scientific Method. W moim odczuciu wyszła z tego szalenie ciekawa mieszanka, komplementarna do tego, co przeczytać można w eksperckim destylacie od ekipy Moz.com. Polecam.

Kara za reklamy zachęcające do instalacji aplikacji

Danny Sullivan jaskrawo pokazuje googlową moralność Kalego, tym razem dotyczącą zapowiadanej na 1 listopada br. aktualizacji warunków na bycie witryną mobile-friendly. W skrócie chodzi o to, że już niedługo niekoszerne będzie promowanie instalowania swojej aplikacji mobilnej poprzez kreatywki na komórkach, które zasłaniają właściwą treść danej strony (z angielska określane mianem interstitial). No dobra, można byłoby jakoś przeżyć, tylko kłopot w tym, że za złe uznawane jest zakrycie strony reklamą appki, ale jeśli zamiast tego pokaże się adunit AdSense z reklamą, na której Google zarabia, to już jest okej. Serdecznie polecam zapoznanie się z całością materiału Danny'ego, jak również z tekstem Jeremy'ego Stoppelmana (CEO Yelp.com), który przedstawia świat w perspektywie innej niż ta googlowa.

Jak Google może rozumieć duplicate content?

Barry Schwartz napisał krótki tekst o tym, jak Google zwraca się z pytaniem do webmasterów o sposoby wykrywania zjawiska duplicate content. Taka sobie ciekawostka sama w sobie, osobiście nie uważam żeby brakowało im pomysłów - co najwyżej interesują ich nowe wzorce, gdyż spamerom pomysłowości też nie brakuje. Ale nie w tym rzecz, otóż pod tekstem pojawił się pewien bardzo ciekawy komentarz, który przytaczam w całości poniżej: Nutshelled: A LONG time ago (early 2000's) Google geeks were talking too much... basically they would strip head block, scripts, styles, comments, forms, links and link text (eliminates navigation noise) ... then they strip html tags and punctuation tokens. Then they use an offset like after the first 25 words take the next 13. Not enough words with offset? automatic thin content. Those 13 words are your unique identifier. There are 250K words in the english language and 25K of them are frequently used on the web so you have on average at least a 13 digit base 25k number... that equates to a HUGE base 10 identifier that should never collide unless content is being duplicated. The specific offset was never mentioned and whether words are picked from top down or bottom up was never specified. So for content spinning you want to make sure that at least every 6th word changes. This accounts for the offset pushing the sample between two sentences. This definition has never failed me and passes copyscape too. I would wager that it is still in use today or an even simpler version is being used now. :)

Nuntio Analytics

Popraw swoje skille z Google Analytics

Mark Twain powiedział Nigdy nie pozwoliłem mojej szkole stanąć na drodze mojej edukacji i miał rację. Powiedzenie to się nie dezaktualizuje, wystarczy szkołę zamienić na pracę. Polecam zatem zasoby Analytics Academy. W chwili obecnej jest tam pięć kursów, obejmujących w zasadzie wszystkie istotne płaszczyzny zastosowań tego narzędzia analitycznego.

Lista ograniczeń Google Analytics

Brian Clifton opublikował ciekawe zestawienie limitów i ograniczeń, jakie panują w ramach Google Analytics. Informacje są dość przydatne, ponieważ przeróżne zastosowania GA mogą dojść do momentu, gdy jakąś granicę się przekroczy, co powoduje że debuggowanie problemu bez świadomości gdzie jest sufit staje się uciążliwe. Od siebie dodam, że lista ta nie jest kompletna ;).

Googlebot i JavaScript

Adam Audette przedstawił wyniki testów zachowania Googlebota w stosunku do konkretnych zastosowań JavaScriptu. I trzeba przyznać, że są to wyniki bardzo interesujące, jeśli nie zaskakujące. Pierwsze wzmianki o romansowaniu Googlebota z Javascriptem (i wtedy jeszcze istotnym Flashem) pochodzą już z 2008 roku. Przez 7 lat czekania na innowację w tym zakresie Flash już prawie zdążył umrzeć, a patrząc na to co potrafi phantomJS dostępny dla każdego jako open-source, trudno się dziwić, że to w końcu na witrynę należy patrzeć przede wszystkim nie przez pryzmat kodu źródłowego, ale modelu DOM. Autor publikacji był uprzejmy dołączyć wersję tl;dr, więc oto ona: 1. We ran a series of tests that verified Google is able to execute and index JavaScript with a multitude of implementations. We also confirmed Google is able to render the entire page and read the DOM, thereby indexing dynamically generated content. 2. SEO signals in the DOM (page titles, meta descriptions, canonical tags, meta robots tags, etc.) are respected. Content dynamically inserted in the DOM is also crawlable and indexable. Furthermore, in certain cases, the DOM signals may even take precedence over contradictory statements in HTML source code. This will need more work, but was the case for several of our tests.

Po szantażu httpsem przyszedł czas na structured data

Popchnięcie webmasterów w stronę https odbiło się czkawką wielu takim, którzy słuchając rady Google przenieśli istniejące serwisy na bezpieczne połączenie. Oprócz masy problemów przy transferze nie dało to praktycznie nic, ale na szczęście po odkręceniu albo przeczekaniu trwałej szkody też nie przynosi. Barry Schwartz wspomina natomiast o kolejnej marchewce szykowanej przez Google. Tym razem ma to być bonus do rankingu za to, ze witryna używa w obrębie stron tzw. snippetów structured data. Naturalnie z zastrzeżeniem (...) But I would’t assume that using structured data markup with make your site jump up in rankings automatically. (...) Oczywiście, że nie. Tutaj chodzi o usystematyzowanie scrappowania danych, które następnie zostaną użyte w generowaniu boksów knowledge graph bezpośrednio na stronie z wynikami. Google powie, że to jest #fortheuser, aby user mógł uzyskać odpowiedź jak najszybciej. Ja twierdzę, że to jest #forthesuckers. Obecna sytuacja wygląda tak: wydawca publikuje treści, Google je indeksuje, pokazuje podgląd na serpach, wysyła użytkownika do wydawcy, wydawca może zarobić. Google chce żeby było: wydawca wdraża structured data, Google scrappuje i indeksuje w knowledge graph, użytkownik serpów widzi wyniki i reklamy Google. Zarobić może tylko Google, ponieważ użytkownik nie idzie do wydawcy - już uzyskał odpowiedź na swoje pytanie i nic nie da tu nawet pozycja #1 gdyż Google tak dopasuje sobie rozmiary boksa + reklam, żeby wyniki organiczne zepchnąć poniżej przełamania ekranu. Jakąś chwilę to potrwa, wydawcy trochę pozipią, a potem jak już nie będzie skąd brać ruchu pojawi się rozwiązanie spod znaku publikuj swoje treści na serwerach Google! Szybko, tanio, zaindeksowane, nie potrzeba SEO. Aha, AdSense obowiązkowe.

Nuntio Res Rei

Trzy litery Alphabetu

Kiedy pan Page odpalił bombę o transformacji Google w konglomerat, do pisania na ten temat rzucili się wszyscy. Bez wątpienia jest póki co branżowy news roku, ale zejdźmy na ziemię. W tym konkretnym alfabecie są istotne tylko trzy litery: P jak podatki, A jak anti-trust i T jak talent. Podatki rozumie się samo przez się - duże korporacje, niezależnie od branży, innowacyjnością przodują przede wszystkim w unikaniu podatków. Anti-trust to rosnący (a może już jątrzący się?) problem dla Google przede wszystkim w Europie, ale w Stanach też powoli zaczyna takowym być (te miliony wydane na lobbing to przecież nie z dobrego serca). Wydzielając osobne spółki zależne dają sobie większe pole manewru. Ostatnią kwestią, którą określiłem jako talent, jest stopniowa utrata kontroli nad pracownikami z wysokich półek, którzy odchodzą do startupów pokroju Ubera kuszeni opcjami na akcje. W dotychczasowej strukturze Google były też problemy natury prestiżowej, związane z awansami wybitnie utalentowanych menadżerów. Jest jeszcze ten aspekt: (...) improving the lives of as many people as we can - tak, jasne. W tej bajce nie ma smoka, polecam książkę When Google Met WikiLeaks.

Subskrybuj Kurier Oxenfurcki

* indicates required