1 ► John Mueller in uno degli ultimi Webmaster Hangout dice di non utilizzare come dato d’analisi il numero di pagine indicizzate che stampa la query “site:urldenostrosito.qualcosa” perchè, parole sue, “( questa feature ) è ottimizzata per la velocità e non per la precisione“: viene consigliato di utilizzare semplicemente il dato contenuto nei report delle sitemap. Questo però, vi faccio notare, funziona solo per il vostro sito!
Per fortuna state leggendo questa newsletter 🙂 : se avete qualche ( tanti ) proxy alla mano, potete usare Scrapebox o altri crawler come “indexation checker” sia per siti esterni che per capire con più precisione quali pagine sono indicizzate e quali no:
- Scaricate le URL di TUTTE le pagine del dominio del quale volete controllare l’indicizzazione facendo si che il crawler ignori robots.txt e i nofollow ( per evitare di perdere pagine bloccate ma non indicizzate, può succedere ). Potete anche provare a vedere se è possibile scaricare le sitemap agli indirizzi più utilizzati, ad esempio www.nomesito.com/sitemap.xml è quello standard e www.nomesito.com/sitemap_index.xml è quello utilizzato da Yoast;
- Create una regola di estrazione per il vostro scraper/crawler cercando la stringa “non ha prodotto risultati in nessun documento“;
- Prendete la lista url e anteponete ad ogni url a stringa “https://www.google.it/search?q=site:“. Vorrei farvi l’Excel ma non ho tempo neanche di caricarlo, usate solo “concatenate”;
- Scansionate l’intera lista di url ottenuta ( attenzione che Google vi banna temporaneamente se lo bombardate di richieste, se avete mai usato SEOQuake sapete di cosa parlo, usate tanti proxy e scansionate piano, magari settate tempi altissimi e andate a dormire o a fare la spesa, io l’ho fatto );
- Controllate quali hanno riportato un match con la stringa di estrazione: sono quelle non indicizzate;
Naturalmente anche questo metodo non è perfetto al 100%: possono esserci differenze tra shard di Google sopratutto su siti di grandi dimensioni con pagine molto profonde nella struttura.
Detto questo, la sopracitata bruttura sarà “superata”, si spera, dalla versione nuova della Search Console che pare spieghi esattamente il perché una pagina sia o meno indicizzata, era ora!
2 ► Il prode Danilo Petrozzi ha rilasciato free un tool chiamato Rising SERP, fico! A me piace definirlo un “GUI di Google Trends”, di fatto viene descritto in questo modo dall’autore:
RisingSerp permette di osservare keyword che sono diventate popolari su Google negli ultimi giorni. Grazie ai dati numerici REALI derivanti dalle ricerche ORGANICHE su Google, è possibile osservare il trend delle keyword in modo analitico e “scientifico”
E’ molto fico perchè permette, in modo gratuito, un colpo d’occhio MOLTO veloce sui trend italiani di ricerca. E’ interessante sia a livello SEO che antropologico! Ieri, domenica 10 Dicembre, il trend maximo è stato per la query “supermercati aperti oggi” e, mi piacerebbe avere il tempo per capire il perchè, “magnifica presenza” un film del 2012 di Ozpetek. WTF?
E’ possibile usare dei filtri per avere, ad esempio, un colpo d’occhio su una specifica categoria settoriale di query, ad esempio quelle dello sport, molto utile per chi lavora su Google News. Si può e arrivare velocemente a vedere sia la vera e propria pagina di Google Trends che delle SERP specifiche.
Devo dire che non ci ho ancora giocato quanto vorrei, e spero di riuscire a farlo per parlarne più diffusamente in seguito. Riguardo a specifici utilizzi beh, me ne vengono in mente diversi, a partire da Google News per passare alle affiliazioni o al Social media marketing. Ne riporta qualcuno anche Danilo nel tool stesso. Dateci un’occhiata, anche due, tenendo a mente che è una versione ancora per lo più incompleta ( ma conoscendo un pochino Danilo, verrà fuori una figata ).
3 ► I miei 2 amici Francesco Margherita e Benedetto Motisi hanno rilasciato una Case Study su di una strategia di SEO negativa sul blog di SemRush.
Partendo da una segnalazione di Ryuichi Sakuma la strana coppia ha prodotto uno studio su quello che loro chiamano “Negative Spinning”, ovvero che “parrebbe possibile fare SEO negativa anche senza produrre link, semplicemente ricopiando il testo nei siti “giusti” e nel modo “giusto”.
Il test in se può essere interessante, e il fine ultimo di “fare da beta tester per Google” è ammirevole, il grosso problema è che mancano dati molto importanti per definirlo un vero case study:
- Non vengono specificati i siti attaccanti, definiti solo “zozzi che più zozzi non si può”, da Benedetto non mi aspettavo niente di diverso, lo amo;
- Non viene specificato il tipo esatto d’attacco: viene detto che “il testo della pagina penalizzata viene infilato nei commenti dei siti spam” ma non viene detto come e in che misura. Si parla di “spinning”, il testo o le porzioni dello stesso sono in un qualche modo elaborate?
- Viene osservata una modesta fluttuazione dei risultati verso il basso che, mi spiace dirlo,non verifica l’ipotesi per due motivi: il primo è che, ahimè, queste fluttuazioni di 5 o 6 posizioni nella prima/seconda pagina delle SERP capitano anche sui miei siti che non tocco da mesi senza la presenza di attacchi del genere ( ho verificato ), così come quelle più ampie di posizionamenti già bassi, ad esempio al 40/50° slot, che solitamente hannoswing più ampi di 10/20 posizioni. Il secondo motivo è che Marco Ronco ha parlato di “pagine sparite” non di perdita di ranking, e quindi l’effetto non è stato ricreato;
Insomma spero di vedere lo studio crescere e migliorare perché l’idea è buona e questi 2 personaggi sono parecchio tosti! Li aspetto al varco! Quello che voglio dire è che per ora non andrei nel panico, non è stata rilasciata l’arma finale al pubblico come ho visto commentare!
4 ► Mi sono visto recapitare una mail dall’indirizzo del defunto Eric Ward e investigando ho scoperto che un suo collaboratore ( forse parente ), tale Matt LaClear ha raccolto la torcia come si suol dire, rilanciando la sua newsletter premium che pare rimarrà temporaneamente gratuitaper permettere agli utenti saggiarne la qualità fino a Febbraio.
Seguirò gli sviluppi con interesse conscio del fatto che di tipi come Ward ce ne sono veramente pochi al mondo.
5 ► Nel tentativo di arginare il fenomeno adblocker ( e naturalmente di fare ancora più soldini ) Google ha annunciato il nuovo Ad Experience Report.
Tradotto dal loro blog “Lo Ad Experience Report propone una lista delle esperienze pubblicitarie sul vostro sito che vengono identificato come in violazione dei Better Ads Standars, una set di esperienze pubblicitare che la Coalition for Better Ads ha determinato come molto seccanti per gli utenti. Correggendo queste esperienze migliorerete il grado di apprezzamento degli utenti verso il vostro sito e la possibilità che essi ritornino a visitarlo. Aiuterete anche la salute generale dell’ecosistema online ( e quindi la diminuzione delle percentuali d’utilizzo degli adblocker aggiungo io )”.
Personalmente non ho ancora nessun sito segnalato come valutato da Google, ma il tool sembra simpatico e ve lo segnalo. Immagino che tra molto poco si inizierà a parlare di “Ad Experience Report” fattore di ranking, io ve lo lascio scritto qua :).