Ciao! Questa newsletter esce in ritardo per lo stesso motivo per il quale, con ogni probabilità, la settimana prossima non riuscirò a spedirtene una nuova: sto preparando un sacco di cose molto interessanti per te, qualche (perlopiù atteso) ritorno e una grossa novità. Ora però voglio augurarti una buona lettura!
Mueller ci spiega indirettamente quale sia per Google il ruolo delle sue stesse “regole”
Partiamo da una cosa piuttosto interessante, ovvero dal fatto che il buon John Mueller ha detto, parafrasando (ma neanche così tanto):
“un sito può usare ad esempio il keyword stuffing in maniera massiccia ma avere un business fantastico, con persone che amano visitarlo, amano trovarlo nella ricerca con la conseguenza che (noi di Google) abbiamo tantissimi buoni segnali per quel sito. Per questo potremmo mostrarlo al numero uno, anche se sta facendo keyword stuffing“
Questa non è una traduzione letterale ma il messaggio è proprio questo: un sito può violare le guideline per i webmaster, Google può esserne consapevole ma lo stesso metterlo in prima posizione per delle query.
Citandomi in un commento su EV Oasis voglio ripetere in questa newsletter che, come penso fosse già chiaro anche prima di queste dichiarazioni:
“l’importante non è il rispetto “delle regole”, che non sono state create per l’etica quanto per praticità, visto che tempo fa non avevano i mezzi concreti a tamponare le sofisticazioni dovute a strategie che creavano segnali “artificiali” o, per meglio dire, artificiosi. L’importante per Google è che i siti “funzionino” come risposta per gli utenti in SERP“
Google, lo ripeto ancora perché questo pensiero non dovrebbe mai essere ignorato mentre fai SEO, ha dati relativi al comportamento degli utenti sia sulle SERP che dopo l’atterraggio dalle SERP, presi non da Analytics, dato che può essere manipolato e non è affidabile, quanto dalle tantissime tecnologie proprietarie che utilizziamo tutti ogni giorno come Chrome e Android.
Fare SEO è far funzionare il rapporto tra chi fa la query e chi offre la risposta, non giocare con/intorno/oltre le “regole” di Google.
Il buon Fabrizio Benelli mi ha fatto una domanda interessante che riporto integralmente:
“Ma quindi se io ho il sito che risponde nel modo migliore del mondo ad una determinata query ma per qualche strano motivo Google non lo capisce e non mi posiziona…posso passare al lato oscuro? Tanto se finisco primo in modo “illecito” ma il mio sito risponde nel modo migliore al cliente Google non mi penalizzerà? È questo il senso?“
Voglio chiarire subito una cosa: quello di Mueller non è ne un invito a “barare” ne un endorsement ad “il fine (posizionamento) giustifica i mezzi (lo spam)”: è un invito a riflettere sul fatto che forse, a scapito delle cose che un sito che “bara” sta facendo, questo si posizioni meglio del tuo sito perché alla fine dei conti Google determina attraverso il comportamento degli utenti che è comunque più apprezzato del tuo.
L’obiettivo di Google è che vincano i siti che rendono le SERP più utile/gradevole/performante/soddisfacente per gli utenti e che possono invogliarli a tornare ad utilizzare Google e cliccare sulle ADS che permettono all’azienda di fatturare miliardi di dollari. Questo è l’obiettivo di Google, non avere “giustizia” o mettere per primo “il meglio in assoluto”.
Il “meglio”, la “qualità” per Google è ciò che, secondo i suoi calcoli e secondo le sue astrazioni matematiche, è in grado di far generare feedback positivi dall’utente. Il meglio non è quello che decide l’imprenditore/webmaster/blogger che “sa cosa vogliono veramente gli utenti di un sito che tratta XXX”.
Come ho risposto a Fabrizio su Facebook, quando dice “se io ho il sito che risponde nel modo migliore del mondo ad una determinata query ma per qualche strano motivo Google non lo capisce e non mi posiziona“ sta sbagliando in partenza: in questo caso è il webmaster che non ha capito cosa Google pensa sia la qualità per quella query o, per meglio dire, quello che Google attraverso le SERP dice riguardo alle risposte che vorrebbe per quella specifica query.
Citandomi nuovamente
“Il senso è che a volte Google, quando individua siti che pur violando le sue guideline funzionano per gli utenti, perché ad esempio fanno linkspam ma hanno contenuti molto più rilevanti degli altri, li grazia ignorando le malefatte (sapendo che serviranno comunque meglio degli altri i suoi utenti). In buona sostanza non ci tiene a “punire chi bara” quanto a “premiare quello che (nonostante tutto) funziona meglio degli altri (per gli utenti). Non è un lasciapassare per barare“
So che questo sarà un discorso impopolare ma penso che le cose stiano proprio così. Sono concetti che penso possano cambiare in meglio chi fa strategia in ambito SEO e quindi tengo molto se non altro ad esporre chi ha voglia di ascoltare a queste idee.
Il succo del discorso è che ci sono motivi MOLTO PRATICI che fanno si che per te sia un’ottima idea mettere l’utente assolutamente al centro: questo perché questo discorso unisce sia gli interessi di Google, per i quali mette in campo tecnologie e risorse impressionanti, sia gli interessi del tuo sito e quindi il business legato al sito stesso. Ti invito a riflettere sulla questione.
AHREFS vuole creare un motore di ricerca basato sul profit sharing per spodestare Google
Dmitry Gerasimenko, CEO e fondatore di AHREFS (conosciuto con il Twitter handle “@botsbreeder” ovvero “allevatore di bot“, nome interessante direi), ha dichiarato in un twitter thread che la sua azienda sta lavorando ad un motore di ricerca che vorrebbe mettersi in diretta competizione con Google. Ho la tua attenzione vero?
Secondo lui due giganteschi problemi che Google non vorrà mai mettere a posto sono:
- La privacy;
- La mancanza di una strategia di profit sharing, ovvero della “divisione della torta” con i publisher (noi);
Gerasimenko si concentra sul secondo punto, questione veramente molto importante e già discussa più volte, anche se in modo tangenziale, in questa newsletter. Vi traduco quasi integralmente quello che ha scritto:
“Google ha un giro di affari da 100 miliardi di dollari per il suo servizio di search. Immaginate se all’improvviso venisse implementato un modello di profit sharing 90/10, mandando 90 miliardi di dollari all’anno ai publisher che creano contenuti. Sarebbe stato un mondo molto diverso. Ricordate quei banner di Wikipedia che chiedevano donazioni ogni anno? Wikipedia con questo modello di profit sharing incasserebbe qualche miliardo e potrebbe pagare con salari decenti delle persone per migliorare gli articoli. Stiamo parlando di centinaia di migliaia di persone che potrebbero pagarsi da vivere organizzando della conoscenza. In questo nostro mondo immaginario i siti web potrebbero rimuovere le limitazioni che spingono al pagamento visto che avrebbero una parte del profitto servendo dei buoni contenuti, rendendo sensato il fatto di renderli tali per far si che la gente ritorni sul sito stesso.
Abbiamo osservato come il profit sharing su YouTube abbia creato una vera e propria nuova industria per il videomaking come forma di sostentamento. Quindi perché Google non condivide i profitti delle ads dentro il motore di ricerca? La risposta è la spinta verso il profitto per accontentare gli investitori. Per altro la situazione è in realtà peggiore del “tenersi tutti i profitti”: Google sta mostrando sempre più spesso sulle SERP del contenuto ottenuto tramite scraping in modo che tu non debba visitare un sito nella maggior parte dei casi, cosa che riduce le opportunità per chi ha creato il contenuto di monetizzare.
Noi (di AHREFS) vediamo Internet come l’impegno globale del genere umano di preservare e moltiplicare la conoscenza, cosa che è frequentemente coordinata come caotica, spesso spinta da forze economiche o da impulsi personali (ho tradotto letteralmente). Nonostante ciò è un enorme moltiplicatore del potere della conoscenza, storicamente senza precedenti, così come lo è per l’intrattenimento e l’educazione. E’ uno spietato selvaggio west della libertà di espressione e un medium di comunicazione senza limiti.
Naturalmente una risorsa così vasta, specialmente per il fatto che è gratuita, attrae una grande quantità di sforzi mirati a sfruttarla, privatizzarla e a controllarne gli accessi, con ogni soggetto interessato che di fatto strappa la sua parte di Internet, creando buchi nella trama sottile e fragile di questo fenomeno unico. Come contromisura deve esserci un meccanismo che renda i “nodi” più forti e capaci di auto-rigenerarsi, mantenendo il web forte e trasparentemente interconnesso, così come naque.
E’ naturalmente vedere i motori di ricerca come il tentativo di portare ordine nel disordinato bazaar del web, ma la struttura saldata intorno al caos non dovrebbe essere rigida e contenitiva come una scatola di vetro per un serpente velenoso (…) perché il caos necessita di struttura non per essere straziato dalle sue stesse forze interne e perché la struttura necessita del caos come fonte dalla quale attingere idee perché l’evoluzione non si fermi.
Mettendo da parte i liricismi (forse era ora N.D. Emanuele), quello che pianifichiamo di fare è di lanciare un motore di ricerca votato alla privacy e con un modello 90/10 di condivisione del profitto, ovvero nel quale il 90% del profitto va al creatore dei contenuti, lasciano il 10% (ad AHREFS) per le spese ed il profitto. P.S. Anche Facebook e altre piattaforme potrebbero avere il modello di profit sharing.
Il 2 Aprile ha aggiunto
“Vorrei dare seguito all’annuncio del nostro progetto search. Sapete che per noi è veramente facile rilevare le PBN (al contrario di altri crawler come Googlebot eh eh)? La maggior parte di essi blocca il nostro crawler quindi non dobbiamo neanche preoccuparcene.“
Allora, partiamo col dire che la situazione è molto interessante in questo caso:
- sappiamo che AHREFS ha una tecnologia di crawling proprietaria con anni di sviluppo alle spalle e che, secondo me, funziona discretamente bene, almeno per ciò che concerne i dati del suo tool;
- sappiamo che AHREFS è un’azienda con anni di esperienza dall’altro lato della barricata, esperienza che nel tempo è stata messa a frutto per creare un ottimo tool basato, appunto, sull’esperienza (la smetto… te lo prometto);
- sappiamo che i publisher, o almeno la parte più “vocale” della community, sono, per usare un eufemismo, “in disaccordo” con la visione futura di Google per quanto riguarda il suo motore di ricerca, che di fatto continua a necessitarne l’apporto chiudendo i proverbiali rubinetti attraverso SERP frutto di vero e proprio scraping;
- sappiamo che i publisher sono “””costretti””” (metto tantissime virgolette perché non è propriamente così) ad utilizzare strategie aggressive di monetizzazione per portare il pane in tavola. Non è esattamente così, ma diciamo che mediamente questo è il sentimento comune, almeno per quello che personalmente vedo in giro;
Personalmente, almeno a parole, mi pare che sia un progetto quantomeno interessante da seguire, più di tante venture “nate dal nulla” e… finite nel nulla. Mi preoccupa un po’ l’annuncio perché mi pare sia stato fatto molto presto, con il progetto apparentemente in fase embrionale: spero gli sia dato seguito.
Ho alcune idee ma per ora non voglio aggiungere altro, sicuramente ne riparleremo. Penso però fosse importante farti quantomeno leggere la riflessione, forse a tratti troppo sopra le righe, di qualcuno che in fin dei conti qualcosa di importante, almeno nella nostra community, è già stato in grado di costruirlo. Sono curioso di vedere cosa ne verrà fuori.
3. Leggiamo insieme un interessante report sul traffico dati su reti mobile
Sono venuto a conoscenza tramite un articolo del Search Engine Journal che l’azienda Sandvine, un colosso della Network Intelligence (attività nella quale ci si occupa, semplificando moltissimo, di analizzare in tempo reale i pacchetti scambiati sulle reti dati) ha pubblicato un report chiamato “The Mobile Internet Phenomena Report 2019“, nel quale l’azienda analizza, in modo poco sorprendente, il traffico mobile inteso come vero e proprio “utilizzo di banda” (puoi anche trovare il PDF utilizzando una semplice query su Google, io per correttezza verso chi si è impegnato a produrre questo documento questi dati ti lascio un link alla pagina ufficiale dove viene richiesta una mini-iscrizione).
Il reporto analizza il traffico, espresso in megabyte, sulle reti di 5 aree geografiche: Nord America, Sud America, Europa, Medio Oriente e Il versante pacifico dell’Asia. Lo studio è durato un mese. Tra le cose interessanti emerse:
- YouTube, a livello di download, è il re traffico mobile: primo in tutte le aree geografiche analizzate rappresenta mediamente più del 35% del traffico. Questo sicuramente anche per la natura stessa dei video, un media piuttosto pesante a livello di byte, tenendo però a mente che non è l’unico servizio che serve questo genere di dati;
- A livello di upload Snapchat supera YouTube: una volta si giocava con il Supertele;
- Il traffico relativo alla navigazione web è di circa il 4,55% in download e il 4,15% in upload: se i siti fossero ottimizzati meglio probabilmente questa cifra scenderebbe ulteriormente. Ricordati che parliamo di traffico dati, non di volume di utilizzo: un numero più basso è semplicemente più desiderabile in questo caso;
- il 20% del traffico mobile è relativo a properties di Facebook, quali Facebook, Whatsapp, Instagram etc. etc. Queste applicazioni hanno anche una ratio di engagement altissima: il 70% dei dispositivi studiati le ha utilizzate nel periodo preso in esame. Insomma se non te ne fossi accorto siamo dipendenti dai social (soprattutto quelli di Zuckerberg), ma sicuramente l’avrai già letto… sui social!
- Facebook Video, studiato separatamente dalla applicazione principale in questo report, sta recuperando terreno rispetto a YouTube. Personalmente mi spiace perché trovo che YouTube sia un social fantastico gestito in modo un poco approssimativo. Facebook gestisce i video in un modo molto meno interessante, perché troppo integrato ad una esperienza “mista”. Questi sono pareri personali naturalmente;
- Netflix fa capolino nella top 10 di tutte le regioni per quanto riguarda il download, questo pur avendo un utilizzo orientato più verso la rete domestica che quella mobile: questo è un segnale di come Internet ad alta velocità sia ormai sempre nelle nostre tasche (un po’ meno in quelle italiane forse…);
- Non tutti usano i DNS: questo è un sintomo della Internet of Things, nella quale alcune device si interfacciano ai server direttamente tramite il loro IP o passano per reti IPsec, che da quanto ho capito sono dei “tunnel cifrati” via VPN per la protezione dei dati;
- Detto questo dopo i DNS i “portali” più utilizzati per l’accesso alla rete Internet sono Google, Facebook e Instagram. Immagino tu non sia sorpreso;
- In Europa Instagram ha “mangiato” del traffico da Facebook e Netflix guadagna terreno “approfittando” delle flat rate sul traffico dati che apparentemente vengono proposte solo fuori dall’Italia (forse per nostra fortuna).
- In Europa, per quanto riguarda l’upload, viene rilevata una forte presenza dei servizi di cloud storage come Google Cloud e iCloud, quei simpatici archivi dove vengono rubate le foto che vengono poi distribuite chissà dove. Se sommiamo le percentuali relative iCloud, iCloud Photo Stream e Google Cloud Storage rappresentano il 12,86% del traffico in upload per quanto riguarda l’Europa, una enormità;
Che ci frega a noi che facciamo SEO di tutte queste cose? Beh, direi che visto che buona parte di questo traffico (intorno al 50% in download) viene generato da esperienze che partono da query su motori di ricerca più o meno verticali, ovvero da Google, YouTube, Facebook Video, Google Play e l’App Store per citare i player nella TOP10 globale, direi che questi sono dati da tenere in considerazione, pensando al futuro.
Come mi piace ripetere oltre alla SEO bisogna conoscere ciò che sta intorno la SEO, come l’evoluzione della rete Internet e, altrettanto importante, della società. E poi:
- sono dati fichissimi da raccontare ad un aperitivo nerd;
- hanno studiato, non sto scherzando, la latenza e la ratio di packet loss di Mortal Kombat X;
Come potevo non parlartene?
Ho una sorpresa che ho richiesto appositamente per te
Come avevo già anticipato qualche settimana fa il buon Enrico Altavilla ha accettato la mia proposta di speech per il suo Serious Monkey, evento SEO che si terrà il 9 e il 10 Maggio 2019 a Milano.
Il mio speech si chiamerà “Siti oversize: eliminare le pagine inutili per piacere di più ad utenti e Google“. Inizialmente si chiamava “Siti al limite” ma le persone che non sono fan del mitico Dottor Nowzaradan (folli!) non avrebbero capito, sigh!
Il mio speech sarà, secondo me, molto interessante: questo perché farò vedere alcune metodologie che ho sviluppato personalmente per la valutazione in fase di “pulizia” del sito, argomento che mi fregio di aver lanciato io stesso nella nostra community (ultimamente post e video sul tema fioccano, addirittura nell’ultima settimana sono stato vittima di un vero e proprio plagio, essendo la situazione in essere mi fermo qui). Insomma parlerò di cose che non avete sentito da nessun’altra parte!
Avendo avuto in anteprima la lista dei relatori e di ciò che andranno a dire (non so se ancora sono stati presentati tutti) vi posso assicurare che per il prezzo del biglietto vale davvero la pena venire.
Per convincere i più scettici e perché penso che questo evento sia davvero un’ottima occasione per imparare qualcosa di davvero interessante, ho chiesto ad Enrico di convertire quella che sarebbe stata la mia fee per l’affiliazione in uno sconto per te: si, io non ci guadagnerò una mazza da chi utilizzerà il coupon. Personalmente preferisco rendere il biglietto più accessibile piuttosto che incassare qualche centinaio di euro. Spero di venire imitato anche in questo frangente!
Per avere il biglietto a prezzo agevolato:
- Vai sulla pagina https://www.eventbrite.com/e/seriousmonkey-2019-tickets-59393931849;
- Inserisci il codice sconto “evseo-newsletter” per avere 20€ di sconto sul prezzo del biglietto (circa il 10%). Lo sconto non è cumulabile con eventuali altri sconti ed ha un utilizzo illimitato (il limite è il numero di biglietti disponibili);
Sicuramente 20€ non sono moltissimi ma potrai berti un paio di drink alla mia salutese lo vorrai (sai che ne ho bisogno ultimamente!). Io ti aspetto a Milano, sarà interessante e, conoscendo ormai un pochino Enrico, anche piuttosto divertente.
Altri articoli interessanti
Ecco una carrelata di articoli interessanti che non ho voluto/potuto approfondire e qualche curiosità che vorrei segnalarti:
- Matt Cutts faceva delle “pignatte di (web)spam” per fare team building. Non penso di dover aggiungere altro;
- Danny Sullivan, rispondendo su Twitter ad uno screenshot di Barry Schwartz che riportava lo user agent “google-Read-Aloud”, ha dichiarato che questa è la nuova stringa dello user agent “google-speakr”, quello che addirittura posso dire di aver segnalato io per primo con uno screenshot a mio volta… più o meno! Insomma se lo vedete nei log sappiate che, IP permettendo, è “lo user agent utilizzato da Google Go quando richiama una pagina per controllare che le sue informazioni siano aggiornate prima che venga tradotta e letta ad alta voce“, almeno secondo quanto dichiarato da Danny Sullivan in questa conversazione su Twitter;
- Vi appoggio qua queste slide di Aj Kohn: non le commento perché ha detto che verrà pubblicato il video della presentazione. Se succederà sarò molto felice a) di tradurlo b) di commentarlo. Le parti sul crawl sono molto interessanti anche solo attraverso le slide;
- Kevin Indig ha pubblicato questo interessante articolo sulle entità semantiche nella ricerca che ti consiglio di leggere. Non l’ho approfondito perché, un po’ di qua un po’ di là, ho parlato già diverse volte della questione (tipo nei due podcast sulla SEO per le Homepage, anche se non esattamente nei termini di Kevin) e questo articolo mi sembra piuttosto chiaro e diretto. Se sei interessato ad un approfondimento scrivimi, lo posso preparare volentieri per la prossima newsletter;
Il pensiero della settimana
Eccoci giunti al termine di un’altra edizione della newsletter che, come al solito, ha richiesto davvero molte ore di lavoro: spero ti sia piaciuta! La volta scorsa ti avevo detto che ti avrei parlato di un mio progetto durante il weekend ma, come forse hai notato, non l’ho fatto: non sono riuscito proprio a fare intempo, perdonami. Sto ancora (faticosamente) cercando un metodo che mi garantisca un certo “equilibrio” a livello creativo e facendo tutto praticamente da solo, ti assicuro, non è per nulla facile. Il nuovo progetto serve proprio a superare questo scoglio insieme a te. Personalmente sono elettrizzato!
La prossima settimana con ogni probabilità non pubblicherò una nuova newsletter proprio per dare spazio ad altre cose: mi spiace ma non saprei come fare altrimenti. Quello che posso dire è che penso proprio ne varrà la pena sia per me che per te :).