• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • EV Patreon
  • SEO base
  • SEO avanzata
  • Articoli
  • News
  • Raccolte
    • Attività della SEO (ES: link building)
    • Aspetti della SEO (ES: noindex)
    • SEO tools
  • Shows
    • EVSEO Podcast (Audio)
    • SEOlotto (Audio)
    • EVSEO Tube (Video)
  • Cerca
  • Contatti
Cerca
Home > EV SEO Newsletter > Un update per Google e uno per il copyright europeo: troppi update? – EV SEO Newsletter #37

Un update per Google e uno per il copyright europeo: troppi update? – EV SEO Newsletter #37

Pubblicato il 2019-03-27

Ultima modifica il 2020-02-03

Ciao! Ricevi questa newsletter solo ora perché, dopo aver aspettato un po’ per raccogliere più dati sull’ultimo update, sono riuscito ad ammalarmi nuovamente! C’è da dire che non dovrei contagiarti via email… forse! Buona lettura!

Parliamo del Broad Core Algorithm Update del 12 Marzo

Danny Sullivan, sotto un tweet di Google Search Liason, ha specificato che dal 12 Marzo è stato lanciato un Broad Core Algorithm Update. Questo significa che Google, tra le decine di update che rilascia a scadenza giornaliera, ha implementato qualcosa che andrà a influenzare il posizionamento di un insieme di siti web molto più grande del solito. Broad non significa altro che questo: che questo update sarà probabilmente osservabile da abbastanza persone da essere notato e discusso nelle community. Il resto è pura dietrologia.

Innanzitutto, andando al nocciolo della questione, la prima cosa che mi sento di segnalare sono le tante segnalazioni di “reversal“, letteralmente di “marcia indietro”, rispetto al famigerato update del 1° Agosto 2018 che tanta pena causò ai proprietari dei tantissimi blog di salute presenti sul web. Questo significa che hanno fatto letteralmente “dietrofront” tornando al codice di tanti mesi fa? No! Questo significa che questo update, per qualche motivo, ha fatto si che Google considerasse questi siti nuovamente meritevoli di posizionarsi, per motivi a noi insondabili. Il resto, nuovamente, è pura dietrologia. Per intenderci, che questo sia accaduto perché:

  • Google ha fatto marcia indietro tornando a “tarare” il posizionamento allo stesso modo;
  • Google ha fatto dei passi in avanti nell’affinamento dell’algoritmo arrivando a restituire risultati simili a prima per una coincidenza

​Quale sia la verità tra queste due ipotesi non possiamo saperlo e non lo sapremo mai. Mettiti il cuore in pace amico lettore. Mueller ha candidamento ammesso che “ci siamo accorti dopo anni di non utilizzare più rel next/prev nell’algoritmo!“. Ora, visto il livello della comunicazione di Google forse è una menzogna ma tendo a pensare che (tragicamente) possa essere vero. In fondo non capiscono neanche il perché cambino le cose, si limitano a osservare i risultati (soprattutto quelli economici da riportare agli azionisti).

Ora vorrei dirti però cosa penso che siano questi “broad update” che vanno avanti da ben di più che dall’anno scorso. Da ormai 3 anni se ben ricordo (dovrei guardare i vecchi post dove venivo preso in giro da quelli “bravi”) Google rilascia periodicamente, ad intervalli di 3/4 mesi, degli update che tendenzialmente stravolgono le SERP andando spesso a lavorare sul mix relativo alla tipologia di risultato che va a presentare. Sono update assolutamente incentrati, secondo me, sulla capacità di intepretazione e di previsione da parte di Google degli intenti di ricerca. Attenzione: il lavoro è assolutamente sulle query piuttosto che sui documenti.

La domanda che dovrebbe trovare risposta secondo me sarebbe “Cosa rende una risposta a questa query veramente rilevante?”. Questa può essere scomposta ad esempio in:

  • Da che tipo di attore l’utente vuole sentire la risposta?
  • Che tipologia di sito, intesa come finalità del progetto (blog, ecommerce, UGC …), vuole consultare?
  • Che tipo di linguaggio si aspetta nel contesto della trattazione?
  • Che tipo di media si aspetta di fruire?
  • Quali argomenti devono venire trattati?
  • A che punto dell’esperienza di esplorazione è rispetto alle query delle quali questa query è un sotto-elemento oppure un sotto-insieme?
  • (Ci sono tantissimi altri esempi che sto raccogliendo, ci torneremo in un altro momento)

La mia idea è che ci siano parti dell’algoritmo che hanno bisogno di un “refresh del database“ come succedeva con il vecchio Google Panda. Per fare alcuni esempi di quello che può succedere (e che ho osservato):

  • Ci sono SERP che da nazionali diventano locali/personalizzate, portando cambiamenti DRASTICI e addirittura facendo si che un altro sistema si occupi interamente o in parte della SERP, praticamente un hard reset. Mi è capitato in passato con il sito di un allevamento di gatti che ho brevemente seguito. Scomparsi dalla mattina alla sera come da penalizzazione algoritmica, in realtà la SERP era diventata (in quello specifico caso temporaneamente) local. In questi casi o si aspetta e si spera, come fu fatto in quello specificao caso, oppure si inizia a lavorare in ottica local SEO;
  • Viene cambiata la gerarchia dei player: è tanto tempo che ipotizzo che ci siano dei “tier”, ovvero delle vere e proprie “fasce di merito” per specifi insiemi e sottoinsiemi di query. Come discusso più volte da Googlers e in documenti tecnici (che mi piacerebbe avere il tempo di rintracciare) le uniche azioni “domain wide” dell’algoritmo non riguardano la computazione di fantomatiche metriche quali la fantasiosa domain authority bensì fanno riferimento a politiche di risparmio di potenza computazionale attraverso “sconti” in fase di analisi a siti che si dimostrano apprezzati dagli utenti nel contesto di specifici insiemi e sotto-insiemi di query. In poche parole se un sito X è rilevato per un tempo Y come autorevole per un insieme Z di query Google sa di poter proporre nuove pagine di questo sito per query nell’insieme Z ancora prima di fare analisi accurate. E’ il fenomeno per il quale alcuni siti vedono indicizzati e ben posizionati articoli dopo pochissimo tempo, a volte anche in pochi minuti. Ebbene penso che in fase di broad update questo tipo di gerarchia venga ricalcolata. Un giorno ti farò vedere i dati relativi al crawling prima e dopo per mostrarti che ci sono evidenze non solo circostanziali sulla questione. Nel mentre ti invito a far mente locale sulla tua esperienza e a rifletterci su;
  • Viene presa da Google una posizione nettamente diversa su di un intento di ricerca molto ambiguo: ad Agosto ci fu il caso emblematico del sito che vendeva (illegalmente!) Viagra proposto in prima posizione per la query “farmacia online”. Nella discussione sui Fatti di SEO fui forse il primo a dire (parafrasando) “ma se semplicemente Google sapesse meglio di noi che questa query molto, molto ambigua nasconda l’intento, da parte dell’utente, di comprare del Viagra?“. Io sono dell’idea che Google “conosca”, volendo attuare una estrema semplificazione, gli esseri umani meglio di loro stessi. Di questo abbiamo indizi nella sorprendente “abilità” degli algoritmi predittivi utilizzati per popolare alcune SERP. In questo caso il posizionamento non è tornato “come prima” ma può darsi che semplicemente sia stato forzatamente rimosso il risultato vista la natura letteralmente ILLEGALE dell’offerta. Senza scomodare casi limite come questo mi è capitato più volte di osservare transizioni ad esempio nella tipologia di esperienza offerta dalla pagina di atterraggio: dal servire blog o articoli informativi Google può passare a pagine che offrono la possibilità di acquistare qualcosa, o viceversa. Può capitare che voglia servire un sito mono-tematico piuttosto che un “big” che parla un po’ di tutto. In questo caso le metriche “misurabili” anche da noi quali la quantità di link in ingresso o l’attinenza, a livello perlomeno deduttivo discernibile dall’operatore, non aiuteranno di fronte a quello che altro non è che un cambio di paradigma sulla SERP in esame. Parlo di metriche misurabili anche da noi perché, a livello globale, non abbiamo accesso ai veri dati di utilizzo che Google raccoglie attraverso i suoi browser e i suoi sistemi operativi, i quali stanno probabilmente alla base di queste “decisioni” che a volte stravolgono le SERP (e le vite lavorative dei webmaster interessati). Probabilmente, dopo analisi che richiedono il refresh del quale sospetto l’esistenza, alcuni siti semplicemente non sono più idonei ad offrire l’esperienza che Google pensa che gli utenti desiderano digitando una specifica query;

Quello che voglio dire o, anzi, ribadire è che rincorrere una “verità sull’update”, qualcosa che di fatto risulta impalpabile anche per gli ingegneri che lavorano direttamente sul motore di ricerca, è un grandissimo spreco di tempo. Esclusi i problemi oggettivi, come possono essere quelli tecnici, la prima cosa da capire è se a conti fatti, dopo uno specifico update, si sia ancora una fonte desiderabile di risposte per quanto riguarda gli utenti dei motori di ricerca, almeno secondo la percezione di Google.

“Se non lo sono più che faccio butto il sito?“. No, certo che no. Innanzitutto Google non è l’unica fonte di traffico possibile e certamente non è, allo stato attuale delle cose, tra le più affidabili. In seconda battuta si può riflettere sulla possibilità di evolvere il sito (espressione che non uso per caso) verso qualcosa di più performante per Google (e quindi probabilmente per i suoi utenti) o semplicemente curarne ulteriormente l’offerta e aspettare. E’ impossibile generalizzare in questi casi, quello che ho cercato di fare è darti un po’ di food for thought, spero di esserci riuscito.

Se sei stato colpito negativamente dall’update stringi i denti e vai avanti, fermandoti un momento a riflettere ma senza perdere tempo a disperarti, come in tutte le difficoltà nella vita non ti servirà, te lo dico per esperienza.

Leggi la discussione sul Core Algorithm Update del 12 Marzo su Twitter

Il vero e proprio scandalo relativo a rel=next/prev

Il 21 Marzo, forse per farmi iniziare la primavera rinfrescandomi l’ufficio tramite l’invito ad un intenso e vorticoso moto delle mie mascule appendici (scusate l’immagine), Google ha pubblicato un tweet relativo al fatto che non utilizzerà più rel next/prev per l’indicizzazione. Tradotto in italiano il messaggio recita:

“Pulizie di primavera!

Mentre valutavamo i nostri segnali per l’indicizzazione ci siamo decisi a ritirare il rel=prev/next. Studi mostrano che gli utenti amano i contenuti su singola pagina, puntate a produrre questa tipologia di contenuto quando possibile, ma a Google Search vanno bene anche quelli multi-parte. Comprendi e fai quello che è meglio per i *tuoi* utenti! #springiscoming”

In seguito, nell’ambito di una discussione su Twitter, John Mueller ha candidamente ammesso che il team si è ACCORTO che “non stavamo usando rel next/prev per l’indicizzazione da diversi anni, abbiamo quindi pensato di poter rimuovere la documentazione 🙂“. Lo ha detto davvero, con anche la faccina: (EDIT FEBBRAIO 2020: l’immagine si è rotta e non so come recuperarla purtroppo)

Vorrei discutere in pochi, semplici punti del perché questa cosa sia uno scandalo vero e proprio, una débacle comunicativa di proporzioni epiche per la quale non ho visto la reazione che secondo me avrebbe meritato dalla community internazionale.

rel=next/prev non è ad uso e consumo di Google

Innanzitutto è scandoloso l’assenza di una precisazione MOLTO importante: rel=next/prev non serve solo a Google. Essendo documentata come raccomandazione dal W3C questa implementazione viene usata in diversi ambiti, come ad esempio:

  • Viene utilizzata da altri motori di ricerca come Bing;
  • Viene utilizzata da browser come Firefox, che la utilizza per il prefetch;
  • Può venire utilizzata da sistemi studiati per l’accessibilità (non ho trovato esempi significativi da mostrarti);
  • Può essere utile in fase di analisi per identificare la paginazione;

In buona sostanza rel=next/prev è una convenzione accettata e codificata e non un ammenicolo ad uso e consumo di Google. Sono sconcertato dalla mancanza di rispetto che permea la loro comunicazione in questo senso. Sono anche costernato dalla rimozione repentina della documentazione. Non smetterò di implementare questo sistema e di segnalare, in fase di analisi, di implementarlo nel caso non fosse già stato fatto.

L’atteggiamento di Google è inaccettabile

L’arroganza del “ops! non ce ne siamo accorti prima, #sticazzi!” la dice lunga sul rispetto che il team della Search ha per “l’ecosistema” che tanto decanta quando gli fa comodo.

Ricordi quando abbiamo parlato dell’azione di scraping di Google nella scorsa newsletter? Questo tipo di comunicazione non fa altro che alimentare i forti dubbi che ormai nutro sulla buonafede di un “obiettivo comune” tra webmaster e motore di ricerca. Il risvolto pratico di questa ennesima riprova è che dobbiamo allacciarci le cinture perché il futuro della SEO è, se possibile, sempre più incerto.

Ritengo Google Search una tecnologia incredibile, quasi fantascientifica, il più grande database mai concepito dall’umanità, il problema è l’ormai forte sospetto che sia un vaporetto dove il carbone siamo, di fatto, noi webmaster. La soluzione, a livello molto basico, è sempre la diversificazione dei canali di acquisizione di lead/clienti/vendite/comelevuoichiamare. So che l’hai già sentito dire ma è davvero così. Inoltre io sono uno dei più grandi fan della riappropriazióne (si l’ho copia incollata la parola) dei propri asset tecnologici. A questo proposito nelle prossime settimane ho una sorpresa per te.

La comunicazione del team search fa schifo

Cito un passaggio del tweet originale che ha fatto partire discussioni inutili dovute allla cattiva comunicazione di Google: “studi mostrano che gli utenti amano i contenuti su singola pagina, puntate a produrre questa tipologia di contenuto quando possibile, ma a Google Search vanno bene anche quelli multi-parte.“.

Queste sono quelle dichiarazioni inutili e fumose che fanno partire le mode quali il “longform content #4evah“, con i SEO che inneggiano ad assurde gare a chi ce l’ha più lungo (l’articolo).

Google non ha espresso una preferenza a livello SEO verso i contenuti su singole pagine, sta semplicemente cercando, con ogni probabilità, di giustificare quello che l’algoritmo ha probabilmente “deciso” in autonomia.

Per scoprire se un contenuto deve essere lungo, breve, mono-pagina o multi-pagina non devi chiedere ad un SEO ma semplicemente digitare la query sulla quale vuoi concorrere su Google e farti un’idea in autonomia. Pensa cosa devi trattare e in che modo devi farlo per servire al meglio i tuoi utenti.

Nella SEO è spesso scorretto generalizzare per il semplice motivo che se fosse possibile avere regole applicabili senza problemi a tutte le query ed ottenere risultati soddisfacenti beh, sarebbe già stato fatto. Gli unici capisaldi applicabili a tutte le query riguardano l’accessibilità dei contenuti a livello tecnico, esempio l’uso improprio di direttive quali i redirect, o esperienziale, ad esempio servire contenuti in una lingua sbagliata o con testi del colore dello sfondo della pagina.

Il presente e il futuro della SEO sono legati ad analisi specifiche query-level, così come dovrebbe essere la riflessione di chiunque operi nell’ambito.

In buona sostanza non rinunciare a rel=next/prev perché “Google non lo usa” e non iniziare a fare siti monopagina con infinite scrolling perché “lo dice Google”.

Per concludere vorrei citarti la traduzione di una chicca del mitico Kevin Indig:

“Se gli utenti amano i contenuti su singola pagina perché i risultati di ricerca di Google non sono su di una singola pagina?“. Già!

Leggi la discussione sul “ritiro” del rel=next/prev su Twitter

La differenza tra RankBrain e il Neural Matching

Ne ho già parlato su EV Oasis e su Fatti di SEO ma vorrei comunque segnalarti un twitter thread di Google SearchLiaison (ovvero di Danny Sullivan) dove invece si fa una distinzione molto interessante. Ecco qui la traduzione:

“E’ capitato che ci domandassero come il neural matching differisca da RankBrain. Per farla breve:

  • RankBrain ci aiuta a mettere in relazione le pagine con i concetti;
  • Il Neural matching ci aiuta a mettere in relazione le parole con le ricerche;

RankBrain è un sistema basato su intelligenza artificiale che Google ha iniziato ad utilizzare nel 2016 per comprendere come le pagine fossero in relazione con i concetti. Ciò significa che possiamo servire pagine rilevanti anche se queste non contengono le parole esatte utilizzate per una ricerca: questo avviene attraverso la comprensione delle relazioni esistenti tra la pagina e altre parole e concetti.

Il Neural matching è un sistema basato su intelligenza artificiale che Google ha iniziato ad utilizzare nel 2018 per comprendere come le parole si relazionino ai concetti. E’ come un sistema di super-sinonimi (NOTA: non so cosa voglia dire, scusate la mia ignoranza, ma riporto l’espressione per completezza). I sinonimi sono parole che sono strettamente relazionate con altre parole. Per fare un esempio il Neural matching ci aiuta a capire che la ricerca per “perché la mia TV appare strana” è relazionata al concetto del cosiddetto “effetto soap opera”. Possiamo quindi restituire come risultato delle pagine che parlano dell’effetto soap opera, anche se non sono state usate quelle esatte parole.

Riassumendo:

  • RankBrain aiuta Google a relazionare meglio le pagine ai concetti;
  • Il Neural matching aiuta Google a relazione meglio le parole alle ricerche;

I webmaster e chi compie ricerche non devono fare nulla di speciale. Queste tecnologie sono parte del nostro core system progettato per incrementare naturalmente la comprensione (NOTA: delle query e dei documenti per il motore di ricerca)

Questa sì che è la comunicazione che mi aspetto da una grande, se non altro in senso fisico e “volumetrico”, azienda quale Google. Penso sia giunta l’ora, per quanto riguarda noi divulgatori, di iniziare a distinguere in modo netto quello che è il lavoro di Google sui documenti e quello sulle query. Capire ad esempio che buona parte dei fenomeni osservati riguardo ai famigerati “broad update” riguardano le query indirizza quello che può essere un lavoro di recupero o di sviluppo del progetto colpito.

E’ vero che noi andiamo, nel 95% del tempo impiegato nostro lavoro, ad agire sui documenti interni al nostro sito, cosa che rende forse controintuitivo quanto ho appena detto, ma in uno stesso documento, ad esempio:

  • i contenuti e la loro disposizione si relazionano all’analisi dei documenti da parte di Google;
  • il tipo di multimedialità o la tipologia di sito, intesa come tipo di attore (blog personale, aziendale, multi-marca, mono-marca…) si relaziona all’analisi delle query;

Sono concetti complessi e davvero troppo difficili da discutere nell’ambito di una newsletter già abbastanza lunga: cercherò di approfondire il tutto in futuro. Nel mentre ti lascio pensare!

Leggi il Twitter thread sulla differenza tra RankBrain e il Neural matching

E’ stata approvata la nuova direttiva europea sul copyright

Non voglio dilungarmi troppo sulle mie opinioni a riguardo della approvazione della nuova direttiva europea sul copyright. Per capire come e cosa si è votato vi rimando alla lettura di questo articolo (il quale contiene link verso i documenti).

Se vuoi leggere un articolo d’analisi scritto meglio di quanto avrei mai potuto fare io puoi leggere qui. Ci tengo a precisare che per me la questione non è politica quanto pratica e sociale, anche le fonti che ho scelto di condividere semplicemente descrivevano meglio di altre la situazione.

Ragionando in modo molto pratico una legge sul copyright derivata da questa direttiva mette chi crea contenuti alla mercé degli editori, con le conseguenze che potete immaginare: la mancanza di libertà, il vero principio fondante di Internet, nel ben e nel male.

Accettare qualsiasi tipo di censura, qualsiasi tipo di ingiustizia, come ci insegna la storia, fa si che la prossima volta chi legifera alzi la posta, oggi tocca alla libera informazione e alle arti, domani chissà.

Non prenderei alla leggera tutto questo pensando “tanto finisce come il GDPR“, come giustamente faceva notare qualcuno (mi spiace non ricordarmi il nome) in una discussione su Facebook questa legge non va a toccare un grande numero di soggetti impossibili da gestire ed analizzare: va invece a influenzare il comportamento di (relativamente) poche, grandi piattaforme che verranno bastonate e che quindi dovranno bastonare loro stesse i loro utenti. La “concentrazione” della responsabilità rende la situazione molto differente. Spero ci siano gli strumenti legali per cambiare le cose prima che la direttiva diventi legge tra due anni, lo spero davvero per tutti noi.

PS: pare che la direttiva sia passata così com’è, senza discussione, grazie a 10 parlamentari europei che hanno sbagliato il tasto per votare. Non so se sia così e forse non lo voglio neanche sapere…

Leggi l’articolo di Motherboard sull’approvazione della nuova direttiva europea sul copyright

Altri articoli interessanti

Ecco una carrelata di articoli interessanti che non ho voluto/potuto approfondire e qualche curiosità che vorrei segnalarti:

  • Innanzitutto vi segnalo questo articolo di Andrea Saletti sul neuromarketing applicato alle immagini dei volti: il fattore immagini è molto trascurato, anche in settori dove è veramente vitale quali ecommerce e affiliate marketing. Vi posso dire però per esperienza che quelle che sembrano indicazioni assurde, come l’orientamento dello sguardo di una modella, dati alla mano fanno davvero la differenza. Articolo da leggere;
  • Google ha ufficialmente lanciato AMP per le email. Email dinamiche e che si aggiornano. Ne parlerò più nel dettaglio prossimamente ma nel mentre leggetevi questo articolo (che contiene il link a un articolo molto critico che devo ancora leggere, ma dal titolo promettente!);
  • Bill Slawski ha raccolto 5 anni di segnali di ranking estratti dai brevetti di Google. Attenzione: non tutto è stato implementato, o ancora implementato come dice il buon Bill (e non tutto lo sarà). Per essere ancora più chiari non si tratta di una lista pratica di segnali: le informazioni sono da intendersi come uno scorcio nella “mente”, nelle “intenzioni” e forse nelle “ambizioni” di Google, e per questo rimangono molto interessanti. Da leggere senza fretta, quando avete voglia di curiosare. Gran lavoro comunque;

Il pensiero della settimana

Questa edizione della newsletter ha richiesto parecchie ore di lavoro tra ricerca, selezione e stesura: spero quindi che ti piaccia e che possa soprattutto farti riflettere. Perdona eventuali errori di ortografia ma non ho proprio il tempo di rileggerla come dovrei :(.

Parlando d’altro sabato scorso è stata pubblicata una mia intervista formato podcast, un ora e un quarto di chiacchiere molto interessanti sulla SEO e su Internet: non te l’ho condivisa qui perché c’è una specie di lancio di qualcosa che non sono pronto a lanciare… ne parlerò questo weekend! Se sei curioso di sentire l’intervista puoi sempre cercarla su Google… :).

Fai la prima domanda o commento
◄ Newsletter
precedente
Newsletter
successiva ►

Reader Interactions

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Primary Sidebar

Cerca nel sito

Stanco di perdere tempo nel cercare qualcuno che ti spieghi davvero come fare SEO?

Diventa membro di EV Patreon: ti parlerò della mia SEO, quella mi fa ottenere risultati sui miei progetti e i miei clienti, in modo trasparente. Non mi interessa “tenere le cose migliori” per me stesso: possiamo ottenere risultati entrambi ed esserne felici!

Scopri come fare qui
(i primi 30 pagano meno!)

Footer

Cos’è evxp.it

Questo sito è un contenitore nel quale ho raccolto tutti i miei contenuti a tema SEO che ho scritto negli anni.

Per produrli in modo costante e senza mai fare compromessi sulla qualità o sull’integrità, ovvero evitando qualsiasi pubblicità, affiliazione e sponsorship, ho lanciato un’iniziativa sulla piattaforma di crowdfunding per creatori di contenuti Patreon, la quale mi permette di finanziare le ore messe nel progetto dando ai miei sostenitori contenuti esclusivi basati sulla SEO concreta dei miei progetti e di quelli dei miei clienti: puoi trovare alcune anteprime cliccando sulla voce “Patreon” nel menu di navigazione.

Chi sono

Emanuele Vaccari Consulente Web
Consulenze SEO e Web Marketing

  • P.IVA 03548550361
  • Email:


copyright © 2019–2023 Emanuele Vaccari Consulente Web
Sito sviluppato su framework Genesis Framework su tecnologia open-source WordPress
Blog: note legali