Ciao e benvenuto alla edizione #43 della EV SEO newsletter, nella quale ho raccolto le novità e i contenuti SEO più interessanti (o almeno quelli che ho trovato tra i tanti che ho letto) delle ultime due settimane.
Questa settimana, visto che sono un po’ in ritardo per motivi personali, ci sono circa 3 settimane di contenuti selezionati invece dei soliti due, un sacco di cose da leggere e quindi… buona lettura!
September 2019 Core Update
Google ha annunciato con questo tweet il roll-out di un nuovo update (dopo averlo pre-annunciato, accadimento raro). Da quel poco che ho visto si tratta del solito update basato sulla determinazione a livello macro di ciò che è rilevante su di una query o una classe di query da parte di Google, il quale ho già descritto in passate newsletter, come la numero 42 e la numero 40.
Dopo questo specifico update ho osservato:
- Cambiare il paradigma di intere classi di query “professione+città” nello stesso spazio professionale, dove per ogni query è andato al primo posto il sito che utilizza la formula “I migliori *professione* a *città*” per comporre i title, perché probabilmente otteneva risultati migliori a livello di click sulle SERP (pure essendo stato in una posizione peggiore pre-update). La cosa che mi lascia perplesso è che il titolo non è proprio ciò che definirei “assolutamente veritiero”, purtroppo;
- Ho osservato il classico “cambio di fascia” di alcune mie proprietà web, promosse tra le fonti interessanti per intere nicchie/set di query. Questo fenomeno si distingue piuttosto facilmente per le query “secondarie” che salgono in massa e l’apparizione del mio sito per SERP di query dove prima non concorreva. Probabilmente se questo sito prendesse dei link salirebbe per tutte le query per le quali concorre (e penso mi muoverò in questo senso, se non altro per vedere se ho ragione o no);
Prima di disperarti per il posizionamento perso, che di per se non significa nulla, cerca di capire l’impatto vero e proprio su traffico e conversioni. Per farti un esempio molto concreto la homepage del mio sito è andata già prima dell’update in seconda pagina per alcune delle query che mi portavano più lead, come “consulente SEO” e “consulenze SEO” (probabilmente per la struttura dispersiva del sito, non aiutata da queste newsletter): detto ciò ho avuto tantissimi contatti in questo periodo, di più che nella maggior parte delle settimane dell’anno, ed il traffico è rimasto praticamente invariato. Quello che può succedere è che semplicemente non si stiano tracciando le query verso le quali è stato ridistribuito il traffico, che a loro volta non vengono tracciate dai tool quali SemRush o SEOZoom per mille motivi, ad esempio il fatto che i dataset di questi tool si basino almeno in parte sulle query del paid advertising, nel quale ambito le query a bassissimo traffico vengono spesso ignorate.
Sembro un disco rotto, lo so, ma finché vedrò le persone farsi le stesse (poco utili) domande, quali “Che cosa è cambiato specificamente in questo update?“, continuerò a ripetere i semplici principi sul come muoversi in una situazione che appare problematica dopo un core update:
- Cerca di capire se c’è stato davvero un danno, staccati dai tool per il ranking e valuta le metriche che ti interessano veramente (il ranking da anni non è più un KPI SEO);
- Cerca di capire cos’è cambiato nel paradigma delle query colpite: c’è ancora spazio per il tuo sito? Può seguirne le nuove logiche?
- Cogli l’occasione per analizzare obiettivamente il tuo lavoro e domandarti se quello che fai è “di qualità” dal tuo punto di vista o da quello degli utenti: attenzione a non arrogarti il diritto di sapere “quello che la gente vuole”, che per altro è differente da “quello che la gente vuole tramite/su Google” e soprattutto differente da “quello che Google determina che la gente vuole vedere sulle SERP per una specifica query“. Su Google “contenuto di qualità” significa “che ha le caratteristiche che il motore di ricerca determina essere desiderabili per un utente che digita una specifica query”. Se hai avuto brutte sorprese torna (o inizia) a studiare come sono composte le SERP.
Come al solito nel caso l’update ti avesse colpito in modo negativo ti auguro un buon lavoro: non disperare!
Google annuncia cambiamenti al rel=”nofollow”
Quasi 3 settimane fa, un paio di giorni dopo la newsletter numero 42, Google ha deciso di cambiare radicalmente il sistema del rel=”nofollow”, spingendomi a creare un articolo dedicato alla questione che ti consiglio di leggere. Volendo riassumere per chi va particolarmente di fretta :
- Vengono introdotti 2 nuovi attributi, rel=”ugc” e rel=”sponsored” per permettere a Google di identificare al meglio link creati nel contesto di contenuti generati dagli utenti (UGC) e creati per questioni di advertising/sponsorizzazione (sponsored);
- Il nofollow diventa da ieri, 10 settembre 2019, un suggerimento a livello di ranking;
- Il nofollow diventerà un suggerimento a livello di indexing e di crawling dal 1 marzo 2020;
- I tuoi link nofollow verso l’esterno, se fatti con cognizione di causa e per indicare a Google che non “supporti” il sito che riceve il link, possono rimanere come e dove sono ora;
- I tuoi link nofollow in struttura, se fatti per inibire l’indicizzazione di una pagina (utilizzando in modo improprio il rel=”nofollow” anche nella sua vecchia versione), dal 1 marzo 2020 saranno inaffidabili. Dovrai utilizzare implementazioni più appropriate come il robots.txt;
Un cambiamento che, come potrai leggere in modo approfondito nel mio articolo, mi lascia piuttosto perplesso. Per considerazioni più approfondite sui vari aspetti ti rimando alla lettura del mio articolo.
Google spinge nuove implementazioni per gli snippet di ricerca
Google ha annunciato attraverso il suo blog, per quel che ne so senza preavviso, che da fine ottobre 2019 onorerà alcune nuove direttive con le quali manipolare alcuni aspetti degli snippet dei nostri siti web sui motori di ricerca. Di seguito la traduzione dell’annuncio ufficiale:
Il meta tag robots va aggiunto nella sezione <head> di una pagina HTML o specificata utilizzando l’HTTP header x-robots-tag. I meta tag robots che influenzeranno l’anteprima dei contenuti di una pagina sono:
- “nosnippet”: questa è un’opzione già esistente tramite la quale puoi specificare il fatto che non desideri che venga visualizzato uno snippet di testo per questa tua pagina;
- “max-snippet:[numero]”: con questo codice è possibile specificare la lunghezza massima in caratteri dello snippet testuale per la tua pagina;
- “max-video-preview:[numero]”: con questo codice è possibile specificare la durata massima in secondi di una anteprima video animata per la tua pagina;
- “max-image-preview:[none/standard/larger]”: con questo codice è possibile specificare la dimensione (in pixel) massima di eventuali immagini di anteprima mostrate per questa pagina. I valori utilizzabili sono “none” (nessuna), “standard” e “large” (grande);
Questi meta tag possono essere combinati, ad esempio:
<meta name=”robots” content=”max-snippet:50, max-image-preview:large”>
Le impostazioni di anteprima controllate da questi meta tag diverranno effettive nelle ultime settimane di ottobre 2019, con circa una settimana necessaria per completare il rollout globale.
Inoltre Google supporterà un nuovo attributo HTML (che non è passato, sempre per quel che ne so, dal W3C) che determinerà, direttamente nel <body> della pagina, se ci sono sezioni che non vogliamo vengano usate nello snippet testuale relativo alla pagina. Traduco l’annuncio ufficiale:
Utilizzare il nuovo attributo HTML data-nosnippet
Un nuovo modo per aiutarci a determinare quali parti di una pagina debbano essere prese in considerazione per la sua anteprima è il nuovo attributo “data-nosnippet” sugli elementi <span>, <div> e <section>: tramite questo attributo puoi fare in modo che quella parte di pagina HTML non venga mostrata nello snippet testuale relativo alla pagina stessa. Ad esempio:
<p><span data-nosnippet>Harry Houdini</span> is undoubtedly the most famous magician ever to live.</p>
L’attributo HTML data-nosnippet inizierà ad influenzare le presentazioni sui prodotti Google nella parte finale di quest’anno (2019 N.D. Emanuele). Puoi saperne di più nella nostra documentazione per sviluppatori relativa a robots meta tag, x-robots-tag, e data-nosnippet.
Google ha anche voluto, giustamente, specificare che queste direttive non influenzeranno le anteprime relative ai rich result e quindi ai dati strutturati presenti nella pagina: per delimitare ciò che deve apparire in questo tipo di risultato bisogna semplicemente agire su quanto viene incluso nel dato strutturato stesso.
Inoltre è stato specificato che alcune feature della Search si appoggiano alla quantità di contenuto con il quale comporre una preview: per questo motivo limitarlo in modo “aggressivo” può far si che i contenuti divengano incompatibili con queste feature. Purtroppo Google non fa esempi ma mi vengono in mente, ad esempio, i box di anteprima con “definizioni” che possono apparire su alcune query, come ad esempio questa che appariva tempo fa per il mio sito (ora molto meno visibile per quella stessa query):
Google suggerisce due approcci che traduco:
Chi non volesse avere del contenuto che appare con featured snippet può sperimentare con una valore della direttiva “max-snippet” più bassa. Chi invece volesse un opt-out garantito deve usare “nosnippet”.
Il meta tag “max-image-preview” può inoltre venire utilizzato per evitare che vengano visualizzati i thumbnail grandi nei caroselli AMP (e in Discover) semplicemente specificando un valore “standard” o “none”.
Detto tutto questo devo dire che mi pare che Google, come purtroppo ultimamente è solita fare, si sia concentrata molto sulle sue necessità più che su quelle degli utenti. Ad esempio ha ragione da vendere Joost di Yoast, che in un tweet che mi è stato segnalato da Riccardo Esposito espone una questione che rende perplesso anche me:
Hey @JohnMu @searchliaison any chance of getting a *whitelist* method instead of a blacklist method for the snippet content? So a “data-allowsnippet” attribute, next to the “data-nosnippet” one?
That’s loads easier to implement in most CMSes.
— Joost de Valk (@jdevalk) 25 settembre 2019
Che senso ha fare un sistema basato sulle esclusioni invece che sulle inclusioni se l’obiettivo di questi tag è facilitare la vita ai webmaster? Forse mi si potrebbe dire che è più facile commettere errori in un sistema inclusivo che esclusivo, o che espone Google a più possibilità di forzatura e/o possibili strategie Black Hat, ma secondo me Google dovrebbe semplicemente dovrebbe implementare tecnologie per vigilare. Non un compito facile, per carità, ma penso abbiano le risorse per farlo e per rendere felici i webmaster. Invece mi pare che questo cambiamento, insieme alle modifiche al rel=”nofollow” che ho discusso quale settimana fa, sia concentrato su di una certa “economia di crawling ed analisi” da parte di Google. In poche parole dovremo pensarci noi.
Al contrario del rel nofollow però penso che queste implementazioni avranno una buona ratio di adesione, se non altro perché sono più facili da implementare nei CMS più diffusi (sicuramente il team di Yoast, ad esempio, sta lavorando alacremente in questo senso) e perché si tratta di direttive, cosa che genererà meno confusione, illazioni e teorie strambe nella community SEO.
Detto questo ne torniamo a parlare quando sarà possibile testare questi cambiamenti (fossi in te non correrei a implementare nulla fino ad allora). Ultima nota: ricordati che questi snippet (per ora) sono implementati solamente da Google.
Google fa le pulizie di autunno delle stelline in SERP
Hai presente quelle 5 stelline in SERP pressoché inutili in SERP di servizi, se non forse per attirare l’attenzione, e che l’utente non percepisce mai come una valutazione perché tutti hanno le 5 stelle? Beh, Google farà pulizia.
Innanzitutto ora le stelle in SERP verranno mostrate solo per determinati tipi di definizioni Schema, e non più per ogni Schema possibile e immaginabile. Vengono incluse:
- schema.org/Book
- schema.org/Course
- schema.org/CreativeWorkSeason
- schema.org/CreativeWorkSeries
- schema.org/Episode
- schema.org/Event
- schema.org/Game
- schema.org/HowTo
- schema.org/LocalBusiness
- schema.org/MediaObject
- schema.org/Movie
- schema.org/MusicPlaylist
- schema.org/MusicRecording
- schema.org/Organization
- schema.org/Product
- schema.org/Recipe
- schema.org/SoftwareApplication
Questo per evitare che, seguendo i consigli di alcuni colleghi, si mettano le stelle delle recensioni in ogni dove perché “alzano il CTR“. Direi che sia un cambiamento intelligente. Inoltre la proprietà name del review Schema diventa un requisito (per Google): nel caso tu avessi implementato le review tempo fa potresti dover correggere il codice che le gestisce.
Diversi colleghi hanno riportato un impatto concreto relativo a questo cambiamento, personalmente non seguo SERP dove fosse utilizzato a sproposito (forse quelle relative ai miei servizi che, effettivamente, sono state “pulite”) ne clienti che utilizzassero le review a sproposito quindi non ho osservato grandissimi cambiamenti, se hai degli esempi e hai voglia di fare un commento integrerò volentieri le tue segnalazioni alla newsletter (se significative).
Ora vorrei tradurre le FAQ più interessanti presenti nell’annuncio di Google:
Che succede se sto usando un widget di terze parti per visualizzare le recensioni del mio business?
Google Search Non visualizzerà lo snippet delle recensioni per quelle pagine. Fare l’embed di un widget di terze parti viene visto come un tentativo di manipolazione del sistema.
Rischio un’azione manuale se ho delle review auto-referenziali sul mio sito?
No, non rischi una penalizzazione manuale solo per questo. Raccomandiamo comunque che i dati strutturati vengano utilizzati seguendo le nostre linee guida.
Questo aggiornamento si applica anche ad AggregateRating?
Si, si applica sia a Review che a AggregateRating
Come posso riportare se una review auto-referenziale continua ad apparire nei risultati di ricerca?
Stiamo prendendo in considerazione la possibilità di creare un form specifico per questo, se necessario. Stiamo facendo un lento roll-out di questo cambiamento e quindi potrebbe capitare di vedere le stelle delle recensioni dove non dovrebbero più apparire.
Questo, finalmente, mi sembra un update sensato. Staremo a vedere.
AJ Kohn ci parla di link acquisition e del relativo modello di attribuzione
Niente, quando AJ Kohn decide di scrivere un post sul blog è sempre un bel giorno per la community SEO. In questo articolo Kohn chiarisce un po’ le cose sul modello di attribuzione della cosiddetta link acquisition, quella per la quale il mio amico Amin ha fatto quel bel meme con lo scheletro che “aspettava link spontanei“. Forse però il problema sta nel come misuriamo, o pretendiamo di misurare, il risultato del nostro impegno relativo alla link acquisition e come leggiamo i nostri dati.
Come giustamente dice all’inizio dell’articolo la “link building“, intesa come l’attività di outreach diretto dove i link si vanno di fatto a chiedere, è misurabile in modo (quasi) inequivocabile:
- Possiamo misurare la conversion rate di una mail di primo contatto con i siti dai quali vorremmo i link;
- Possiamo misurare l’efficienza dei nostri sforzi su segmentazioni specifiche dei nostri prospect;
- Possiamo misurare in modo piuttosto preciso il costo di acquisizione;
Si possono misurare i risultati in modo chiaro perché la link building è simmetrica, perché l’attività di link building crea direttamente e inequivocabilmente il link (che ad esempio si ottiene, senza dubbio, perché ho mandato la mail dove lo richiedevo/compravo etc. etc.) e sincrona perché il link viene creato in un lasso di tempo specifico, ovvero in concomitanza (poco dopo) il contatto che utilizziamo per arrivare ad ottenere il link stesso.
Nella link acquisition invece, come giustamente dice Kohn, non funziona così. Secondo lui questa attività è asimmetrica e asincrona:
- Collegando direttamente l’acquisizione di link al content marketing AJ parla del fatto che un contenuto non è fatto solamente per ottenere link verso quel contenuto, ma può ottenerne per altri contenuti! Ad esempio se un articolo fa in modo che io sia esposto come esperto ad una community, membri di questa community potrebbero iniziare a interessarsi a ciò che pubblico e mandare link a contenuti che creerò settimane/mesi/anni dopo, in virtù però di quanto io venga considerato “autorevole” a partire dal momento nel quale hanno letto l’articolo del quale stavo parlando;
- Riprendendo l’esempio del punto precedente questo contenuto ha generato link anche dopo molto tempo dalla sua pubblicazione, senza “sincronicità” con l’evento della messa online;
In più, e qui ti lascio il piacere di leggere la storia raccontata da Kohn nel suo articolo, spesso si sottovaluta l’influenza della pubblicità tradizionale sull’online, la quale ha un suo peso anche nella link acquisition. In buona sostanza viene sottovalutato il peso fondamentale di branding e awareness. Io dico spesso ai miei clienti che per prendere link spontanei bisogna essere primi su Google. Chi ha o ha avuto contenuti posizionati nelle prime posizioni sa di cosa sto parlando.
La “verità”, o perlomeno la cosa sulla quale riflettere, è che come dice AJ:
Vedi, i link non si materializzano di colpo. Sono il prodotto del mettere il tuo brand di fronte alle persone giuste in modo costante e consistente nel tempo
Come dissi tanto tempo fa “Bisogna esserci in ogni spazio dove ha senso esserci, in modo positivo” (era più bella la frase ma non ricordo dove l’ho scritta).
I link. come giustamente dice Kohn, sono:
- raccomandazioni;
- endorsement;
due cose che non vengono prese alla leggera. I link presenti in questa newsletter sono l’esempio proprio di ciò che sto dicendo: molti degli autori di questi articoli, tra i quali AJ stesso, ricevono spesso link da me perché sono stato esposto in prima battuta ad un contenuto che mi ha fatto pensare “wow questa persona dice cose interessanti, proverò a leggere altri suoi contenuti” e perché io stesso creo contenuti nel loro spazio.
Questo discorso per altro mette in luce uno dei limiti del mio modello di “pulizia dei siti web” nella tua forma più automatica/sistematica, che quando si basa solo sulle web analytics e solo sui dati può scambiare un contenuto veramente utile per il sito ma che fatica ad esprimere questa qualità proprio per la difficoltà nello sviluppare e mantenere un attribution model sistematico e automatico. Attività come questa, e più in generale l’attribuzione di valore ai propri assett sul web, devono sempre essere supportate dall’esperienza, dall’osservazione e dalla curiosità di chi gestisce il sito. Sempre AJ cita il fatto che le aziende chiedano spesso “come ci hai conosciuto?“, esigenza che viene sempre dai problemi relativi al modello di attribuzione.
Come dice un signore chiamato Frank Sandtmann nei commenti del post, non sempre l’approccio “data driven” è quello migliore nel valutare un elemento del web marketing, e probabilmente la link acquisition cade proprio in questa casistica proprio per i problemi legati all’attribution model.
Nell’articolo ci sono anche diverse ulteriori considerazioni come ad esempio:
- sulla ratio tra creazione e distribuzione, cosa nella quale personalmente pecco ad esempio;
- riguardo la misurazione dei dati relativi alle varie forme di interazione (condivisioni, tweet, pin etc. etc.);
- sull’importanza del “top of funnel“;
Tutte cose molto interessanti che ti lascio leggere alla fonte.
Vorrei però raccontarti una breve storia prima di concludere: un mio amico e collaboratore (che probabilmente sorriderà leggendo queste righe), con il quale stiamo gestendo un blog aziendale, dopo soli quattro articoli di altissima qualità (rompo molto le palle in tal senso) ha ricevuto una proposta di docenza ad un corso piuttosto fico. Questo corso, oltre ad essere un’opportunità di branding, di guadagno e soprattutto di soddisfazione personale, potrebbe (potrà, perché sarò li come un segugio) portare ad acquisire link dall’ente che crea il corso e dai presenti in aula. Il tutto è partito da una condivisione dei contenuti prodotti su LinkedIn: lo sappiamo perché questo collaboratore ha l’ottima abitudine di chiedere “dove ci hai conosciuti?”
Ora, la docenza è stata proposta non per il singolo contenuto ma perché nel tempo questo collaboratore ha esposto la sua competenza costantemente, sinceramente e negli spazi dove questa competenza è di vero interesse per chi li frequenta. I contenuti, che sembravano underperforming, stanno iniziando a dare gli inevitabili frutti che arrivano puntualmente a chi lavora tanto e allo stesso tempo lavora bene. In buona sostanza pensaci un po’ su quando senti dire che l’acquisizione dei link è una leggenda al pari di Ulisse e di Pedro contro Amadeus.
Altri articoli interessanti
Ecco una carrellata di articoli interessanti che non ho voluto/potuto approfondire e qualche curiosità che vorrei segnalarti:
- Come segnalato da Giorgio Tave sul Forum GT Google ha annunciato e rilasciato la possibilità di avere i dati del giorno prima, la “fresh data”, nella sezione performance della Search Console. Si tratta di dati “grezzi”, non disponibili ne sulle API ne per Discover, che possono essere diversi dalla versione definitiva rilasciata, se ho capito bene, con i soli 3/4 giorni di ritardo. Una novità molto interessante, ad esempio o in fase di ristrutturazione del sito o comunque della struttura del sito per valutare l’impatto nel breve termine e se si fanno esperimenti con i title tag e le meta description (nelle web analytics possiamo tracciare i click dalle SERP ma non la ratio con le impression). Sempre nel pannello performance è stata rilasciata la possibilità di vedere rapidamente i dati relativi alle singole giornate utilizzando le date dei singoli giorni come dimensione: trovi la tab “date” nel pannello stesso. Penso che il team Search abbia introdotto delle interessanti novità questa volta, bravi!
- Sempre Giorgio Tave ha fatto un video molto interessante criticando di fatto quel filone sensazionalistico di “Google ci ruba il traffico con gli snippet“, del quale il buon Rand Fishkin è l’assoluto alfiere e del quale ha parlato Marco Montemagno in uno dei suoi video. Condivido molte delle considerazioni fatte da Giorgio, soprattutto quando dice che spesso certe dichiarazioni si fanno più per fare sensazionalismo che per informare, purtroppo. Chi mi legge da un po’ sa che è una questione che mi sta molto a cuore. Un bel video da guardare o anche solo ascoltare, fallo!
- Google ha dichiarato sul suo blog di avere cambiato il paradigma con il quale gestisce i singoli topic di news. Citando direttamente dalla dichiarazione “Mentre solitamente tra i risultati di ricerca mostravamo per prima la versione più recente e completa di una notizia, ora abbiamo apportato alcuni cambiamenti ai nostri prodotti a livello globale al fine di evidenziare l’articolo che identifichiamo come il più significativo original reporting. A tali articoli viene garantita una posizione di maggiore visibilità, e più a lungo. Tale visibilità consente agli utenti di visualizzare la notizia originale insieme agli altri articoli più recenti sull’argomento.“. Un passo in avanti interessante verso gli editori, che fa un po’ sorridere visto ciò che sta accadendo a Google News in Francia, spero possa arginare alcuni fenomeni, sia nel senso classico e scientifico del termine sia nel senso tipicamente modenese di “persone che credono di essere più furbe delle altre“. Staremo a vedere;
- Sempre Google ha rilasciato un plugin per WordPress che fa da fallback per l’implementazione nativa del lazy-loading di Chrome 76 o superiori sui browser non-Chrome e su istanze specifiche dove il Javascript è disabilitato. Personalmente non l’ho ancora testato ma penso possa interessare a molti dei miei lettori e quindi lo segnalo;
- Ancora Google (ma è l’ultimo annuncio, promesso) ha annunciato di avere implementato i “key moments” nei video di YouTube in lingua inglese: utilizzerà nelle SERP le timestamp riportate nella descrizione dei video come “segnalibri” dai quali far partire il video per una specifica query che ha come risposta proprio quella parte di video. Google fa l’esempio di uno specifico step del classico how-to. Io i video con le parti relative alla query evidenziati li vedo già da mesi, non so però se fosse questa feature in fase di testing o altro. Una novità interessante, brava Google. Purtroppo mi pare che potenzialmente ci si possa fare dello spam e questo mi fa un po’ dubitare sul futuro della feature stessa, per l’ennesima volta… vedremo;
- Ruben Vezzoli ha pubblicato una metodologia semplice ma molto interessante per valutare l’impatto finanziario (sulla conversion rate) di un tempo di caricamento lento su di un sito web. Questo metodo utilizza semplicemente Google Tag Manager e Google Analytics e penso che se tu gestisci un ecommerce dovresti proprio provarlo. Bravo Ruben, scrive sempre cose interessanti!
- Il mitico Michael Vittori ha riportato in un articolo sul suo blog i dati di utilizzo relativi ai social in Italia. Pare che Facebook muoia periodicamente nell’immaginario collettivo come la SEO, e come la SEO tanto morto non sia. Per fortuna Michael è molto bravo come divulgatore e seguirlo è un buon modo per non perdere di vista lo stato delle cose su Facebook (no, non mi ha pagato per questo endorsement!). In questo caso forse è giunto il momento di provare seriamente ad utilizzare le Stories.
- Vuoi vedere una SEO interessante? In questo articolo di Venturebeat si parla di Pinterest Lens, una funzione della app di Pinterest tramite la quale fotografare un oggetto (ma non solo: funziona anche con i tatuaggi) e ricevere consigli relativi ad altre cose che potrebbero piacerci in base a ciò che hai fotografato. Di fatto la foto è la query e c’è la possibilità di fare SEO attraverso la composizione delle proprie foto sulla piattaforma! Personalmente non conoscevo questa feature lanciata ormai nel lontano 2017 e non avrei mai detto che il 59% degli utenti americani tra i 18 e i 34 anni presi in esame in questo studio scoprisse prodotti da acquistare attraverso la piattaforma Pinterest. Se sapevi già queste cose puoi tranquillamente darmi dell’asino, se non le conoscevi beh, ora le sai!
- Alla fine è successo: i deepfake (semplificando molto video dove una intelligenza artificiale sostituisce in modo credibile una persona con un’altra, come in questo esempio incredibile) sono arrivati in televisione, come raccontato da questo articolo di Wired sul deepfake di “Renzi” (interpretato da un attore), mandato in onda da Striscia la Notizia. Come era facile supporre, anche se la trasmissione ha chiarito fin da subito che si trattasse di un falso, pare che diverse persone abbiano creduto fosse davvero Renzi. Il basso livello di attenzione di chi esperisce contenuti in rete e l’efficacia di questo algoritmo nell’imitare le persone sono un mix esplosivo e, per quanto mi riguarda, piuttosto preoccupante, perché questa tecnologia è facilmente accessibile e può essere usate per danneggiare gli altri, ad esempio attraverso il falso revenge porn. In Inghilterra creare deepfake pornografici di altre persone è legalmente una molestia. Chissà quando e come ci muoveremo in Italia? Probabilmente, come al solito, troppo tardi. Parlatene con i vostri affetti meno tecnologici, rendeteli più consapevoli (e più inclini a dubitare, com’è probabilmente giusto che sia);
Il pensiero della settimana
Eccoci giunti alla conclusione di questa ricca newsletter, scritta in questa terza (o quarta? Ho perso il conto) estate modenese. Devo dire che questo formato web della newsletter mi piace molto e mi pare che piaccia anche ai lettori, anche se penso che cambierò il contenitore perché sta distorcendo la struttura del sito e Google non sembra apprezzare che si parli di SEO in un sito di un SEO (sigh). Per altro tanti altri colleghi con i quali condividevo le SERP sono scesi con me in seconda pagina per le vanity “consulente SEO” e “consulenze SEO” e ho alcune idee al riguardo, magari ne parliamo in futuro.
Per concludere voglio ringraziarti per avermi dedicato il tuo tempo leggendo fino a qui! Se è la prima volta che leggi questa newsletter e non vuoi perderti la prossima, se vuoi leggere le precedenti o più semplicemente vuoi dire la tua su quanto è stato detto non devi fare altro che scrollare ancora un pochino:
Grazie nuovamente per aver letto fin qui e ti auguro un buon proseguimento!