In che cosa consistono questi aggiornamenti e come influenzano l’attività SEO?
Chi si occupa di posizionamento SEO su Google è perfettamente a conoscenza dell’Update lanciato nel 2011 da Google sotto il nome di “Panda”.
L’obbiettivo di questo aggiornamento era quello di portare un significativo miglioramento nei risultati di ricerca, a discapito dei siti che prediligevano la monetizzazione rispetto all’informazione (e soddisfazione) del cliente.
Dal 2011 ad oggi Panda ha subito continui aggiornamenti e si sono anche succeduti altri aggiornamenti sulla qualità, fino ad arrivare a fine Febbraio 2017, quando viene elaborato un update di nome Fred.
Ma di cosa si tratta esattamente? E quali sono stati gli ultimi quality update di Google negli ultimi anni?
Il Fred Update e l’impatto sul posizionamento su Google
Per riuscire a carpire la natura esatta degli aggiornamenti, in realtà, basta fare riferimento alle linee guida di Google, che vengono continuamente aggiornate.Ad esempio, nel 2011, quando fu lanciato il Panda, leggendo tra le righe, si poteva decisamente intuire che cambiamenti avrebbe apportato questo aggiornamento.
Dopo il lancio di Fred, facendo una ricerca sui possibili effetti che questo aggiornamento avrebbe apportato al posizionamento sul motore di ricerca, è emerso che i siti che sembravano essere maggiormente colpiti erano quelli di news… ma non i siti di news in generale, bensì quelli di scarso valore e che offrivano un’informazione parziale e non particolarmente veritiera (e dunque soddisfacente per il visitatore).
Siti con:
- eccessiva monetizzazione, che rendeva poco fruibile l’informazione
- eccessiva paginazione, che rendeva la navigazione scomoda
Siti, dunque, che puntavano soprattutto alla monetizzazione del traffico e il cui fine informativo, in realtà, passava solamente in secondo piano.
È evidente, dunque, che questo aggiornamento di Google si rivolga, in maniera particolare, alla lotta contro la “cattiva informazione”.
Che Fred sia un nuovo Panda o meno, in realtà, è di secondaria importanza, dato che entrambi lavorano nella direzione del miglioramento qualitativo dei siti web.
Anche Panda tende a penalizzare quei siti nei quali viene dato eccessivo spazio alla pubblicità, che diventa eccessivamente intrusiva, con contenuti di bassa qualità, spesso duplicati e scarni, per i quali l’utente viene poi spinto a cercare altrove l’informazione desiderata, un’eccessiva ottimizzazione on-site, che può sfociare nel keyword stuffing e nel thin content, e, infine, una eccessiva quantità di affiliazioni.
Siti di questo genere portano l’utente a rimanere poco tempo sulla pagina o sul sito e a cercare il contenuto di proprio interesse altrove.
Questo, dato, dunque, è indice di scarsa qualità per Google, che, per questa ragione, li penalizza a livello di posizionamento nelle pagine dei risultati.
Fred sembrerebbe da inquadrare semplicemente come un aggiornamento dello stesso Panda o di uno dei famosi Phantom Update, dato che ne segue i concetti.
Proprio come da voce ufficiale di Google, infatti, Fred è un aggiornamento corposo che va ad analizzare molti segnali ed elementi, proprio come facevano i precedenti Phantom Update.
Andando a verificare gli aggiornamenti nelle linee guida per i webmaster e per i quality raters si può rintracciare un’ulteriore attenzione concentrata sulla soddisfazione della richiesta e della ricerca dell’utente.
Google afferma nelle proprie linee guida di posizionamento di dedicare particolare attenzione alle pagine che potrebbero avere influenza sul benessere, la salute e la stabilità economica dei visitatori.
Comprende in queste le pagine dove si effettuano transazioni commerciali, dove sono esposte informazioni di carattere finanziario, informazioni mediche e giuridiche, notizie locali, nazionali o internazionali.
Per riuscire a garantire questo standard vengono aggiunti alcuni segnali che aiutano a valutare le pagine, per capire se esse offrono un’informazione di bassa o di alta qualità.
Molti siti colpiti sono quelli che imitano altri siti di notizie, che contengono fatti e notizie spesso inesatti, siti che possano creare disinformazione o contenuti ingannevoli, siti cospirazionistici, siti di informazione scientifica non attendibili e, infine, i siti che promuovono odio e violenza attraverso i contenuti presenti sulle pagine.
Nell’aggiornamento delle linee guida, inoltre, Google fa degli esempi rispetto a pagine o siti di news che devono essere ritenuti di bassa qualità.
Andando a verificare quali fossero le caratteristiche degli stessi si evidenzia che rispecchiano esattamente le caratteristiche che portano Google a ritenere un sito di news di bassa qualità. Per citarne solo alcuni: titoli fuorvianti, contenuti scarni e che non mirano realmente all’informazione, bassa qualità della scrittura, esposizione di notizie senza fonti citate e verificabili.
Come fa Google ha determinare se un sito di news sia di bassa qualità o meno?
Per il momento non è possibile rispondere in maniera esatta a questa domanda. Google non rende noto come lavora il proprio algoritmo.
Il mio consiglio, però, se avete un sito di news e volete evitare di essere penalizzati dal Fred, è di scrivere sempre contenuti originali e non troppo brevi, di non puntare in maniera eccessiva alla monetizzazione, di evitare titoli acchiappa clic, di citare le fonti e, ovviamente, di non fare falsa informazione.
I siti penalizzati da Fred: gli elementi in calo.
Andiamo a determinare quali siti sono stati penalizzati da Fred e quali caratteristiche questi presentano.
Molti esperti di posizionamento su Google hanno cercato di comprendere quali elementi penalizzasse questo aggiornamento, ma non si è ancora arrivati ad una “teoria definitiva” sull’argomento.
Prima di tutto, dunque, facciamo queste 3 premesse:
- Fred è un quality update molto simile ai famosi “Phantom”
- l’aggiornamento non colpisce i link in entrata ma sola la qualità del sito web in questione
- l’aggiornamento può colpire svariati elementi del sito web
Prima di tutto Fred valuta il rapporto esistente tra la pubblicità presente su una pagina e tra i suoi contenuti, valuta la qualità dei contenuti presenti e, infine, il suo search intent, ovvero il rapporto esistente tra la parola chiave cercata e il contenuto correlato, nonché, ovviamente, la sua coerenza.
Tralasciando il rapporto tra contenuti e ads, un fattore al quale bisogna comunque sempre prestare attenzione per la soddisfazione dell’utente, concentriamoci soprattutto sui contenuti delle pagine e sulla search intent.
Se un sito è sovra-ottimizzato (come spiegato anche nel blog sul posizionamento su Google J Factor.it) e ha una eccessiva keyword density, verrà penalizzato da questo nuovo aggiornamento. Google è in grado di leggere il contenuto di un articolo e non ha nessuna utilità ripetere più volte la parola chiave legata ad un dato argomento, tanto che questo motore di ricerca non accetta più l’eccessiva ripetizione delle stesse, considerandola pedante e inutile.
la tolleranza verso il keyword stuffing si è ridotta all’osso!
Sono stati vittima delle penalizzazioni anche i “thin content”, ovvero contenuti inutili creati solo al fine di posizionarsi rispetto ad una data parola chiave, che non offrivano alcuna informazione reale al visitatore.
Il consiglio, dunque, è di inserire le parole chiave necessarie per l’ottimizzazione, ma senza esagerare e posizionandole in “punti strategici” (nel titolo, nell’url, nell’h1, nelle immagini e così via)… ripetere la stessa parola chiave più volte nel testo è totalmente inutile e non serve per migliorarne il posizionamento.
Per quanto riguarda, invece, il search intent, ovvero la corrispondenza rispetto a quello che il visitatore vuole realmente trovare sulle pagine del vostro sito, il consiglio è di scrivere sempre articoli particolarmente approfonditi su argomenti che siano più specifici possibile.
Maggiore sarà l’attinenza dell’articolo o del contenuto a l’argomento specifico, migliore sarà il posizionamento che Google fornirà grazie a questo nuovo aggiornamento al vostro sito web.
Molti siti web hanno avuto perdite di traffico a causa delle long tail: Google pare stia diventando più bravo a comprendere l’esatto intent di una ricerca, e sta premiando contenuti molto specifici e mirati. Per questo motivo i così detti pillar content, contenuti molto lunghi ed esaustivi, prima si posizionavano sia per ricerche “brevi” che per moltissime long tail, ma adessp per le long tail Google premia piuttosto pagine più specifiche, che vanno ad aprrofondire un altrettanto specifico intento di ricerca.
La perdita (o l’aumento) di traffico di molti siti non è di facile individuazione, perché spesso una variazione anche del 35-40% di traffico è stata causata dalla modifica del posizionamento su Google di centinaia di parole chiave “long tail”, che hanno pochissime ricerche mensili se prese singolarmente, ma che, nel complesso, influiscono molto sul valore di traffico generato da una pagina web.
a cura di Filippo Jatta