Penalizzazione Google SEO: Risoluzione e Verifica

Hai notato un brusco calo di traffico? Potrebbe esserci stata una penalizzazione di Google. In questo articolo ti spiego in cosa consistono queste penalizzazioni, e come riuscire a recuperare traffico.

In questo articolo scoprirai come individuare e porre rimedio alle penalizzazioni di Google.

Sto per spiegarti quali sono i tipi di penalizzazione, come verificare se si è davvero stati colpiti, come evitare di esserlo e come uscirne se sei già stato colpito.

Mi presento: sono Filippo Jatta, sono consulente dal 2007.

Mi sono laureato e specializzato nel 2007 in Economia, Organizzazione e Sistemi Informativi presso l’Università Bocconi di Milano.

Cosa Sono le Due Tipologie che Possono Colpirti

Cosa sono le penalizzazioni di Google?

Iniziamo col dire che le penalizzazioni sono di 2 tipi:

  • manuali (quella vera e propria);
  • algoritmiche (si parla in questo caso di filtri algoritmici).

Cosa Sono quelle Manuali

Quelle manuali sono dovute a interventi di dipendenti umani, che con ricerche casuali o in base a segnalazioni verificano la qualità.

Un dipendente in carne e ossa controlla e decide se è ok. Se vi sono dei problemi rilevanti procede colpendo, il che si traduce in una  perdita di ranking.

Cosa Sono quelle Algoritmiche

Quelle algoritmiche (o meglio i filtri algoritmici) sono invece dovuti ad aggiornamenti dell’algoritmo. In realtà in questi casi più che di penalizzazioni di Google si dovrebbe parlare di filtri.

I due algoritmi più famosi sono Panda e Penguin.

Panda: Siti di Bassa Qualità

Panda è l’algoritmo che si concentra sulla qualità dei suoi contenuti.

Attenzione a non proporre contenuti con keyword stuffing, con molti contenuti duplicati interni (ad esempio doorway pages in cui i vari contenuti differiscono solo per piccoli dettagli): Panda è a caccia di elementi del genere.

Penguin: Link e Spam

Penguin, invece, controlla lo spam.

E’ a caccia di quelli che ottengono collegamenti sovraottimizzati (con troppe anchor text manipolative) o di bassa qualità.

Come Verificare, Controllare e Scoprire le Penalizzazioni di Google

Quando è manuale, arriva un avviso in Search Console.

Quelle algoritmiche, invece, non comportano segnalazione in Search Console, quindi non arriva nessun avviso ufficiale.

Pertanto, nel primo caso è semplice verificarle e scoprirle.

Nel secondo caso, invece, bisognerà incrociare i dati di diversi tool e utility, come Search Console, Analytics, e così via.

Tali tool segnalano perdite di traffico a livello sitewide, cioè in tutto, o perdite di traffico riguardanti specifiche pagine.

Come Evitare e Uscire dalle Penalizzazioni SEO

Evitarle è possibile.

Si può fare curando 3 aspetti principali:

  • la struttura tecnica;
  • i contenuti;
  • i backlink, cioè chi ti collegano.

La struttura tecnica è fondamentale per avere uno pulito, scansionabile e che dialoghi bene con il crawler, Googlebot.

E’ necessario valutare l’uso di tutti gli elementi fondamentali, come noindexcanonical e così via, al fine di mostrare un lavoro ben fatto.

A livello di contenuti devi controllare che il tuo soddisfi i search intent delle keyword obiettivo.

In sostanza, devi assicurarti che i visitatori siano soddisfatti e abbiano un’esperienza positiva.

Per quanto riguarda i collegamenti, dovresti controllare con vari tool, come Majestic, Ahrefs o Link Explorer o SEOZoom che il tuo ne ottenga di qualità, ed evitare di riceverne sovraottimizzati e di bassa qualità.

Durata

La durata di quelle manuali va avanti fin quando non mandi l’avviso (tramite Search Console) di aver risolto i problemi che lo affliggevano.

Se avrai fatto un buon lavoro, riceverai un messaggio che annuncia che è stata rimossa.

Per quanto riguarda quelle algoritmiche, la rimozione del filtro avviene in automatico, scansionando il tu, quindi basta attendere pazientemente.

In passato, invece, era necessario attendere mesi affinchè gli algoritmi venissero avviati. Ora gli stessi algoritmi sono in everflux, cioè sempre attivi, e i tempi sono quindi molto ridotti.

Tool da Usare per Individuarle

Sulla Search Console (lo strumento per webmaster che è bene collegare al nostro) c’è a sezione “Manual Spam Action”.

Tramite questa voce puoi sapere con semplicità e sicurezza se è stato colpito manualmente (Manual Spam Action, in inglese), ma non c’è un avviso in caso di un filtro algoritmico.

Sono comunque pochi che vengono colpiti manualmente (circa solo il 2%).

 

Dobbiam anche distinguere tra questi 2 tipi:

  1. Site-wide matches: vuol dire che tutto presenta un determinato problema, e per questo l’intero dominio viene colpito;
  2. Partial matches: vuol dire che il problema riguarda solo una (o alcune) specifiche pagine, e per questo motivo solo quelle particolari pagine sono state colpite.

Nel caso di penalizzazione manuale troverai un messaggio che ci dice se è stato punito per intero (site-wide matches) o solo per alcune specifiche pagine. (partial matches).

Quando questa è parziale, oltre al motivo della punizione (in questo caso dovuta a spammy user-generated content, cioè a contenuto spammoso), viene riportata anche una lista di URL affetti.

Questo ti dà la possibilità di intervenire con maggior facilità. In questo caso possiamo leggere nella colonna “Affected” che la pagina colpita è mattcutts.com/forum/.


I motivi possono essere diversi, ad esempio dal testo nascosto (hidden text) alla ripetizione spammosa di parole chiave (keyword stuffing).

Un’ultima precisazione: quando è colpito da un algoritmo (Panda, Penguin ecc) non ha senso richiedere una rivalutazione: non avresti nessun riscontro. Dovrai lavorare sulla qualità attendere con pazienza che Big G. lo rivaluti.

Nel caso invece della versione manuale invece dovrai:

  1. leggere bene il motivo;
  2. intervenire per risolverlo, agendo sull’intero (in caso di wide-site matches) o sulle pagine specifiche (partial matches).
  3. fare una richiesta di riconsiderazione (reconsideration request), in modo tale da avvisare che abbiamo risolto il problema.

Quest’ultimo passaggio può essere fatto semplicemente cliccando sul tasto rosso “request a review” che vedi nell’immagine di prima.

Questo strumento è molto utile per risolvere lo spinoso problema. Ti lascio al mio video riassuntivo.

Dopo aver rivisto queste nozioni base vediamo ora quali possono essere le cause che portano alla punizione manuale del nostro blog.

Il signor Matt Cutts in persona (capo della sezione anti-spam) ha pubblicato 7 video in cui spiega i 7 motivi per i quali può subirne una manuale.

Ecco a te allora i video di Matt Cutts, con la mia libera spiegazione e qualche commento sotto ognuno di essi.

Buona visione!

Pure Spam – Puro Spam

Qui Matt Cutts ha spiegato cosa intende per “pure spam”. La categoria è molto vasta e comprende le tecniche cosiddette blackhat, quelle in cui vengono creati migliaia di bassa qualità, e gli usa e getta, di infima qualità.

E’ raro che i webmaster facciano una richiesta di riconsiderazione in questi casi, perchè si tratta in genere di webmaster che, una volta che i loro son stati puniti, li buttano e ne creano di nuovi.

Solitamente i colpiti lo sono interamente, a livello site wide, quindi non solo un gruppo di pagine, ma l’intero.

Molte volte si tratta di freehost (blogspot, wordpress.com ecc), perchè questo consente ai webmaster di ridurre le spese e creare spam a zero euro.

Capita che la gente acquisti un dominio precedentemente colpito. In questo caso il nuovo webmaster deve impegnarsi a creare qualità, che offra buon valore.

Per risolvere questa punizione dovresti cercare di pulire il profilo rimuovendo quelli di bassa qualità. Dopo questo puoi fare richiesta di riconsiderazione. In questi casi è possibile risolvere il problema.

NB: è comunque consigliabile utilizzare Archive.org e MajesticSEO.com per controllare la storia del dominio acquistato, assicurandoti che non sia stato precedentemente usato come spam.

Thin Content with Little or No Added Value – Poco Contenuto con Scarso Valore

Vengono colpiti quelli che presentano contenuti di scarsa qualità e che non offrono valore al visitatore.

Un esempio di scarso contenuto è questo: immagina di avere uno con centinaia di pagine, ciascuna delle quali è molto simile all’altra come contenuti.

Ciò che cambia tra una pagina e l’altra è la semplice modifica di una chiave, nel contenuto e/o nell’URL, che ha lo scopo di rankare quella pagina per una determinata ricerca.

Esempio: hai uno che tratta di studi notarili italiani, e crei centinaia di pagine, ognuna con lo stesso contenuto.

Ogni articolo di queste pagine è quindi moto simile, e differisce solo per l’inserimento di una diversa città nel corpo dell’articolo.

Quindi avrai una pagina che parla degli studi notarili di milano, un’altra degli studi notarili di roma, ecc, per ogni città italiana. Ma queste pagine, ad eccezione della diversa città nominata, saranno uguali tra loro.

Se prendi visione della singola pagina il contenuto può anche sembrare valido, ma già dopo aver visionato 3 o 4 pagine sarà chiaro che il contenuto è di bassa qualità, ed è in buona parte un mero copia-incolla.

Un caso comune di “thin content” è quello relativo alle affiliazioni. Fin quando scrivi delle recensioni, esprimi dei pareri, e quindi offri uno verso il prodotto che consigli, va tutto bene.

Ma se inserisci tanti affiliati senza esprimere un giudizio, una recensione, un tuo parere, e solo riempiendo, magari con brevi recensioni copiate da altri blog, allora sei a rischio.

Anche riempire il blog con articoli copiati da altri (spesso di bassa qualità) o presi da “article banks”, che offrono articoli gratuiti di bassa qualità, può portare a una punizione per “thin content”.

Questo tipo può colpire sia tutto, che solo la parte incriminata.

Per rimediare devi rimuovere il contenuto di scarsa qualità, e inserire del contenuto finalmente valido, originale, qualcosa che renda il tuo interessante per i visitatori.

Unnatural Links from Your Site – Link Innaturali dal Tuo Sito

Questo warning ti avvisa che il tuo sta linkando verso di bassa qualità. Quando sul tuo inserisci uno devi esser certo di collegare a qualcosa che offra valore.

Inserirne sul tuo è come dare un voto, dire ai tuoi visitatori “ehi guardate questo, visitate questa pagina!”.

Se mandi i tuoi lettori verso bassa qualità non gradirà i suggerimenti che dai, e ti colpirà.

Spesso i colpiti son quelli che vendono, attività che va contro le Quality Guidelines.

Se ricevi questo avviso puoi rimuovere questi (questa è la soluzione preferita di Matt Cutts), oppure rendereli in questione “no follow”, oppure ancora reindirizzarli verso una URL intermedia che è bloccata nel file Robots.txt del tuo con il comando disallow.

Unnatural Links to Site – Link Innaturali Verso il Sito

Questo è il più tipico degli avvisi: il ha individuato bassa qualità diretti verso il tuo. Questi possono essere provenienti da blog networks, blog-comments spammosi, a pagamento, scambio, eccetera.

Quando vede uno con spam lo colpisce sia tramite il suo algoritmo, che tramite azione manuale. Per approfondimenti riguardo a pagamento guarda qui.

Come risolvere: devi eliminare quelli di bassa qualità, magari contattando i proprietari che collegano al tuo e chiedendo la rimozione o l’aggiunta dell’attributo “no follow”.

Va pulito il profilo il più possibile; può essere un’operazione piuttosto lunga e difficile, ma è necessaria.

Una volta che hai eliminato i nocivi che potevi eliminare puoi utilizzare il Disavow Tool. Questo strumento dice che non sei riuscito a elimianarne alcuni, e chiedi direttamente di non considerarli.

Una volta che hai eliminato gli incriminati dovrai fare una Reconsideration Request in cui documenti che hai eliminato tutti i possibili e assicuri che non ne farai più uso.

Dovrai in sostanza riconquistare la fiducia.

Unnatural Links to Site – Impacts Links – Link Innaturali Verso il Sito – Impact link

In questo caso hai buoni contenuti, valido, con dei buoni in entrata, ma presenti anche alcuni di bassa qualità, come ad esempio:

  • eccesso di scambio;
  • guest posting sospetto;
  • troppi in sidebar e footer con anchor text esatte.

In questo caso non permetterà di posizionarsi bene per queste kw particolari, e punirà le singole pagine incriminate.

Come nel caso precedente la soluzione migliore è eliminare, se possibile, le pagine di bassa qualità presenti.

Prima di inviare la richiesta di riconsiderazione, come nel caso precedente, utilizza il Disavow Tool per i soli che non siamo riusciti a eliminare.

Hidden Text and/or Keyword Stuffing – Testo Nascosto e/o Ripetizione Eccessiva di Parole Chiave

Il testo invisibile è quello visibile a un computer ma non all’uomo: se scrivi con un carattere rosso su uno sfondo rosso, questo testo è invisibile all’occhio umano.

Spesso un tempo i webmaster scrivevano paragrafi pieni di chiavi (keyword stuffing, appunto), nascondendo il testo utilizzando un carattere dello stesso colore dello sfondo.

Questo per posizionarsi, senza mostrare il contenuto (spesso senza senso) ai visitatori.

Rimediare a questa è semplice: basta rimuovere il testo invisibile (o la ripetizione eccessiva di kw). Aggiungere nella richiesta di riconsiderazione un’assicurazione che questo problema non si ripeterà ti aiuterà a salvarti.

User-Generated Spam – Spam Generato dall’Utente

Tipicamente questa colpisce il tuo quando hai un blog pieno di commenti spammosi che non moderi, oppure se il tuo forum è pieno di contenuto spammoso, di bassa qualità, non moderato.

Generalmente questa colpisce solo la parte affetta da questo problema, e non l’intero.

Per rimediare devi pulire la parte del tuo colpita, ad esempio rimuovendo tutti i commenti spammosi con cui gli spammer hanno sommerso il tuo.

Per prevenire questo problema puoi usare plugin come Akismet, o dei sistemi di captcha. Inoltre è buona cosa aggiungere a questi l’attributo “no follow”.

Come sempre con la reconsideration request documenta come hai risolto la situazione, e assicura Big G. che tale problema non si ripeterà.

Nella mia consulenza affronto questo aspetto in maniera approfondita e analitica.

In questo blog trovi diversi case study, come ad esempio questo su uno di affiliazione e questo su Livingo.it, che son tornati ad avere un buon posizionamento dopo la consulenza che ho fornito loro.

Penalizzazione su Google Maps

Vi sono punizioni specifiche per local Maps.

Vengono colpiti quelli che sovraottimizzano la scheda My Business, esagerando ad esempio con la ripetizione.

L’MDR punisce anche chi fa uso di recensioni finte, e questo portare l’attività locale a scomparire dal local pack e non ricevere più visite organiche.

E se Fosse Tutt’Altro?

C’è da dire che il calo di traffico potrebbe non essere dovuto a una penalizzazione.

Per esempio il calo potrebbe essere dovuto a:

  • stagionalità: magari sul tuo vendi cappotti invernali, e a luglio è legittimo aspettarsi un calo. Tutto normale, no?
  • errori tecnici: potresti aver bloccato la scansione di alcune pagine importanti con una configurazione errata del file Robots.txt
  • migrazione: magari sei passato al protocollo HTTPS, e non hai seguito le corrette procedure per il passaggio.