Google Panda è l’algoritmo deputato a verificare la qualità dei siti web. Ha il compito di diminuire la visibilità sul motore di ricerca dei siti che presentano caratteristiche contrarie alle linee guida.

Il primo risale al 23 febbraio del 2011. Ha il ruolo di controllare la qualità dei siti web, non permettendo a siti di scarsa qualità di avere troppa visibilità in SERP.

Abbiamo già parlato qui delle penalizzazioni algoritmiche. Le più famose sono Penguin e Panda, e pochi giorni fa è stata rilasciata una nuova versione di quest’ultimo.

Penguin si occupa della lotta allo spam, mentre quello su cui ci concentriamo oggi punta al controllo della qualità dei contenuti.

I primi aggiornamenti sono stati sporadici, ora invece è in everflux, quindi in continuo aggiornamento.

Come Evitare la Penalizzazione del Google Panda Update: Video

In data 20 maggio 2014, però, è stato ufficializzata la release numero 4, che si è meritato un “numero” tutto suo, a causa dell’incidenza che ha avuto sulle SERP.

Ora è invece integrato nell’algoritmo principale, e viene avviato molto spesso, a cadenza quasi mensile.

Innanzitutto è bene sottolineare che la natura di questo algoritmo è uguale a quella dei precedenti: questo algoritmo ricerca siti di bassa qualità, per impedir loro di dominare le prime posizioni del motore di ricerca.

Ho creato 4 video gratuiti in cui ti spiego il mio esatto metodo, per permetterti di ottenere i miei stessi risultati.

Scaricali gratuitamente cliccando sul pulsante sotto il video, e inizia questo percorso con me. Altrimenti, continua la lettura dell’articolo più in basso.

4 VIDEO+PDF: Scopri il Mio Metodo Semplice, Passo Passo e Pratico, per TUTTI i Siti Web

    Il Sito E’ Stato Colpito dall’Algoritmo? Check e Test

    Per saperlo il più delle volte basta dare uno sguardo al grafico di Analytics che mostra le visite. Se intorno al 20 maggio è presente una netta perdita di visite organiche, è possibile/probabile che tu sia stato colpito.

    Prendo in prestito un’immagine da searchenginewatch (che ringrazio anche per le informazioni offerte a riguardo) per essere più chiaro.

    Come si nota il traffico, intorno al 20 maggio 2014, ha subito una brusca diminuzione. E’ questo l’indizio più semplice e immediato per capire che è entrato in azione.

    Ad ogni modo è anche possibile il contrario: se tempo fa il tuo sito era stato colpito da una precedente versione, infatti, è possibile che con questo aggiornamento sia stato invece ritenuto di buona qualità, e in questo caso si noterà un deciso aumento di visite intorno sempre al 20 maggio. Questo accade in genere per siti “al limite”, con molte caratteristiche negative, che quindi possono essere danneggiate da un aggiornamento e risollevate da un altro.

    Questo modo per individuare una penalizzazione non è accurato al 100%, ma ci dà un’idea di massima.

    Mi presento: sono Filippo Jatta, sono consulente dal 2007.

    Mi sono laureato e specializzato nel 2007 in Economia, Organizzazione e Sistemi Informativi presso l’Università Bocconi di Milano.

    Per contattarmi usa il form in fondo alla pagina o scrivimi su whatsApp al numero 348 09 06 338.

    Caratteristiche di Siti Web di Bassa Qualità

    I siti di bassa qualità presentano spesso una o più delle seguenti caratteristiche:

    • valore “Pagine/sessione” basso: i visitatori vedono una sola pagina e vanno via;
    • frequenza di rimbalzo (in inglese bounce rate) alto: i visitatori trovano il nostro sito in SERP, vi entrano, e tornano sulla SERP senza visitare nessun’altra pagina. Più bassa è la percentuale, meglio è;
    • durata sessione media: misura quanto tempo i visitatori restano: cerchiamo di tenere questo valore alto;
    • rapporto nuovi visitatori / Visitatori di ritorno: dal grafico a torta di Analytis si vede se chi visita ritorna oppure no. Se i visitatori di ritorno sono uno spicchio molto piccolo è un brutto segno, perchè vuol dire che chi viene sul nostro sito non ci torna più.

    Su Analytics troverai questi valori con questa grafica:

    Questi dati non sono sempre sufficienti però, nè determinanti. Prendiamo ad esempio il dato “Pagine/sessione”. Questo dato, abbiamo detto, mostra quante pagine vengono viste mediamente da ciascun visitatore.

    Se però noi offriamo esattamente, e in maniera soddisfacente e completa, quello che il visitatore cerca, è possibile che questi dopo aver visitato una sola pagina esca dal nostro sito.

    Mettiamo che dobbiamo fare una vacanza negli USA, e ci serva sapere quanto è, attualmente, il cambio euro dollaro. Cerchiamo quindi “cambio euro dollaro”, e clicchiamo su un risultato. Dove entriamo è presente il valore che cercavamo. Dato che abbiamo trovato quello che cercavamo, usciamo. In questo caso quindi un valore “Pagine/sessione” basso non è indice di scarsa qualità

    Prendiamo un altro esempio: il bounce rate, o frequenza di rimbalzo. Come detto poco fa, ci dice quale percentuale di visitatori torna ai risultati dopo aver visitato il nostro sito, senza visitare nessuna pagina in più. Quindi cerco qualcosa, entro, vedo una pagina e torno alla pagina di Gooogle. Ovviamente è preferibile avere un valore basso di bounce rate (il che significa che solo poca gente torna alla SERP senza vedere una pagina in più del nostro sito).

    Ma anche in questo caso non è tutto così immediato: mettiamo che uno studente debba fare una ricerca su internet, ad esempio sulla storia di Napoleone. Cerca “napoleone bonaparte” ed entra in una pagina. Legge i contenuti, magari per un paio di minuti o più, e dopo aver segnato sui suoi appunti le informazioni importanti, torna sulla SERP per cercare altre fonti. In questo caso è vero che il visitatore ha visto solo una pagina e poi è tornato in SERP, ma è rimasto parecchio tempo, quindi Big G. sa che un alto bounce rate in questo caso non è sintomo di scarsa qualità.

    Bene, queste metriche di cui abbiamo parlato non sono determinanti, ma certo sono segnali che considera, e che dobbiamo mantenere buone.

    Ci sono però degli elementi determinanti, che sono negativi e pericolosi. Ecco quali.

    Contenuti Duplicati Interni (Doorway Pages)

    Iniziamo con i contenuti duplicati

    Sul nostro sito non dobbiamo avere contenuti copiati da altri siti. Certo, riprendere una citazione va bene. Ma non copiamo interi paragrafi da altri siti web: Panda cerca proprio contenuti duplicati, al fine di trovare siti di scarsa qualità e penalizzarli.

    I contenuti duplicati sono negativi sia se copiati da altri siti web, che dal nostro stesso sito.

    Quindi così come è negativo copiare un paragrafo da un altro, allo stesso modo è negativo creare tante pagine web, con all’interno lo stesso articolo.

    Per evitare penalizzazioni, quindi, eliminiamo contenuti duplicati senza pensarci troppo.

    Se vogliamo inserire un intero articolo, preso da un altro sito web, sul nostro, dobbiamo utilizzare il codice rel=canonical oppure il noindex.

    Con il rel=canonical diciamo “guarda, io ho messo questo articolo sul mio blog, ma l’originale è questo, e lo trovi qui”. La struttura del codice html è questa:

    <link rel=”canonical” href=”http://www.sitodacuihopresol’articolo.com/articolo-originale”/>

    Se vuoi implementarlo trovi una guida a questo link, sul blog di Giorgio Tave.

    Con il noindex, invece, diciamo semplicemente di non indicizzare l’articolo che abbiamo pubblicato, di non tenerlo in considerazione. L’articolo copiato non comparirà, quindi, nei risultati.

    Con entrambi i metodi (anche se il primo è preferibile) risolviamo il problema dei contenuti copiati da siti altrui.

    La soluzione migliore è però a mio parere quella di eliminare direttamente tutti gli articoli non originali, così da risolvere il problema dalla radice.

    Se abbiamo più pagine con gli stessi contenuti, allo stesso modo, eliminiamole o usiamo il canonical.

    Thin Content: Contenuti Poveri

    Non piacciono siti con molte pagine praticamente vuote, con pochi contenuti. Questo articolo che stai leggendo ha raggiunto in questo istante le 1299 parole. Questo non vuol dire che tutti i nostri articoli debbano superare le mille parole.

    Anche un contenuto molto breve può essere valido e meritevole, sia chiaro. Ma facciamo autocritica e chiediamoci: “questo contenuto offre valore al visitatore oppure no?” Se la risposta è no, facciamoci  un favore e cancelliamolo.

    Capita infatti che, dopo che dei siti eliminano articoli che non offrono alcun valore, il loro traffico (il numero di visitatori) aumenti considerevolmente.

    Contenuto Sovra Ottimizzato

    Un altro aspetto che comunque ricade nella statistica dei contenuti scarsi, è quello delle pagine sovra ottimizzate.

    La ripetizione eccessiva di parole chiave nel testo è deprecabile e non migliora la visibilità. Anzi, la può peggiorare.

    Se il contenuto è scritto con l’obiettivo di manipolare le SERP, questo update interviene togliendo visibilità alla pagina.

    Mi è capitato diverse volte di analizzare siti penalizzati, e risolvere la penalizzazione de-ottimizzandone i contenuti.

    Troppa Pubblicità

    Troppa pubblicità, soprattutto above the fold, cioè nella parte alta della pagina, peggiora l’esperienza di navigazione e quindi non è apprezzata.

    Cerca di offrire subito contenuto di qualità, immediatamente visibile quando si apre la pagina.

    Evita di annoiare il visitatore con troppe pubblicità e pop up.

    Ti dò un consiglio: se analizzi bene le conversioni, scoprirai che solo pochi banner convertono, e gli altri non vengono mai cliccati.

    Eliminando quelli che non vengono mai cliccati non perderai click e conversioni, e offrirari un sito di qualità migliore, evitando la penalizzazione.

    Eccessive Paginazioni

    Ti è mai capitato di voler leggere un articolo, e dover cliccare troppe volte sul pulsante per andare alla pagina successiva dello stesso?

    Spesso i siti suddividono un unico articolo in tanto pagine, aumentando quindi il numero di interazioni sul portale e aumentando le volte in cui il visitatore si vede apparire pubblicità.

    Questa tecnica non piace, quindi usa le paginazioni solo se servono davvero.

    Refresh e Aggiornamento di Google Panda

    Gli aggiornamenti erano prima rilasciati mensilmente.

    Ora invece non c’è più una data di rilascio per ogni aggiornamento, è in everflux, quindi è sempre al lavoro.

    Il lato positivo è che non ci sarà bisogno di attendere troppo tempo per recuperare dalla penalizzazione.

    Tratta però il sito con cura, attuando le necessarie modifiche, per evitare di incorrere in questi problemi.

    Contattami ora!

    Puoi contattarmi compilando il form qui sotto per avere informazioni sui miei servizi, oppure manda un messaggio WhatsApp al n. 348 09 06 338

    [contact-form-7 404 "Non trovato"]
    Filippo Jatta

    About Filippo Jatta

    Filippo Jatta è consulente SEO dal 2008. Dottore magistrale in Organizzazione e Sistemi Informativi presso l'Università Luigi Bocconi di Milano.

    2 Comments

    • segreti ha detto:

      Non esiste un modo più semplice per sapere se il nostro sito è stato penalizzato?

      • Filippo ha detto:

        Valutare l’eventuale penalizzazione di un sito non è immediato: bisogna confrontare i dati delle visite in corrispondenza delle date di rilascio di alcuni aggiornamenti specifici, e valutare anche altri fattori, come la stagionalità, che possono influire sulle visite senza alcuna penalizzazione.

        Successivamente bisogna valutare molti aspetti onpage e offpage del sito, e risolvere gli eventuali problemi.

        Insomma, no, non c’è un metodo semplice e veloce per stabilire se un sito è stato penalizzato da un algoritmo.

        Invece nel caso di penalizzazioni manuali basta controllare sul Webmaster Tools. Se c’è una penalizzazione manuale questa risulterà chiaramente.