La keyword density è il rapporto tra il numero di parole contenuto in una pagina web e il numero di ripetizioni di una determinata chiave. E’ un falso fattore di posizionamento SEO.

In questo case study scoprirai se, infarcendo un articolo di parole chiave in maniera poco naturale, si viene premiati da Google o meno.

Uno dei più noti miti (anzi, forse il più noto di tutti) è quello della keyword density.

C’è infatti chi sostiene che, ripetendo un numero superiore di volte una determinata chiave all’interno di una pagina web, si ottenga miglior ranking.

Chi conosce un minimo la SEO sa che si tratta di un mito, però personalmente non avevo ancora svolto un test a riguardo.

Ecco quindi un piccolo esperimento.

La Ricerca della Miglior Percentuale di Keyword Density

Per il case study di oggi ho fatto redarre 40 articoli riguardanti vari argomenti (salute, moda, matrimonio).

Ognuno di questi articoli è stato ottimizzato per una specifica query di ricerca seguendo le classiche regole dell’ottimizzazione on page: titolo, H1, metatitle, metadescription, alt-tag delle immagini… Insomma, i classici elementi ben noti.

Ognuno di questi articoli è stato “sovraottimizzato”: all’interno del testo di ogni articolo la parola chiave obiettivo è stata ripetuta più volte, in maniera innaturale.

Questo ha portato gli articoli a raggiungere una percentuale di ripetizioni piuttosto elevata.

Ho pubblicato ognuno di questi articoli su 40 siti web e riviste online, di varia autorevolezza.

Ho analizzato i ranking ottenuti da tali articoli.

Ho poi fatto richiesta alle riviste online di “pulire” gli articoli, portando la keyword density a una percentuale inferiore e più naturale, eliminando le ripetizioni in eccesso.

A distanza di 3 settimane ho ricontrollato i risultati degli articoli.

Attenzione: non ho voluto simulare, in questo esperimento, il keyword stuffing vero e proprio, raggiungendo una density esagerata.

Ho preferito simulare il lavoro di un copywriter che esagera con le ripetizioni, scrivendo in maniera esageratamente ottimizzata.

Mi presento: sono Filippo Jatta, sono consulente dal 2007.

Mi sono laureato e specializzato nel 2007 in Economia, Organizzazione e Sistemi Informativi presso l’Università Bocconi di Milano.

Procedimento del Test SEO: Check, Calcolo e Tool

Bene, iniziamo con i dati.

La lunghezza media degli articoli è di 600 parole, e ogni articolo presenta circa 19 volte la chiave (considerando anche l’alt-tag dell’immagine). La densità è quindi mediamente del 3,2%, il che rende gli articoli leggibili ma abbastanza pesanti e innaturali, specialmente considerando che le chiave sono costituite mediamente da 3 o 4 termini.

Le pubblicazioni effettuate sono 40.

Come parametri di riferimento ho preso la DA di Moz e la ZA di SEOZoom, per valutare rispettivamente l’autorevolezza (dovuta principalmente ai link in entrata) e il traffico organico.

E’ chiaro che tali parametri son solo delle stime e che la qualità va controllata “manualmente”. Riporto tuttavia questi parametri per dare un’idea orientativa in questione.

Ecco la schermata con alcuni dei valori ZA usati per il test:

Il valore ZA medio dei 40 utilizzati per questo case study è pari a 30,36.

La DA media dei 40 è pari invece a 26,59.

Dopo una settimana dalla pubblicazione, tutti gli articoli sono stati indicizzati dal motore di ricerca.

Mediamente si sono posizionati in posizione 54,58.

Da questo conteggio ho eliminato 7 siti, non entrati in top 100.

Se sembra un risultato scarso, bisogna considerare che:

  • ho usato siti di valore piuttosto vario, con capacità di ottenere traffico e posizionamento organico dall’ottimo allo scarso;
  • per quanto parole chiave composte da 3 o 4 termini, le leyword utilizzate presentano comunque un livello di competizione abbastanza elevato, il che ne rende più complesso l’ottenimento di visibilità.

Registrati tali dati, ho chiesto di modificare i contenuti degli articoli.

Da una media di 19 ripetizioni della chiave in ogni articolo siamo passati a una media di 8 ripetizioni, con una nuova densità pari al 1,3%.

Dopo 3 settimane ho ricontrollato i risultati per le keyword in questione.

Ho dovuto scartarne altri dalla valutazione complessiva, in quanto hanno presentato un crollo o un aumento troppo evidente nel traffico organico complessivo.

In questo lasso di tempo di 3 settimane alcuni hanno visto il loro traffico organico complessivo aumentare drasticamente, o calare vistosamente. Conteggiarli nel presente case study sarebbe fuorviante, dato che le variazioni dell’articolo in questi casi sono probabilmente più legati ad altri fattori del singolo articolo.

In parole povere, SEOZoom (strumento utilizzato in questa analisi) rilevava una stima di traffico troppo differente rispetto a 21 giorni precedenti.

Eliminando anche questi 6 ne rimangono 27 da considerare ai fini del test.

I Risultati Online del Test su Google

Ed ecco il verdetto nell’immagine qui sotto: nella prima colonna puoi vedere il ranking con la keyword density più elevata; nella seconda colonna quello con densità più bassa a 3 settimane di distanza, e nella terza colonna trovi la variazione.

Dei 27 rimanenti, 20 hanno migliorato il proprio posizionamento con la kw density inferiore.

In 6 casi invece c’è stato un peggioramento. In un caso invece il ranking è rimasto uguale.

In nessun caso è ovviamente stata fatta alcuna operazione di link building verso le pagine in questione.

Cosa Possiamo Dedurre da Questo Piccolo Esperimento sulla Keyword Density Ottimale?

Questo esperimento ha certamente un limite nel numero di pubblicazioni piuttosto basso (solo 40, poi  diventate 27).

Altro limite è che Google è in costante evoluzione, quindi non è semplice “pulire” i cambiamenti dovuti alle modifiche nei contenuti da quelli dovuti all’aggiornamento dell’algoritmo. Tra l’altro i dati sono stati raccolti in pieno periodo “aggiornamento Fred”.

Non può quindi certo esser dimostrato che diminuendo la keyword density si ha un miglioramento, nè è questo l’obiettivo di questo case study.

Il miglioramento medio infatti è di soli 4,26 posizioni, troppo poco considerando che si tratta di posti comunque lontani dalla prima pagina e quindi più “volatili”.

E’ però altrettanto evidente che i risultati medi non siano peggiorati dopo la “pulizia”.

Ciò che ritengo che si possa attestare è quindi che una densità maggiore non porta a un miglior risultato.

Non esiste e non può esistere dunque una densità ottimale, che a volte viene chiesta nei gruppi Facebook e nei forum.

Inserire la chiave nei giusti campi è ancora molto importante (soprattutto nel titolo e metatitle), tuttavia una ripetizione innaturale non porta a un miglioramento del ranking.

Un Caso Particolare

C’è stato anche un caso piuttosto particolare: ti ricordi che 7 siti erano stati scartati perchè non entrati in top 100?

Bene… Uno di essi, dopo la pulizia dei contenuti, è balzato in posizione 28.

Si tratta di un sito con argomento salute e benessere, con DA 18 e ZA 30.

Inizialmente in questo articolo era stata ripetuta 18 volte la chiave “argento colloidale in farmacia”. Successivamente è stata ripetuta in maniera esatta solo 2 volte, più altre volte in maniera non esatta.

Tale risalita è dovuta alla minor keyword density? Non possiamo saperlo, però è un caso interessante che ho voluto sottoporre alla tua attenzione.

Filippo Jatta

About Filippo Jatta

Filippo Jatta è consulente SEO dal 2008. Dottore magistrale in Organizzazione e Sistemi Informativi presso l'Università Luigi Bocconi di Milano.

4 Comments

  • Alessandro Caira ha detto:

    Obiettivamente i testi che superano una keyword density del 2,5% sono più meccanici da leggere e denotano una scarsa conoscenza della lingua italiana oltre all’argomento. Ho fatto dei test scrivendo dei contenuti in prima persona ed è davvero difficile superare il 2% se si parla in modo naturale, questo per dire che è vero che Google abbia al proprio interno un algoritmo che valuta la qualità dei testi. Comunque concordo con Dimitri, bisognava aspettare almeno i classici 2 mesi, tempo entro il quale il contenuto matura il trust o meno di Google.

    • Filippo ha detto:

      Sì, in genere parlando in maniera naturale è difficile superare il 2%, Google certamente considera questi parametri.

      Son pronto a tuffarmi verso nuovi esperimenti 🙂

  • Dimitri Stagnitto ha detto:

    Bel test ma secondo me hai modificato i testi troppo presto. Avrei fatto passare qualche mese prima dell’update.

    • Filippo ha detto:

      Ci avevo pensato, però se avessi aspettato ci sarebbero state troppe modifiche dell’algoritmo di Google, che avrebbero sporcato i risultati.

      Già poco dopo il test è arrivato il famoso “Fred” update…