Algoritmo di Posizionamento Google: Guida e Nuovi Aggiornamenti

Algoritmo di Google per il posizionamento SEO: nuovi e vecchi aggiornamenti

Il posizionamento su Google di un sito viene determinato da una serie di algoritmi, che hanno il compito di verificare e valutare il valore del sito web.

Anche se non apporti modifiche ai tuoi siti web, infatti, ti sarai accorto che nel corso del tempo questo sale e scende nelle serp, in maniera apparentemente immotivata.

In realtà il motivo c’è: l’algoritmo di Google per la SEO è in continua evoluzione, e giudica in maniera sempre più efficace i contenuti proposti in rete, per determinarne il ranking.

In questo articolo ti spiego come funziona l’algoritmo di Google, e ti offro l’elenco ragionato degli aggiornamenti più importanti.

Che cos’è l’algoritmo di Google

Google nasce come motore di ricerca nel 1997, dopo tre anni dalla nascita di Yahoo.

Il suo scopo è quello di analizzare i contenuti presenti in rete, e ordinarli per merito, in base alle ricerche che gli utenti effettuano.

In breve tempo Google è diventato il migliore nel fornire all’utente informazioni di sempre maggior qualità e soddisfacenti le ricerche effettuate.

Questi sono gli algoritmi di Google: un insieme di processi che Google utilizza per controllare i contenuti web e per determinare una scrematura e un ordinamento dei risultati di ricerca, offrendo visibilità a quelli reputati migliori per ogni ricerca.

Il continuo aggiornamento degli algoritmi è necessario, perché solo attraverso esso è possibile migliorare le risposte restituite all’utente.

Il funzionamento e lo scopo dell’algoritmo di Google

Ma come funziona, quindi, un algoritmo di Google?

Il suo funzionamento è molto più semplice di quanto tu ti possa aspettare: se tu ti collegassi ad un sito web e leggessi un contenuto che parla di “torta di castagne”, per te sarebbe molto semplice comprendere di cosa si sta parlando e sapresti categorizzare quell’articolo come “ricetta”, oppure come “consigli” o ancora come “vendita “ a seconda di quanto è scritto all’interno della pagina web.

Questo per te è facile, perché puoi elaborare un’interpretazione veloce di quel testo e puoi capire facilmente se per te quel contenuto è interessante oppure no, e se è coerente con ciò che vorresti leggere o che hai ricercato.

Il fatto che tu possa arrivare facilmente alla ricetta della torta di castagne semplicemente scrivendo su Google “ricetta della torta di castagne”, è dovuto però ad un lavoro molto minuzioso, preciso e completo che il computer deve fare per riportarti la risposta esatta di ciò che stai cercando.

Un lavoro fatto, quindi, di calcoli matematici e di algoritmi che permettono di analizzare le parole chiave che tu scrivi nella barra di ricerca e indicarti quei siti web e contenuti che soddisfano la ricerca.

In sostanza, l’algoritmo di Google per la SEO è stato appositamente studiato – e continuamente aggiornato – allo scopo di fornire all’utente delle risposte efficaci, efficienti, coerenti e veloci rispetto  ciò che egli ricerca o che è di suo interesse.

Il Page Rank: l’ingrediente principale dell’algoritmo di Google

Per ottenere i risultati desiderati, Google si serve di continue innovazioni e modifiche, aggiornamenti e novità che vengono continuamente studiati e proposti allo scopo di rendere onore a quei siti web che davvero garantiscono i migliori risultati possibili.

Per farlo, Google si serve di un elemento molto importante, chiamato Page Rank: esso non è altro che uno calcolo attraverso il quale i siti vengono valutati in base alla loro popolarità in rete.

Esso è in grado di determinare l’importanza di un sito web attraverso l’associazione di un peso numerico ad un collegamento ipertestuale, cioè a un link.

Detto in maniera semplice, più un contenuto viene linkato da altre fonti, più risulta popolare e meritevole di ottenere visibilità. In realtà in questa valutazione rientrano molti altri elementi, che non approfondirò in questo articolo.

Il nuovo algoritmo di Google e i primi aggiornamenti

Nei primi anni, il posizionamento su Google di un sito web era abbastanza semplice, in quanto era sufficiente focalizzarsi su pochi aspetti: le cosiddette “parole chiave” e la quantità di link in entrata (backlink).

In pratica ti bastava creare contenuti infarciti della keyword per la quale desideravi posizionarti, e sparare link a raffica, anche provenienti da fonti di bassa qualità.

Però, in mezzo ad una vera e propria giungla indiscussa di keyword, l’utente stesso poteva avere alcune difficoltà nel reperire le pagine giuste, e cioè quelle che potevano essere di suo interesse.

Questo perché l’algoritmo di Google era molto limitato, e faticava a comprendere i contenuti delle pagine web, e le loro qualità.

Quality update e core update

L’algoritmo di Google per la SEO è in continua evoluzione, e per questo si susseguono aggiornamenti qualitativi, volti ad affinare sempre più le capacità di comprensione e valutazione dei contenuti.

Questi update non hanno nomi ufficiali, ma vengono etichettati da noi SEO per comodità, in modo da poterci riferire ad essi senza ambiguità.

Aggiornamenti come Fred, oppure come il Medical update, fanno parte di questo tipo di aggiornamenti.

Di seguito trovi un elenco cronologico dei principali aggiornamenti ufficiali, e anche di quelli non ufficiali ma che hanno impattato in modo molto deciso le serp.

2018: Medic Core Update, Mobile First Index, Brackets

Il Medic Core Update del 1 agosto è un update qualitativo, che ha scosso le serp in maniera molto decisa.

Si tratta di un aggiornamento core, che ha riconsiderato molti aspetti nella valutazione dei siti web.

Con il Mobile First Index del 26 marzo, invece, il motore di ricerca ha iniziato a scansionare e considerare come versione principale di un sito, la sua versione mobile.

Il bot di Google, quindi, prende come riferimento la versione per dispositivi mobili.

Diventa fondamentale avere congruenza nella struttura e nei contenuti delle versioni desktop e mobile dei siti web.

2017: Maccabees, Fred

Maccabees, del 14 dicembre, è un aggiornamento non ufficialmente dichiarato da Google.

Fred, dell’8 marzo, è un altro aggiornamento algoritmico non confermato, che ha impattato molte serp, focalizzandosi sul search intent e sulla qualità dei contenuti delle pagine web, e sulla loro effettiva capacità di soddisfare le query di ricerca.

2016: Penguin 4.0

Penguin è il nuovo algoritmo SEO che permette a Google di combattere lo spam.

Dalla versione 4.0, annunciata il 23 settembre, il suo lavoro è diventato granulare: colpisce le singole pagine invece che interi siti web. Ha inoltre iniziato a ignorare i link cattivi, anzichè penalizzare per essi.

Il 2014 ed il 2015 hanno accolto l’avvento dell’era mobile e della digitalizzazione delle aziende, che oggi sfruttano la local SEO e hanno siti ben ottimizzati per smartphone, per essere visibili nelle aree geografiche in cui operano.

2015: Rankbrain, Panda 4.2, Mobilegeddon

Rankbrain, annunciato il 26 ottobre, è l’intelligenza artificiale che impatta il posizionamento su Google, ed è un sistema di autoapprendimento volto a comprendere il search intent delle ricerche nuove, che vengono effettuate per la prima volta.

Panda 4.2 è stato annunciato il giorno 17 luglio. E’ un aggiornamento di Panda, l’algoritmo di valutazione della qualità dei siti.

Mobilegeddon, del 21 aprile, è l’update con cui Google inizia a lavorare specificatamente per le ricerche da dispositivi mobili. Tuttavia, i suoi effetti non sono stati eccessivamente significativi.

2014: Pirate 2.0, Penguin 3.0, https, Pigeon

Pirate 2.0, del 21 ottobre, aggiorna l’algoritmo che combatte la diffusione di materiale protetto da copyright.

Con Penguin 3.0, del 17 ottobre, il motore di ricerca ha reso questo algoritmo “everflux”, cioè in continuo rollout. In pratica, d’ora in poi, Penguin è sempre al lavoro per combattere lo spam, e non viene più azionato di tanto in tanto, sporadicamente, come prima.

Il 6 agosto Google annuncia che l’utilizzo del certificato https ed ssl porta a un leggero vantaggio di ranking sulle serp.

Pigeon, del 24 luglio, ha impattato la local SEO e il posizionamento su Google maps.

2013: Hummingbird, Payday Loan, Penguin 2.0

Nel 2013 è nato Hummingbird, in italiano Colibrì: questo nuovo algoritmo è molto importante, perché ha determinato un miglioramento dell’intelligenza del motore di ricerca.

Tramite Hummingbird, infatti, Google non si limita più a verificare la presenza delle parole chiave nelle pagine web, ma cerca di comprenderne il significato.

Facendo un esempio, se cerchiamo “quanti anni ha Obama”, non vedremo in serp siti che hanno tali parole chiave all’interno del proprio contenuto, ma ci verranno proposti risultati che rispondono alla domanda fatta, indicando l’età richiesta.

Il Payday Loan update, invece, ha colpito e sconvolto le serp notoriamente piene di spam.

Penguin 2.0, del 22 maggio, è stato invece l’aggiornamento dell’algoritmo Google Penguin dell’anno precedente.

2012: Exact Match Domain, Knowledge graph, Penguin, Venice, Above the Fold

Con l’Emd (Exact Match Domain) update, Google ha fatto pulizia di molti domini a chiave esatta che si posizionavano in serp nonostante la scarsa qualità.

Il 16 maggio Google ha iniziato a mostrare in serp il Knowledge graph, per mostrare in serp informazioni dettagliate e immediate agli utenti.

Nel 2012 c’è stata una rivoluzione per il posizionamento su Google: se prima la popolarità di un sito era basata molto sulla quantità di link ricevuti, con il nuovo algoritmo Google Penguin, il motore di ricerca ha inizato a valutare la qualità dei link.

Siti che ricevevano link di scarsa qualità e con anchor text troppo ettimizzate hanno subito delle penalizzazioni drastiche, che ne hanno praticamente azzerato la visibilità e il ranking su Google.

Venice, del 27 febbraio, ha impattato i risultati locali delle serp.

L’aggiornamento Above the Fold, del 19 gennaio, ha colpito i siti che presentano eccessive pubblicità nella parte above the fold della pagina, cioè nella parte alta, immediatamente visibile ai visitatori.

2011: Freshness, Schema.org, Panda 2.0, Panda

Il 3 novembre 2011, con Freshness, ampia attenzione è stata data alle notizie, e quindi in particolare a tutti quei siti web che proponevano informazioni molto aggiornate riguardanti temi in cui la freschezza della notizia è determinante.

Tale aggiornamento screma risultati datati, premiando di conseguenza quelli più attuali. Ovviamente questo, come già detto, solo per ricerche in cui l’elemento della data di aggiornamento è importante.

Il 2 giugno Google, Yahoo e Microsoft annunciano di aver messo a punto un sistema per implementare i dati strutturati nei siti web, e dialogare in maniera chiara, tramite essi, con i motori di ricerca.

Panda 2.0 viene rilasciato il giorno 11 aprile, aggiornamento dell’algoritmo Google Panda del 23 febbraio.

L’algoritmo dal nome Panda (23 febbraio) ha introdotto regole molto più rigide per quel che concerne la qualità dei siti web.

Con Panda – e ancora oggi le cose funzionano così – si è data attenzione ai siti che presentavano pagine web di scarsa qualità (thin content).

I contenuti di scarsa qualità possono essere dovuti a una scarsità di informazioni presenti, a pubblicità e ads troppo invasive, a duplicazioni interne di contenuti e ad altri fattori qualitativi.

2010: Google Instant, Caffeine

Con Google Instant (1 settembre), il motore di ricerca mostra i risultati di rcerca man mano che una query viene digitata.

Caffeine (1 giugno) ha segnato un miglioramento della capacità di indicizzazione e computazionale di Big G.

2008: Google Suggest

Il 1 agosto 2008 vi fu l’aggiornamento Suggest, che implementò i suggerimenti di ricerca per le parole chiave digitate: un servizio molto interessante, ancora oggi presente.

2007: Universal Search

Il 2007 fu un anno decisivo: un altro aggiornamento, chiamato Universal Search, portò a un arricchimento delle serp, che iniziavano a mostrare notizie e immagini.

2003: Florida, Cassandra

Florida (1 novembre) è stato un algoritmo che ha combattuto siti di scarsa di qualità, che facevano uso di keyword stuffing e altre tecniche di spam. Si tratta di un antenato del moderno Panda.

Con Cassandra (1 aprile) Google fa i primi tentativi di combattere i link di scarsa qualità. E’ il papà del moderno Penguin.

filippo.jatta@jfactor.it

<p>Filippo Jatta è consulente SEO per liberi professionisti e imprenditori. Dottore magistrale in Organizzazione e Sistemi Informativi presso l’Università Luigi Bocconi di Milano. Dal 2008 aumenta traffico e visibilità online di blog e ecommerce, posizionando siti web in prima pagina su Google. Offre servizi di posizionamento sui motori di ricerca e corsi SEO, sia base che avanzati.</p>

Nessun Commento

Inserisci un commento