L’algoritmo di Google è un insieme di processi che il motore di ricerca utilizza per controllare i contenuti web e per determinare una scrematura e un ordinamento dei risultati di ricerca, offrendo visibilità a quelli reputati migliori per ogni ricerca.

Il posizionamento viene determinato da una serie di algoritmi, che hanno il compito di verificare e valutare il valore.

Anche se non apporti modifiche, infatti, ti sarai accorto che nel corso del tempo questo sale e scende nelle SERP, in maniera apparentemente immotivata.

In realtà il motivo c’è: Google è in continua evoluzione, e giudica in maniera sempre più efficace i contenuti proposti in rete, per determinarne il ranking.

Ora ti spiego come funziona l’algoritmo, e ti offro l’elenco ragionato degli aggiornamenti più importanti.

Che Cos’è l’Algoritmo di Google

L’algoritmo di Google è un insieme di formule matematiche, che permettono di comprendere i contenuti presenti nel web e valutarli, mostrandoli nei risultati di ricerca. E’ stato ideato da Larry Page, inventore del PageRank.

Il suo scopo è quello di analizzare i contenuti presenti in rete, e ordinarli per merito, in base alle ricerche che gli utenti effettuano. Per farlo, vengono utilizzati più di 200 fattori di ranking, che vengono continuamente aggiornati e raffinati con numerosi update.

Inoltre, Google fa uso di più algoritmi differenti che lavorano in sinergia, e alcuni di essi sono intelligenze artificiali in autoapprendimento (machine learning).

Il continuo aggiornamento è necessario, perché solo attraverso esso è possibile migliorare le risposte restituite all’utente.

Come Funziona l’Algoritmo di Google

 

L’obiettivo dell’algoritmo di Google è analizzare le parole chiave che l’utente scrive nella barra di ricerca e indicare quei contenuti che soddisfano la ricerca.

In sostanza, è stato appositamente studiato – e continuamente aggiornato – allo scopo di fornire all’utente delle risposte efficaci, efficienti, coerenti e veloci rispetto  ciò che egli ricerca o che è di suo interesse.

Il processo è composto da 3 fasi: scansione, indicizzazione e posizionamento.

Con la scansione, il crawlet di Google, Googlebot, ricerca nuovi contenuti e pagine web e le legge.

Con l’indicizzazione, l’algoritmo decide se includere tali contenuti nel proprio database.

Con il posizionamento, l’algoritmo decide di mostrarli in SERP per determinate ricerche, dando ai contenuti visibilità.

Mi presento: sono Filippo Jatta, sono consulente dal 2007.

Mi sono laureato e specializzato nel 2007 in Economia, Organizzazione e Sistemi Informativi presso l’Università Bocconi di Milano.

Update, Aggiornamenti e Storia dell’Algoritmo di Google

Nei primi anni, migliorare il ranking era abbastanza semplice, in quanto era sufficiente focalizzarsi su pochi aspetti: le cosiddette “parole chiave” e la quantità di link in entrata (backlink).

In pratica ti bastava creare contenuti infarciti della keyword per la quale desideravi ottenere visibilità, e sparare a raffica, anche provenienti da fonti di bassa qualità.

Però, in mezzo ad una vera e propria giungla indiscussa di keyword, l’utente stesso poteva avere alcune difficoltà nel reperire le pagine giuste, e cioè quelle che potevano essere di suo interesse.

Questo perché Google era molto limitato, e faticava a comprendere i contenuti delle pagine web, e le loro qualità.

Quality Update e Broad Core Update

L’algoritmo di Google è in continua evoluzione, e per questo si susseguono aggiornamenti qualitativi, volti ad affinare sempre più le capacità di comprensione e valutazione dei contenuti.

Vi sono update chiamati Core Update, che a volte non hanno nomi ufficiali, ma vengono etichettati per comodità, in modo da poterci riferire ad essi senza ambiguità, e impattano molto sui risultati di ricerca.

Aggiornamenti come Fred, oppure come il Medical update, fanno parte di questo tipo di aggiornamenti.

Di seguito trovi un elenco cronologico dei principali aggiornamenti ufficiali, e anche di quelli non ufficiali ma che hanno impattato in modo molto deciso le SERP.

2019-2020: Broad Core Update

Il 19 marzo 2019 è stato ufficializzato il Broad Core Update di Marzo 2019.

A giugno e settembre, poi, sono arrivati nuovi Broad Core Update, e così anche nel 2020.

Si tratta di aggiornamenti riguardanti l’intelligenza e la sua capacità di comprensione delle query.

I siti colpiti, quindi, non hanno una strada precisa per riprendere il traffico perso, ma devono lavorare su una miglior risposta alle necessità del visitatore e al search intent.

2018: Medic Core Update, Mobile First Index, Brackets

Il Medic Core Update del 1 agosto è un update qualitativo, che ha scosso le SERP in maniera molto decisa.

Si tratta di un aggiornamento core, che ha riconsiderato molti aspetti nella valutazione.

Con il Mobile First Index del 26 marzo, invece, ha iniziato a scansionare e considerare come versione principale, la sua versione mobile.

Il bot , quindi, prende come riferimento la versione per dispositivi mobili.

Diventa fondamentale avere congruenza nella struttura e nei contenuti delle versioni desktop e mobile dei siti web.

2017: Maccabees, Fred

Maccabees, del 14 dicembre, è un aggiornamento non ufficialmente dichiarato.

Fred, dell’8 marzo, è un altro aggiornamento non confermato, che ha impattato molte SERP, focalizzandosi sul search intent e sulla qualità dei contenuti delle pagine web, e sulla loro effettiva capacità di soddisfare le query di ricerca.

2016: Penguin 4.0

Penguin è il nuovo aggiornamento che permette di combattere lo spam.

Dalla versione 4.0, annunciata il 23 settembre, il suo lavoro è diventato granulare: colpisce le singole pagine invece che interi siti web. Ha inoltre iniziato a ignorare i link cattivi, anzichè penalizzare per essi.

Il 2014 ed il 2015 hanno accolto l’avvento dell’era mobile e della digitalizzazione delle aziende, che oggi sfruttano la local e sono ben ottimizzati per smartphone, per essere visibili nelle aree geografiche in cui operano.

2015: Rankbrain, Panda 4.2, Mobilegeddon

RankBrain, annunciato il 26 ottobre, è l’intelligenza artificiale, è un sistema di autoapprendimento volto a comprendere il search intent delle ricerche nuove, che vengono effettuate per la prima volta.

Panda 4.2 è stato annunciato il giorno 17 luglio. E’ un aggiornamento di Panda, di valutazione della qualità.

Mobilegeddon, del 21 aprile, è l’update con cui inizia a lavorare specificatamente per le ricerche da dispositivi mobili. Tuttavia, i suoi effetti non sono stati eccessivamente significativi.

2014: Pirate 2.0, Penguin 3.0, HTTPS, Pigeon

Pirate 2.0, del 21 ottobre, combatte la diffusione di materiale protetto da copyright.

Con Penguin 3.0, del 17 ottobre, làMDR ha reso questo “everflux”, cioè in continuo rollout. In pratica, d’ora in poi, Penguin è sempre al lavoro per combattere lo spam, e non viene più azionato di tanto in tanto, sporadicamente, come prima.

Il 6 agosto Google annuncia che l’utilizzo del certificato HTTPS ed SSL porta a un leggero vantaggio di ranking sulle SERP.

Pigeon, del 24 luglio, ha impattato la local su Maps.

2013: Hummingbird, Payday Loan, Penguin 2.0

Nel 2013 è nato Hummingbird, in italiano Colibrì: è molto importante, perché ha determinato un miglioramento dell’intelligenza del motore di ricerca.

Tramite Hummingbird, infatti, non si limita più a verificare la presenza delle keyword nelle pagine web, ma cerca di comprenderne il significato.

Facendo un esempio, se cerchiamo “quanti anni ha Obama”, non vedremo in SERP siti che hanno tali parole chiave all’interno del proprio contenuto, ma ci verranno proposti risultati che rispondono alla domanda fatta, indicando l’età richiesta.

Il Payday Loan update, invece, ha colpito e sconvolto le SERP notoriamente piene di spam.

Penguin 2.0, del 22 maggio, è stato invece l’aggiornamento Penguin dell’anno precedente.

2012: Exact Match Domain, Knowledge graph, Penguin, Venice, Above the Fold

Con l’EEM (Exact Match Domain) update, ha fatto pulizia di molti domini a chiave esatta che si posizionavano in SERP nonostante la scarsa qualità.

Il 16 maggio ha iniziato a mostrare in SERP il Knowledge graph, per mostrare in SERP informazioni dettagliate e immediate agli utenti.

Nel 2012 c’è stata una rivoluzione: se prima la popolarità era basata molto sulla quantità di link ricevuti, con il nuovo Penguin, il motore di ricerca ha inizato a valutare la qualità.

Chi riceveva link di scarsa qualità e con anchor text troppo ottimizzate hanno subito delle penalizzazioni drastiche, che ne hanno praticamente azzerato la visibilità e il ranking.

Venice, del 27 febbraio, ha impattato i risultati locali delle SERP.

L’aggiornamento Above the Fold, del 19 gennaio, ha colpito chi presenta eccessive pubblicità nella parte above the fold della pagina, cioè nella parte alta, immediatamente visibile ai visitatori.

2011: Freshness, Schema.org, Panda 2.0, Panda

Il 3 novembre 2011, con Freshness, ampia attenzione è stata data alle notizie, e quindi in particolare a tutti quelli che proponevano informazioni molto aggiornate riguardanti temi in cui la freschezza della notizia è determinante.

Tale aggiornamento screma risultati datati, premiando di conseguenza quelli più attuali. Ovviamente questo, come già detto, solo per ricerche in cui l’elemento della data di aggiornamento è importante.

Il 2 giugno Google, Yahoo e Microsoft annunciano di aver messo a punto un sistema per implementare i dati strutturati e dialogare in maniera chiara, tramite essi, con i motori di ricerca.

Panda 2.0 viene rilasciato il giorno 11 aprile, aggiornamento Panda del 23 febbraio.

Panda (23 febbraio) ha introdotto regole molto più rigide per quel che concerne la qualità.

Con Panda – e ancora oggi le cose funzionano così – si è data attenzione a che presentavano pagine web di scarsa qualità (thin content).

I contenuti di scarsa qualità possono essere dovuti a una scarsità di informazioni presenti, a pubblicità e ads troppo invasive, a duplicazioni interne di contenuti e ad altri fattori qualitativi.

2010: Instant, Caffeine

Con Instant (1 settembre), il motore di ricerca mostra i risultati di rcerca man mano che una query viene digitata.

Caffeine (1 giugno) ha segnato un miglioramento della capacità di indicizzazione e computazionale di Big G.

2008: Suggest

Il 1 agosto 2008 vi fu l’aggiornamento Suggest, che implementò i suggerimenti di ricerca per le parole chiave digitate: un servizio molto interessante, ancora oggi presente.

2007: Universal Search

Il 2007 fu un anno decisivo: un altro aggiornamento, chiamato Universal Search, portò a un arricchimento delle SERP, che iniziavano a mostrare notizie e immagini.

2003: Florida, Cassandra

Florida (1 novembre) ha combattuto siti di scarsa di qualità, che facevano uso di keyword stuffing e altre tecniche di spam. Si tratta di un antenato del moderno Panda.

Con Cassandra (1 aprile), Google fa i primi tentativi di combattere i link di scarsa qualità. E’ il papà del moderno Penguin.

Il Page Rank: Cos’è? Si Usa Ancora?

Per ottenere i risultati desiderati, si serve di continue innovazioni e modifiche, aggiornamenti e novità che vengono continuamente studiati e proposti allo scopo di rendere onore a chi davvero garantiscono i migliori risultati possibili.

Per farlo, si serve di un elemento molto importante, chiamato Page Rank: esso non è altro che uno calcolo attraverso il quale i siti vengono valutati in base alla loro popolarità in rete.

Esso è in grado di determinare l’importanza attraverso l’associazione di un peso numerico ad un collegamento ipertestuale, cioè a un link.

Detto in maniera semplice, più un contenuto viene linkato da altre fonti, più risulta popolare e meritevole di ottenere visibilità. In realtà in questa valutazione rientrano molti altri elementi, che non approfondirò in questo articolo.

Filippo Jatta

About Filippo Jatta

Filippo Jatta è consulente SEO dal 2008. Dottore magistrale in Organizzazione e Sistemi Informativi presso l'Università Luigi Bocconi di Milano.