In questa guida ti spiego tutto quel che riguarda BERT, il nuovo aggiornamento algoritmico di Google.

Cos’è BERT, Come Funziona e Cosa Significa per la Ricerca?

Google ha affermato che il suo aggiornamento principale più recente per quanto riguarda la ricerca, ovvero l’inclusione dell’algoritmo BERT, lo aiuterà a comprendere meglio l’intento alla base delle query di ricerca degli utenti: chiaramente, questo si dovrebbe tradurre inevitabilmente in risultati più pertinenti.

BERT avrà un impatto sul 10% delle ricerche, ma non solo: infatti, questo si traduce anche in un miglior impatto sulla visibilità e sul traffico organico del sito (e quindi anche del brand o del marchio ad esso connesso) che effettivamente riesce a soddisfare il search intent.

Ma cosa sappiamo, fino ad oggi, in merito a ciò che Google sta promuovendo come uno dei più grandi passi avanti nella storia della ricerca?

Facciamo quindi un passo indietro e cerchiamo di capire di più in merito a questo interessante prodotto: scopriamo cos’è, a cosa serve, come funziona e cosa cambia a livello di ricerca con questo algoritmo.

Quando È Stato Lanciato BERT nella Google Search?

BERT è stato introdotto nel sistema di ricerca di Google la settimana del 21 ottobre 2019 inizialmente per la lingua inglese.

La domanda, a quel punto, è sorta spontanea: quando sarà pronto anche per altre lingue? L’algoritmo si espanderà in tutte le lingue in cui Google ad oggi offre la possibilità di effettuare una ricerca, ma non esiste ancora una sequenza temporale definita: questo è quanto è stato di recente affermato da Danny Sullivan di Google.

Un modello BERT viene anche utilizzato per migliorare i featured snippet  in oltre 20 Paesi.

Cos’è BERT?

L’acronimo BERT (che sta per Bidirectional Encoder Representations from Transformers) indica una innovativa tecnica basata sulla rete neurale e sull’intelligenza artificiale, per l’elaborazione del linguaggio naturale.

In parole povere, questo algoritmo potrebbe essere molto efficace in quanto può essere utilizzato per aiutare Google a discernere meglio il contesto delle parole nelle query di ricerca.

Ad esempio, nelle frasi “nove a cinque” e “un quarto alle cinque”, le due preposizioni che collegano la sequenza di parole (quindi, “a” e “alle”) hanno chiaramente due significati diversi, che possono essere ovvi per l’utente ed il lettore (abituato a distinguere il significato dei termini anche in funzione del contesto) ma meno per i motori di ricerca.

BERT è progettato per distinguere tra tali sfumature e quindi anche per facilitare risultati più pertinenti.

BERT è stato presentato da Google a novembre 2018. Ciò significa che chiunque può utilizzare BERT per addestrare il proprio sistema di elaborazione della lingua per rispondere alle domande o altre attività.

Cos’è una Rete Neurale?

Le reti neurali degli algoritmi sono progettate per il riconoscimento di schemi, per dirla in modo molto semplice.

La categorizzazione del contenuto dell’immagine, il riconoscimento della calligrafia ed anche la previsione delle tendenze nei mercati finanziari sono applicazioni comuni nel mondo reale per le reti neurali.

Esse si allenano su uno stabilito set di dati per riconoscere i modelli e quindi il loro funzionamento può essere molto efficace anche in questo campo, ovvero per il riconoscimento delle parole chiave e dei contesti associati.

Cos’è l’Elaborazione del Linguaggio Naturale?

L’elaborazione del linguaggio naturale (PNL) si riferisce a un ramo dell’intelligenza artificiale che si occupa della linguistica, con l’obiettivo di consentire ai computer di comprendere il modo in cui gli umani comunicano tra di loro, appunto, in maniera naturale.

Esempi di progressi resi possibili dalla PNL includono strumenti di ascolto, chatbot e suggerimenti di parole sullo smartphone.

Di per sé, la PNL non è una nuova funzionalità per i motori di ricerca. Il BERT, tuttavia, rappresenta un progresso nella PNL attraverso la formazione bidirezionale.

Come Funziona BERT?

La svolta di BERT sta nella sua capacità di formare modelli linguistici basati sull’intero insieme di parole in una frase o query (addestramento bidirezionale) piuttosto che sul modo tradizionale di allenamento sulla sequenza ordinata di parole.

Questo algoritmo, quindi, fa molto di più rispetto alle tradizionali modalità di riconoscimento delle query di ricerca da parte di Google e quindi permette al modello linguistico di imparare (e quindi anche riconoscere) il contesto delle parole in base alle parole circostanti anziché solo in funzione della parola che precede o segue immediatamente.

Google considera BERT profondamente bidirezionale perché le rappresentazioni contestuali delle parole iniziano dal punto più basso di una rete neurale profonda.

Prendiamo ad esempio la parola “banca”: se essa viene dissociata da ogni possibile contesto e quindi analizzata in maniera singola e individuale, può avere la stessa rappresentazione priva di uno specifico significato.

I modelli contestuali servono quindi a riconoscere la presenza di eventuali differenze che potrebbero conferire al termine un significato maggiore: nella frase “Ho effettuato l’accesso al conto bancario”, un modello contestuale unidirezionale rappresenterebbe “banca” in base a “Ho effettuato l’accesso al conto”.

Invece, BERT analizza la parola “banca” utilizzando sia il contesto precedente che quello successivo: questo è un esempio di un approccio totalmente diverso da quello a cui siamo abituati, e quindi bidirezionale.

Google ha mostrato diversi esempi di come l’applicazione di BERT nella ricerca può influire sui risultati che cambiano proprio grazie al suo utilizzo (e contestualizzano meglio le ricerche).

Google Utilizza BERT per Dare un Senso a Tutte le Ricerche?

Ci si domanderà a questo punto se l’uso di questo algoritmo può essere efficace e funzionale per tutte le ricerche.

No, non esattamente. BERT migliorerà la comprensione di Google di circa una ricerca su 10 in inglese negli Stati Uniti.

E saranno soprattutto le query più lunghe e più conversazionali (o ancora le ricerche in cui sono presenti delle preposizioni) a far capire meglio quanto sia importante e utile l’utilizzo di questo algoritmo: infatti, grazie ad esso sarà possibile comprendere il contesto delle parole e quindi offrire risultati tendenzialmente migliori.

Così è stato scritto proprio in un post di Google.

Tuttavia, non tutte le query sono conversazionali includono preposizioni. Ricerche che riguardano brand o marchi e frasi più brevi sono solo due esempi di tipi di query che potrebbero non richiedere l’elaborazione del linguaggio naturale di BERT.

In che Modo BERT Ha un Impatto sui Featured Snippet?

Come abbiamo visto nell’esempio sopra, BERT può influire sui risultati che compaiono negli snippet in primo piano quando viene applicato.

In un altro esempio di seguito, Google confronta gli snippet in primo piano per la query “parcheggio su una collina senza marciapiede“, e spiega le differenze tra passato e presente, ovvero tra come un tempo le ricerche sarebbero state viste e come, invece, esse vengono analizzate oggi.

Un tempo, questa query avrebbe confuso i sistemi di Google perché sarebbe stata data troppa importanza alla parola “marciapiede” e sarebbe stata invece ignorata la parola “senza”, non capendo quanto fosse cruciale capire il significato di quella parola per rispondere adeguatamente a questa domanda.

Quindi avremmo restituito i risultati per il “parcheggio su una collina con un marciapiede “: esattamente il contrario rispetto a quanto l’utente aveva chiesto.

Qual È la Differenza tra BERT e RankBrain?

Alcune delle funzionalità di BERT potrebbero sembrare simili al primo metodo di intelligenza artificiale di Google per comprendere le query, RankBrain.

Tuttavia, sono due algoritmi separati che possono essere utilizzati per fornire maggiori informazioni e quindi ottenere migliori risultati della ricerca.

Quali sono, quindi, le differenze? La prima cosa da capire su RankBrain è che questo algoritmo funziona in parallelo con i normali algoritmi di classificazione delle ricerche organiche e viene utilizzato per apportare modifiche ai risultati calcolati da tali algoritmi: questo è quanto ha affermato Eric Enge, direttore generale di Perficient Digital.

RankBrain regola i risultati osservando la query corrente e trovando query simili già cercate in passato. Quindi, esamina le prestazioni dei risultati della ricerca per quelle query storiche.

RankBrain aiuta anche Google a interpretare le query di ricerca in modo che vengano mostrati risultati che potrebbero non contenere le parole esatte nella query.

Ad esempio, Google è stato in grado di capire che l’utente stava cercando informazioni sulla Torre Eiffel, nonostante il nome della torre non comparisse nella query di ricerca “altezza del simbolo di Parigi”.

È importante stabilire una differenza con BERT perché questo algoritmo opera in modo completamente diverso rispetto al precedente.

Secondo quanto è stato dichiarato dallo stesso Enge, gli algoritmi NLP provano a esaminare il contenuto di una pagina per capire di cosa si tratta e a cosa potrebbe essere pertinente, ma sono per lo più in grado di guardare i contenuti di una parola in maniera singolare (analizzando ciò che c’è prima e ciò che c’è dopo quella parola in maniera lineare), e quindi cercando di utilizzare anche il contesto in cui essa si trova per studiarne il significato (e riportare risultati pertinenti).

La componente bidirezionale di BERT è ciò che lo rende diverso perché, appunto, esso esamina il contenuto presente prima e dopo una parola per informare circa il suo significato e quindi la pertinenza di quella stessa parola: si tratta pertanto di un miglioramento molto importante per quel che riguarda l’elaborazione del linguaggio naturale poiché la comunicazione umana è naturalmente stratificata e complessa.

Sia BERT che RankBrain sono utilizzati da Google per elaborare query e contenuti delle pagine web per comprendere meglio il significato delle parole.

Quali Altri Prodotti di Google Potrebbero Influenzare BERT?

L’annuncio di Google per BERT riguarda solo la ricerca, tuttavia avrà un impatto anche sull’Assistente.

Quando le query condotte su Google Assistant lo attivano per fornire snippet in primo piano o risultati web dalla ricerca, tali risultati potrebbero essere influenzati da BERT.

Google ha detto a Search Engine Land che BERT non è attualmente utilizzato per gli annunci di Google Ads, ma qualora esso dovesse essere integrato in futuro, potrebbe aiutare ad alleviare alcune delle varianti simili che affliggono gli inserzionisti.

Come Posso Ottimizzare per BERT?

Secondo quanto è stato dichiarato da Sullivan, non esiste alcun modo per ottimizzare BERT semplicemente perché questo non è il metodo giusto per approcciarsi ad esso.

Il consiglio di Google per posizionarsi bene è stato costantemente quello di tenere a mente l’utente e creare contenuti che soddisfino le sue intenzioni di ricerca.

Poiché BERT è progettato per interpretare tale intento, ha senso il fatto che dare all’utente ciò che desidera continua a essere il consiglio di riferimento di Google.

“Ottimizzare” , in quest’ottica, vale semplicemente a dire che puoi concentrarti maggiormente sulla scrittura chiara e corretta, invece di scendere a compromessi tra la creazione di contenuti per il tuo pubblico e la costruzione del fraseggio lineare per i computer.

BERT non è stato creato per sostituire RankBrain ma per affiancarlo e per arricchire i metodi di comprensione di una query (e quindi di restituzione di un significato).

Google può utilizzare più metodi per comprendere una query, il che significa che BERT potrebbe essere applicato da solo, insieme ad altri algoritmi di Google, insieme a RankBrain, in combinazione o meno, a seconda del termine di ricerca.

4 VIDEO+PDF: Scopri il Mio Metodo di Posizionamento SEO su Google Semplice, Passo Passo e Pratico, per TUTTI i Siti Web


CLICCA QUI E ACCEDI SUBITO AI VIDEO

Contattami ora!

Puoi contattarmi compilando il form qui sotto per avere informazioni sui miei servizi SEO, oppure manda un messaggio WhatsApp al n. 348 09 06 338

Acconsento al trattamento dei miei dati personali secondo l'Informativa Privacy

Maria Pia Fracchiolla

About Maria Pia Fracchiolla

Maria Pia Fracchiolla è una web writer. Scrive e parla troppo (in quattro lingue diverse, tra queste il giapponese). Custodisce e sostiene una cura maniacale per le fonti, le migliori possibilmente. Prima di iniziare l’attività professionale di scrittura ha conseguito la maturità classica e studiato inglese, tedesco e spagnolo presso la Facoltà di Lingue e Letterature Straniere dell’Università Aldo Moro di Bari, dove si è laureata. Maria Pia scrive per blog, siti e social. Ama la cultura in genere, soprattutto nelle sue declinazioni artistiche, musicali, letterarie e antropologiche, senza disdegnare il piglio “cool&smart” delle tendenze attuali.