Vuoi far indicizzare il tuo sito web sui motori di ricerca come Google, Bing, Yahoo e gli altri? In questa guida ti mostrerò come fare.

Cos’è l’indicizzazione sui motori di ricerca? L’indicizzazione è il processo tramite il quale i motori di ricerca inseriscono le pagine del sito web nel loro database. Dopo averle indicizzate, i motori di ricerca poi le valutano per proporle come risultato quando un utente effettua una ricerca.

Quindi è bene far subito una distinzione: l’indicizzazione si riferisce al semplice fatto che il motori di ricerca inserisce le pagine web nel database.

L’attività con cui tali pagine web vengono portate in prima pagina per le parole chiave desiderate, si chiama invece posizionamento.

Se sei interessato all’indicizzazione, continua a leggere. Se, invece, vuoi portare il tuo sito web in prima pagina sui motori di ricerca, leggi questa guida: posizionamento motori di ricerca.

Ho creato 4 video gratuiti in cui ti spiego il mio esatto metodo per posizionare su Google il tuo sito con la SEO, per permetterti di ottenere i miei stessi risultati.

Scaricali gratuitamente cliccando sul pulsante sotto il video, e inizia questo percorso con me. Altrimenti, continua la lettura dell’articolo più in basso.

4 VIDEO+PDF: Scopri il Mio Metodo di Posizionamento su Google Semplice, Passo Passo e Pratico, per TUTTI i Siti Web


CLICCA QUI E ACCEDI AI VIDEO GRATIS

 

Come Funzionano i Motori di Ricerca: Scansione, Indicizzazione, Posizionamento

Iniziamo con lo spiegare come funzionano i motori di ricerca. Questo discorso è valido anche per spiegare come funziona Google.

I motori di ricerca esistono per scoprire, comprendere e proporre i contenuti migliori che trovano sul web, per le varie ricerche che gli utenti compiono.

Per apparire nei risultati di ricerca, il tuo contenuto deve essere prima di tutto visibile e scansionabile dai motori: se il tuo sito non può essere trovato, non c'è modo di essere presente nelle SERP (Search Engine Results Page, cioè le pagine dei risultati).

I motori di ricerca lavorano in 3 fasi principali:

  • Scansione o crawling: perlustrano internet alla ricerca di contenuti e pagine web;
  • Indicizzazione: memorizzano il contenuto trovato durante il processo di scansione. Una volta che una pagina è nell'indice;
  • Posizionamento o ranking: scelgono dal loro database le pagine web migliori per le varie keyword e le posizionano, dando loro visibilità e traffico.

Fase di Scansione o Crawling

Il crawling, o scansione, è il processo di scoperta in cui i motori di ricerca inviano i loro crawler per trovare contenuti nuovi e rileggere le pagine già indicizzate.

I crawler, come Googlebot e Bingbot, seguono i link presenti nel web per trovare i nuovi contenuti da leggere.

Passando di link in link, i crawler trovano nuovi contenuti e li leggono.

E’ possibile bloccare la scansione delle pagine web con il disavow, un comando da inserire nel file robots.txt del sito web (nota: i contenuti bloccati alla scansione possono talvolta comuqnue essere indicizzati).

Come Far Scansionare un Sito Web: il File Robots.txt

Per aiutare Googlebot, Bingbot e gli altri crawler nella fase di scansione, puoi sfruttare il file robots.txt e i suoi comandi di allow e disavow.

Tramite la direttiva allow, lascerai che i crawler leggano le risorse desiderate; con il comando disavow, invece, ne bloccherai la scansione.

Se i crawler non riescono a trovare un file robots.txt per un sito, procedono alla scansione del sito, mentre se trovano un file robots.txt, si atterranno alle direttive di scansione.

Ottimizzare per il budget di scansione!

Il crawl budget è la quantità di tempo e risorse che i motori di ricerca mettono a disposizione di ciscun sito per la scansione.

Se hai contenuti ce non vuoi far indicizzare, salva crawl budget bloccando la scansione tramite la direttiva disavow del file robots.txt.

L’ottimizzazione del budget di scansione assicura che Googlebot e gli altri spider (o crawler) non sprechino tempo e risorse a scansionare pagine che non ti interessano (ad esempio le URL con parametri che vengono creati con i filtri degli e-commerce).

In tal modo non correrai il rischio che il crawl budget non risulti insufficiente per scansionare le pagine di valore.

Il problema del crawl budget è rilevante per siti molto grandi, mentre se hai un sito di medie o piccole dimensioni è meno importante, in quanto Google avrà comunque risorse sufficienti per scansionare tutto (a meno che non ci siano disastri tecnici, come centinaia di migliaia di pagine generate automaticamente da qualche funzione del CMS).

Fase di Indicizzazione sui Motori di Ricerca

I motori di ricerca leggono i contenuti e li memorizzano nel loro indice, o database.

Non indicizzano tutti i contenuti: alcuni contenuti non vengono indicizzati perché non sono riusciti a trovarli, mentre altri non vengono indicizzati per problemi tecnici (un uso errato della direttiva noindex all’interno delle pagine) o per problemi di qualità (thin content, cioè contenuti inutili di scarsa qualità).

Si può bloccare l’indicizzazione delle pagine web tramite il tag noindex all’interno del codice HTML.

Qui trovi la guida all’indicizzazione su Google e all'indicizzazione SEO.

Se hai già un sito web, potrebbe essere una buona idea iniziare a vedere quante delle tue pagine siano nell'indice.

In questo modo otterrai ottime informazioni sul fatto che i motori di ricerca stiano eseguendo il crawling e l’indicizzazione.

Un modo per controllare le pagine indicizzate è "site:nomesito.com", un operatore di ricerca avanzata.

Va su Google e digita "site:nomesito.com" nella barra di ricerca.

Il numero di risultati che Google visualizza non è esatto, ma ti dà una idea concreta di quali pagine del tuo sito sono indicizzate.

Per ottenere risultati più accurati, utilizza il rapporto di copertura dell'indice nella Search Console di Google,

Se non sei presente da nessuna parte nei risultati di ricerca, ci sono alcune possibili ragioni:

  • Il tuo sito è nuovo di zecca e non è ancora stato scansionato;
  • Le pagine non indicizzate sono orfane, cioè non ricevono nessun link né internamente al sito, né esternamente, né dalla sitemap XML;
  • Stai facendo un uso errato del tag noindex:
  • La navigazione del tuo sito rende è difficoltosa per i crawler;
  • Il tuo sito è stato penalizzato da Google per spam o contenuti di scarsa qualità.

In base al motivo vanno effettuate le corrette attività, al fine di ottenere l’indicizzazione desiderata.

Più nello specifico, per la prima tipologia di problema è sufficiente attendere un po’, e magari segnalare il sito su Google in Search Console e integrandovi la sitemap XML.

Per il secondo tipo, basta creare qualche link verso la pagina da fare indicizzare; per il terzo tipo basta rimuovere i tag noindex.

Per il quarto e quinto tipo, invece, la risoluzione è più complessa e va affidata a un consulente SEO specialist esperto.

Fase di Posizionamento sui Motori di Ricerca

Ok, risolti questi eventuali problemi, a questo punto i contenuti sono stati indicizzati, è avvenuta la registrazione, e sei pronto per fare promozione sui motori di ricerca.

Quando un utente effettua una ricerca, i motori di ricerca mostrano le pagine web all’interno dell’indice come risultati della ricerca nelle SERP, ordinandoli per rilevanza e capacità di soddisfare l’intento di ricerca.

Questo ordinamento dei risultati di ricerca per rilevanza è noto come posizionamento o ranking.

Come Migliorare l'Indicizzazione del Sito Web sui Motori di Ricerca

A volte un motore di ricerca sarà in grado di trovare parti del tuo sito eseguendo la scansione, ma altre pagine o sezioni potrebbero essere oscurate per qualche motivo.

È importante assicurarsi che i motori di ricerca siano in grado di scoprire tutti i contenuti che si desidera indicizzare, e non solo la propria homepage.

Ecco alcune problematiche comuni che impediscono una corretta indicizzazione, e le rispettive soluzioni.

Pagine con Contenuto Protetto

Se richiedi agli utenti di effettuare il login, compilare moduli o rispondere a sondaggi prima di accedere a determinati contenuti, i motori di ricerca non vedranno quelle pagine protette.

Se vuoi indicizzare il contenuti sui motori di ricerca, rendilo immediatamente disponibile nella pagina.

Navigazione Ottimizzata

Proprio come un crawler ha bisogno di scoprire il tuo sito tramite link da altri siti, ha bisogno di un percorso di link sul tuo sito, per essere guidato in maniera ordinata da pagina a pagina. E' per questo che è fondamentale l'ottimizzazione per i motori di ricerca.

Molti siti fanno l'errore critico di strutturare la loro navigazione in modi che sono inaccessibili o difficoltosi per i motori di ricerca, ostacolando la loro capacità di scansione e successiva indicizzazione.

Ad esempio, due errori della struttura di navigazione sono:

  • Qualsiasi tipo di navigazione in cui le voci di menu non sono in HTML, come le navigazioni abilitate a JavaScript. Google ha ottenuto risultati migliori nel crawling e nella comprensione di Javascript, ma non è ancora un processo perfetto. Il modo più sicuro per assicurarsi che qualcosa venga trovato, compreso e indicizzato da Google è usare il linguaggio HTML;
  • Personalizzazione continua, in base alle caratteristiche dello specifico utente, di menu e link di navigazione interni.

Sitemap XML

Una sitemap XML è un elenco di URL del tuo sito che i crawler possono utilizzare per scoprire e indicizzare le pagone.

Uno dei modi più semplici per garantire che Google trovi le pagine con la massima facilità è creare un file che soddisfi gli standard di Google e collegarlo con la Google Search Console.

Anche se l'invio di una mappa del sito non sostituisce la necessità di una buona navigazione del sito, aiuta certamente i crawler a trovare le pagine desiderate.

Non includere nella sitemap XML URL che non vuoi far indicizzare, come le pagine duplicate, le pagine parametrizzate, quelle in noindex, quelle bloccate alla scansione e così via.

Errori del Server

Durante il processo di scansione delle URL di un sito internet, i crawler dei motori di ricerca può incorrere in errori.

Puoi andare al rapporto "Errori di scansione" di Google Search Console per rilevare le URL che danno problemi al Googlebot.

Ecco i principali problemi cui si può incorrere.

Codici 4xx

I codici 4xx, ad esempio i famosi 404, vengono mostrati quando i crawler dei motori di ricerca non possono accedere al contenuto a causa di un errore del client.

4xx errori sono errori del client, nel senso che l'URL richiesta contiene una cattiva sintassi o non viene trovata online.

Uno degli errori 4xx più comuni è l'errore "404 - non trovato". Questi potrebbero verificarsi a causa di un errore di battitura dell'URL, pagina cancellate, reindirizzamenti interrotti, o link interni rotti, solo per citare alcuni esempi.

Codici 5xx

Quando i crawler dei motori di ricerca non possono accedere ai contenuti a causa di un errore del server viene mostrato un errore 5xx.

Gli errori 5xx sono errori del server, il che significa che il server su cui si trova la pagina web non è riuscito a soddisfare la richiesta di accesso alla pagina da parte del motore di ricerca.

Nel rapporto "Crawl Error" di Google Search Console, c'è una scheda dedicata a questi errori.

Questi tipicamente accadono perché la richiesta dell'URL è scaduta, quindi Googlebot ha abbandonato la richiesta.

Catene di Reindirizzamento

Può essere difficile per Googlebot, Bingbot e gli altri crawler, raggiungere la tua pagina se deve passare attraverso più reindirizzamenti.

I reindirizzamenti multipli, o "catene di reindirizzamento", sono da evitare. Fanno fare un lavoro inutile ai crawler, e possono mettere a repentaglio la corretta indicizzazione del sito web.

Nofollow

Se una URL riceve solo link nofollow, sia internamente dallo stesso sito che esternamente da altri siti, i motori di ricerca potrebbero seguire l'indicazione e non serguire tali link.

Se quindi la URL non compare neanche nella itemap XML e non viene segnalata manualmente, potrebbe non essere trovata e non venire indicizzata.

I Motori di Ricerca Possono Rimuovere le Pagine dall'Indice

Sì, le pagine possono essere rimosse dagli indici dei motori di ricerca. Anche se alcuni contenuti sono state scansionati, indicizzati e sono addirittura primi sui motori di ricerca, possono sempre essere successivamente deindicizzati.

Alcune delle ragioni principali per cui un URL può essere rimosso sono:

  • L'URL restituisce un errore "non trovato" (4XX) o un errore del server (5XX) per molto tempo. Questo potrebbe essere accidentale (la pagina è stata spostata e non è stato impostato un redirect 301) o intenzionale (la pagina è stata cancellata ma non rimossa dall'indice);
  • L'URL ha un meta tag noindex: questo tag può essere aggiunto dai proprietari del sito per indicare al motore di ricerca di omettere la pagina dal suo indice; la pagina continuerà a essere scansionata, ma non sarà indicizzata;
  • L'URL è stato manualmente o algoritmicamente penalizzata per aver violato le linee guida dei motori di ricerca e, di conseguenza, è stata rimossa dagli indici;
  • L'URL è stata bloccata alla scansione con un disallow nel file robot.txt. Come detto, in realtà questa direttiva blocca la scansione ma non l'indicizzazione, quindi le pagine in questione potrebbero essere indicizzate.

Se ritieni che una pagina del tuo sito web che in precedenza era nell'indice di Google non viene più visualizzata, puoi utilizzare lo strumento di ispezione delle URL in Search console per conoscere lo stato della pagina, e poi richiedere una nuova indicizzazione.

Cosa Dicono di Me?

Ecco qualcuno dei miei progetti e i risultati ottenuti.

Professionista serio ed onesto, preciso nel suo lavoro e determinato a superare gli obbiettivi preposti..svolto un lavoro di SEO solido e ben studiato per il posizionamento del sito della mia azienda arrivato a raggiungere nei tempi prefissati le prime posizioni.

Luca ArmeniseProprietario Autolavaggio Armenise di Bari

Il mio sito web non riceveva traffico, e non portava alcun nuovo cliente. Ho scelto di affidarmi a Filippo e, grazie a lui e alla sua esperienza come specialista SEO ho ottenuto risultati importanti in pochi mesi, raggiungendo la prima pagina su Google, nuovi contatti e nuovi clienti.

Alessandro VaccaDentistabari.org, Odontoiatra

Professionale e disponibile, con totale disponibilità nei miei confronti. Punta ad avere risultati il prima possibile, così che l’investimento fatto venga subito ripagato. Gli obbiettivi prefissati sono stati raggiunti entro pochi mesi, con totale soddisfazione.

Fulvio TonelliniE-commerce Cover Iphone

Tre cose ci hanno colpito di Filippoi: l'onestà, la preparazione e la precisione. Possiamo affermare che Filippo è veramente PREPARATO. Il suo lavoro è certosino e attentamente studiato. Motiva e spiega tutto. Risponde alle email ed è preciso nei report e nei tempi.

Alessandra VirgiliWellvitOnline.com, Responsabile Redazione

Sono felice di collaborare con Filippo. Filippo è molto preparato e appassionato del suo lavoro che svolge con precisione e serietà. Abbiamo raggiunto i risultati in poco tempo. Lo ringrazio per la disponibilità, pazienza e competenza.

Domenico DrovettiMetodoVegalcalino.com, Esperto di Nutrizione

Ritengo soddisfacente il rapporto lavorativo e umano. Al momento gli obiettivi concordati sono raggiunti o pressoché prossimi. Sei anche scrupoloso e rompicazzo come me nel mio lavoro; sono sinceramente felice di questa nostra collaborazione.

Enrico MeleInAttraction.com, Coach di Seduzione

We are very happy with Filippo's work, he is very professional. Thanks to his seo work, he have been able to improve our ranking from not appearing in the 8 first pages of Google to the 3rd position in several keywords

IsmaelSpeaking at home, Corsi di inglese

Grazie Filippo! Per la grande visibilità che mi ha garantito. Fa quanto dice, mi ha fatto risparmiare tempo e frustrazione, e i miei guadagni sono aumentati... di molto! Oltre ad essere un professionista è una brava persona e questo... non ha prezzo!

Agostini RiccardoAgostiniRiccardo.com, Public Speaking Coach

Filippo si è mostrato da subito disponibile a fornire spiegazioni esaustive e dettagliate circa il suo intervento ed i risultati ottenuti. Questo denota serietà e desiderio di trasparenza; qualità che personalmente reputo essenziali.

Giulio BorlaStudioLeVele.net, Psicologo Psicoterapeuta

Filippo, ottima persona piacevole e disponibile, ha portato ottimi risultati e adesso la collaborazione continua ormai da più di un anno e continuerà sempre.
Per noi Filippo è il miglior SEO che abbiamo trovato! Grazie.

Riccardo NavarraSanteNaturels.it, proprietario e-commerce

Ringrazio sinceramente Filippo Jatta perchè da quando ci siamo affidati a lui il nostro sito è ben indicizzato ed è molto visibile. Di conseguenza le vendite sono aumentate... Un genio

Maria MarraSindyBomboniere.it, Proprietaria E-Commerce

Contattami ora!

Puoi contattarmi compilando il form qui sotto per avere informazioni sui miei servizi SEO, oppure manda un messaggio WhatsApp al n. 348 09 06 338

Acconsento al trattamento dei miei dati personali secondo l'Informativa Privacy

Filippo Jatta

About Filippo Jatta

Filippo Jatta è consulente SEO per liberi professionisti e imprenditori. Dottore magistrale in Organizzazione e Sistemi Informativi presso l'Università Luigi Bocconi di Milano, dal 2008 è SEO specialist. Aumenta traffico e visibilità online di blog, e-commerce e portali, posizionando siti web su Google. Offre servizi di posizionamento sui motori di ricerca e corsi SEO, sia base che avanzati.