Proponi il tuo progetto, clicca qui

Google-Search-Console-errori-di-indicizzazione

Google Search Console è lo strumento che aiuta a scoprire come un sito internet appare nei risultati di ricerca. Per il successo di un sito o di una attività digitale, monitorare la sua presenza online è fondamentale. Affinché un sito venga indicizzato da Google, occorre che risponda a precisi parametri e requisiti, tecnici e di contenuto.
Se un sito presenta errori di vario tipo, l’algoritmo di Google lo penalizza non indicizzandolo.
Scoprire se Google ha già eseguito il crawling e l’indicizzazione è semplice. Devi solo inserire nella barra di ricerca la seguente dicitura: “site:tuodominio.com”. Dopo aver dato l’invio, avrai un elenco di risultati contenenti solo pagine presenti nel tuo sito. Se invece scopri che il tuo sito ancora non è stato indicizzato, potresti aspettare ancora qualche giorno, oppure insospettirti circa la presenza di alcuni errori di indicizzazione.
Grazie ad una auditi accurata di un sito internet è possibile sapere quali sono le eventuali criticità da risolvere.
Vediamo insieme quali sono i 9 errori di indicizzazione più comuni.

1. Errori 404 (Pagina non trovata)

Partiamo dal caso più comune: gli errori 404, che si verificano quando una pagina non viene trovata durante l’indicizzazione. Le cause possono essere varie: la pagina può non essere disponibile, oppure essere stata spostata o rimossa dal sito. Spesso, poi, l’errore 404 page not found può essere provocato da un banale errore di digitazione dell’URL nel browser.

errori-indicizzazione-error-404

Spesso gli errori 404 si risolvono con un intervento di reindirizzamento della/e pagina/e.

2. Errore del server (5xx)

Un altro errore di indicizzazione piuttosto comune è il codice di errore 5xx. Si tratta di una risposta piuttosto generica che i server inviano per indicare che qualcosa non si comporta come dovrebbe. Tale problema potrebbe essere avvenuto in fase di invio di richieste di risorse da parte dei server. Ma spesso si tratta anche di problemi di cookie o cache corrotti o divenuti ormai obsoleti.

3. Errori di Sitemap

Le sitemap sono file XML dove vengono elencate tutte le pagine di un sito, assieme alla loro gerarchia di link, più altri file presenti sul sito (come immagini e video). Le sitemap sono pensate per i web crawler. Per questi, infatti, le sitemap sono uno strumento utile affinché tutto venga indicizzato e per avere aggiornamenti su un contenuto nuovo o modificato.
Di per sé, le sitemap non garantiscono l’indicizzazione di tutte le pagine, ma sono utili per facilitare il processo di indicizzazione. Di conseguenza, errori di sitemap non aiutano i crawler ad indicizzare un sito.
Uno degli errori più comuni relativi alle sitemap riguarda l’invio accidentale di una pagina HTML anziché di un file XML. Quando una sitemap viene memorizzata nella cache, potrebbe creare un conflitto per Google che la legge come una pagina HTML.

4. Problemi di accesso a robots.txt

Il file robots.txt è un file di testo codificato utilizzando caratteri UTF-8, salvati nella directory principale, contenente le direttive d’accesso, o di restrizione, al tuo sito. Difatti, in pratica, i file robots.txt istruiscono i motori di ricerca su come devono leggere le informazioni di un sito.
Un file robots.txt configurato in maniera errata può generare un problema di indicizzazione del sito, in quanto potrebbe contenere una stringa di codice che non consente a spider e bot l’esecuzione della scansione di una specifica pagina che invece si desidera appaia all’interno dei risultati di ricerca.
Impedire ai bot di Google di scansionare una o più pagine di un sito può essere una libera scelta del proprietario del sito stesso. Ma se così non fosse, allora l’anomalia va risolta, andando a modificare il file rimuovendo le restrizioni in esso contenute.
Purtroppo, è facile commettere errori nella creazione file robots, basta infatti un banale errore di formattazione! Per questo è molto importante fare una analisi accurata del proprio sito per verificarne eventuali anomalie che non permettano la sua indicizzazione.

Scopri di più sui file robot.txt nel nostro approfondimento dedicato

5. Tag Title e description duplicati o mancanti

Il tag title è un pezzo di codice HTML che indica il titolo di una pagina web. Oltre ad essere un fattore di ranking, si tratta anche di un elemento molto importante in quanto è il primo richiamo ad un sito o ad una pagina web. È infatti il titolo che appare nei risultati dei motori di ricerca, nelle schede del browser ed anche nei post dei social media.
Un buon title tag deve rientrare in max 60 caratteri. Ogni pagina deve avere un title tag univoco per orientare le ricerche e i crawler.

google-search-console-errori-indicizzazione

La meta description è un breve sommario che descrive la pagina e che contenga anche una call to action per indurre l’utente ad approfondire il tema aprendo la pagina del sito. Di media, la lunghezza massima ideale per la metadescription è di 150 caratteri. La metadescription non è un fattore essenziale per il posizionamento ma è un valore aggiunto nei contenuti dell’annuncio visualizzato in SERP.
Oltre ad essere un errore di indicizzazione, non inserire tag title e metadescription dà la possibilità a Google di crearli in autonomia e in totale libertà, ad esempio estrapolando una parte di contenuto qualsiasi dalle pagine.
Tag title e metadescription devono quindi sempre essere presenti e non devono essere troppo lunghi (è importante mantenersi entro il numero di caratteri consigliati).
Inoltre, Tag title e metadescription devono essere unici ed univoci per ogni pagina. Mai duplicarli!

6. Problemi di Sicurezza

Nel mondo del web, la sicurezza è un parametro di basilare importanza. Un sito internet deve infatti essere sempre aggiornato con le ultime misure di sicurezza e avere tutti i certificati di sicurezza validi.
La vulnerabilità di sicurezza, a causa ad esempio di certificati SSL scaduti, può danneggiare la valutazione del sito da parte dei motori di ricerca così come anche la fiducia degli utenti.
I principali motivi per cui un motore di ricerca può decidere di nascondere alcune pagine o un certo sito dai risultati di ricerca sono:

  • pagine che contengono spam
  • certificati SSL scaduti
  • contenuti compromessi
  • phishing
  • malware e altri software indesiderati
  • motivi legali
  • violazione di norme di Google

7. Problemi sulla Velocità del Sito

La velocità di caricamento di un sito è un parametro fondamentale per la fruibilità da parte dell’utente, ed è anche un fattore di posizionamento molto importante, influenzato dal server e anche dalle prestazioni della pagina. Per velocizzare il caricamento di un sito, occorre ottimizzare l’HTML mantenendo le dimensioni della pagina al minimo, riducendo script e fogli di stili.

google-search-console-audit-sito

Di solito, le immagini hanno un peso notevole all’interno di una pagina. Anzitutto, è bene chiedersi se sono effettivamente un contenuto essenziale e davvero importante da inserire nella pagina. Una volta appurato ciò, è essenziale ottimizzarle al fine di aumentare la velocità di caricamento. L’ideale sarebbe ridimensionare le immagini pur mantenendone un livello di qualità buona. A tal fine, vanno presi in considerazione vari fattori, come la qualità dell’immagine, il formato, la risoluzione, etc…
Poiché, oggigiorno, sempre più utenti accedono a internet tramite dispositivi mobili piuttosto che da PC, è importante anche configurare l’area di visualizzazione e scalare le immagini per vari tipi di schermi.

8. Errori nei Dati Strutturati

I dati strutturati sono un formato standardizzato che offre informazioni relative ad una pagina e ne classifica il tipo di contenuto. Sono fondamentali per migliorare la visibilità online, aumentare la comprensione dei contenuti da parte dei motori di ricerca e migliorare l’esperienza dell’utente.
Tuttavia, uno dei 9 errori di indicizzazione più comuni riguarda proprio i dati strutturati. Infatti, la creazione di dati strutturati, può comportare errori.
I principali errori rilevati da Google Search Console relativamente ai dati strutturati riguardano:

  • inserimento di un URL errato all’interno del dato strutturato (es. dimenticanza degli slash)
  • refusi
  • errori di spelling
  • utilizzo di formati non validi
  • impossibilità di accedere al dato strutturato da parte di Google perché lo stesso è stato disindicizzato tramite un tag noindex o robots.txt
  • implementazione errata del dato

Ti potrebbe essere utile leggere il nostro approfondimento sui dati strutturati

9. Tag Canonical problematici

Il Tag Canonical è una parte di codice sorgente, integrata in una pagina web, che va ad indicare al Crawler la versione “originale”, detta anche “pagina canonica”. In pratica, quindi, il Tag Canonical avvisa che una certa pagina non è una copia. Di conseguenza, il crawler sa che deve posizionare nelle pagine dei risultati solo l’URL “originale” ed ignorare eventuali duplicati.

errori-indicizzazione-seo

A livello SEO, dunque, i Canonical Tag giocano un ruolo fondamentale in quanto diminuiscono il rischio di contenuti duplicati.
I Canonical Tag sono molto utili in tutti quei casi in cui c’è il forte rischio di contenuti duplicati derivati, come ad esempio nel caso degli Ecommerce. Ecco i casi più comuni:

  • URL che possono essere scritti in maniere diverse ma che arrivano ai medesimi contenuti
  • opzioni di filtri negli E-commerce che creano URL differenti
  • identici contenuti raggiungibili tramite le versioni http e https del sito
  • contenuti simili pubblicati su siti diversi
  • pagine che passano a diverse categorie
  • siti con versione mobile indipendente da quella desktop
  • pagine in versioni stampabili che creano problemi di contenuti duplicati

Affronta le sfide su Google Search Console con l’esperienza di Unidevs

Vuoi capire perché il tuo sito e-commerce non sta vendendo come ti aspettavi? Ti sei reso conto che il tuo sito non è indicizzato?
L’agenzia Unidevs è a disposizione per analizzare il tuo sito!
Siamo un team di professionisti che da anni si occupa di sviluppo web e strategie di marketing digitale. Da diversi anni, offriamo inoltre un servizio di analisi di siti web ed audit professionali. I nostri esperti di web marketing sapranno analizzare profondamente il tuo sito e fornirti un report completo. Grazie alla nostra consulenza, potrai quindi conoscere quali sono i limiti del tuo sito e , se vorrai, potremo suggerirti gli interventi utili per massimizzarne i risultati.

Vuoi farci analizzare il tuo sito o il tuo E-commerce?
Compila il format che trovi qui di seguito. Ti contatteremo al più presto.

    Richiesta informazioni o preventivo

    * Campi obbligatori durante la compilazione


    Truccone Davide

    Sono Davide Truccone Imprenditore e Project Manager di Unidevs.
    La nostra agenzia nasce da un'idea ambiziosa, innovativa, fornire assistenza a 360° gradi alle piccole imprese italiane che hanno bisogno di figure estremamente qualificate.

    https://www.unidevs.it/

    Lascia un commento

    Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *