Google ti voglio bene, però…

Scrivo questo post in veste di webmaster di questo sito, lasciando momentaneamente il mantello dello scrittore. Da anni, ogni volta che devo realizzare un sito, mi scontro con google e le sue pretese. Intendiamoci, è il più grosso motore di ricerca del mondo, ma obbligare i webmaster ad adattarsi alle sue specifiche pena l’esclusione dalle ricerche mi sembra abbastanza pretestuoso. Dovrebbe essere Big G ad adattarsi al web, non il viceversa.

Scrivo questo post solo per raccontarvi quanto sta succedendo al mio sito in termini di indicizzazione. In pratica, vado per cercare Il Golem su google e con mia somma sorpresa non compare la pagina ufficiale. Faccio una ricerca specifica per il mio sito e allora finalmente la vedo.

Allora controllo su Google Webmaster e noto che qualche pagina non è stata ancora indicizzata e ce n’è una addirittura bloccata dai robots. Incuriosito, controllo il mio file robots.txt e non noto niente di sospetto. Controllo se i plugin SEO di wordpress hanno impostato qualche valore strano ma niente, tutto nella norma. Tutte le pagine sono index, tranne le categorie e i tag che secondo me è giusto che non siano indicizzati.

Ma allora qual è il problema? La risposta è semplice: contenuti duplicati. Infatti, alla pagina Romanzi trovate la trama del Golem, così come nella pagina del romanzo stesso. Già in passato mi sono scontrato con questa problematica. Google pensa che lo stesso contenuto sia duplicato tra più pagine, così ne indicizza una sola. Quella sbagliata, per intenderci. Ecco perché Il Golem non compare nelle ricerche, almeno questo è ciò che penso io.

Ho sistemato la meta description mediante l’eccellente SEO Plugin di Yoast e aspetto di vedere che succede. La sitemap viene rigenerata e inviata a google ogni volta che modifico una pagina, quindi google sa che ho apportato questa modifica e sa che deve scansionare la pagina di nuovo. Questo dovrebbe convincere i suoi algoritmi che la pagina non è duplicata. Mi è già successo in passato e sembra che un invio forzato della sitemap con conseguente reindicizzazione delle pagine possa in certi casi risolvere il problema.

Che dire, il problema dei contenuti duplicati rimane. Forse dovrei impedire l’indicizzazione della pagina Romanzi, ma mi sembra una stupidaggine. E tutto perché google “pensa” che io stia facendo il furbo e voglia duplicare i contenuti per apparire più volte nei risultati di ricerca.

Mah, vediamo come va…


Condividi su:

facebooktwittergoogle_plusredditpinterestlinkedintumblrmail

2 Commenti

  1. Alessio Valsecchi

    E secondo te perché io ti ho chiesto una sinossi inedita per la scheda del tuo libro su LaTelaNera.com? :D

    Replica
    1. Gianluca (Autore Post)

      Be’, mi sembra un ottimo motivo ;)

      Replica

Lascio un commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>