L'URL Rewriting, come giustamente scrive Davide aka Tagliaerbe sul suo blog, è una procedura che ha lo scopo di riscrivere il percorso di un indirizzo di una pagina web rimuovendo i parametri passati in querystring.
Normalmente si semplifica affermando che il risultato finale è la trasformazione di un URL dinamico, caratterizzato da parametri come pagina.php?id=37&val=valore
, in uno statico, caratterizzato da percorsi in cartelle e file, come pagina/id_37/valore.htm
.
Le pagine con parametri, attenzione non le pagine dinamiche!, sono da sempre soggette a critiche sulla corretta indicizzazione poiché i parametri passati in querystring potrebbero confondere un motore di ricerca. (*)
(*) Per i più curiosi rimando ad un approfondimento prossimamente.
Per questo motivo (principalmente), l'URL rewriting è sempre stato consigliato per migliorare le performance sui motori di ricerca e per evitare all'origine possibili problemi d'indicizzazione. Ma cosa è successo qualche giorno fa?
Dovete sapere che nelle linee guida di Google dedicate ai webmaster era presente una indicazione che sconsigliava ufficialmente l'uso di parametri in querystring, "costringendo" i webmaster a ricorrere all'URL Rewrite. Insomma, se Google dice che Googleblot potrebbe avere problemi, a maggior ragione riscrivo le URL!
Come scrive Tagliaerbe, il 25 ottobre queste linee guida sono state modificate ed il paragrafo che sconsigliava l'uso di parametri in querystring poiché non sarebbero state incluse nell'indice è stato modificato in un più soft "grazie ad un aggiornamento dell'algoritmo Googlebot è ora in grado di indicizzare anche pagine dinamiche senza necessità di riscriverle".
A questo punto la domanda è spontanea: è ancora necessario riscrivere le URL? A mio modesto parere sì, assolutamente.
Non esiste solo Google
Il primo motivo lo anticipa Davide, segnalando giustamente che non esiste solo Google e la maggior parte degli spider ancora soffre di questo problema.
Googlebot non è infallibile
In secondo luogo aggiungo che non ci è dato conoscere il periodo esatto nel quale questo tipo di modifica sia stata eseguita all'algoritmo di Google e non necessariamente è passato un tempo sufficiente a garantire che i test abbiano dato esito positivo in tutte le condizioni.
Insomma, vale veramente la pena sfidare Googlebot o meglio assecondarlo quando possibile?
Keyword nell'URL
Continuando la rassegna, molti sostengono che la presenza di keyword rilevanti nell'URL delle pagine offrono maggiori chance di posizionamento e tematizzazione del contenuto stesso. Un'ottima opportunità, dunque.
Esistono anche gli utenti!
Last but not least, come direbbero altrove, qualcuno si ricorda ancora che esistono anche gli utenti? Se voi doveste ricordarvi un URL, meglio /news/pagina.php?id=35&val=mysection&remember=thisIdea&forget=thisUrl
oppure /news/googlebot_accetta_url.htm
?
Colpo d'occhio alle statistiche
Riscrivendo le URL è molto più semplice la lettura delle statistiche e l'individuazione del significato delle pagine, nelc aso in cui non sia visualizzato dal software il loro titolo. (Dell'Orto Fabio)
Stampa perfetta
Aggiungerei la stampa. Se dovete indicare la url di una pagina interna, esempio la descrizione di un prodotto, l'url-rewriting è fondamentale. (Fradefra)