Finalmente una discussione sufficientemente tecnica ed approfondita sul discorso degli spider dei motori di ricerca. Non conosco Johnnie di TSW personalmente ma posso mandargli i miei più sinceri complimenti per il suo articolo sul blog corporate dell'azienda.
In questo post si parla degli spider come saranno almeno un paio d'anni che non leggevo in Italia (sui forum esteri è pane quotidiano) e sono contento di aver trovato qualcun alto che apprezzi le potenzialità dell'analisi dei log e tracciamento dei crawler.
Johnnie apre il suo post con alcune considerazioni su Googlebot, accennando al nuovo Mozilla-Googlebot.
allora vuol dire che questo nuovo spider può emulare un browser? Personalmente penso di no, ma ancora non ho le prove tecniche, Mozilla è soltanto la tecnologia più idonea per interpretare contenuti sul web.
Johnnie, se per caso non lo hai letto mi permetto un po' di autopubblicità.
Nel post Googlebot dopo BigDaddy che ho scritto per il blog di HTML.it ho analizzato alcune caratteritiche del nuovo crawler di Google. Se poi ti avanza qualche minuto potrebbe incuriosirti il mio post I segreti nascosti dei log. Adesso che ci penso... ne ho scritte almeno un paio di cose su Googlebot. :D
Ma torniamo al post di Johnnie. Saltando la parte di Googlebot, ho trovato molto interessante la pubblicazione dei dati su come è stato valutato il passaggio degli spider su un sito: l'analisi dei tempi, della velocità e della frequenza. Adesso che ci penso... mi sono dimenticato la classifica degli spider di giugno!
Insomma, se ancora non lo avete letto, il post di Johnnie merita almeno una visita.
Mmmm, adesso che rileggo il titolo... sembra quello di un film! Chissà che dopo al SEO non possa avere un futuro come regista. :)
PS. TSW, posso suggerire di togliere il login per i commenti? :)