Non ho mai tollerato quanti si presentavano sul forum pubblico di Dmoz con futili ed assurde lamentele solo perché un editore non accettava di farcire di keyword la descrizione del loro sito. Sono sempre stato molto duro nelle risposte (parlo al passato poiché sono ancora editore ma causa tempo ed una connessione GPRS la mia attività si è notevolmente ridotta) e di certo non ho cambiato filosofia, ma ben sanno certi colleghi editori che non mi sono mai fatto scrupoli a criticare ODP quando era il caso.
Questa settimana riflettevo su alcuni avvenimenti, non per ultimo la decisione di Google di offrire agli utenti maggiore controllo sulle SERP. Tornando indietro nel tempo ricordo che Google già usava il meta tag robot per garantire agli utenti controllo sull'attività di crawling del sito e salvataggio in cache.
A questo punto mi sono detto... ma perché Dmoz non lo fa?
Cioè, andiamo per gradi. Ci si può cancellare da Dmoz? No. Tutti (o quasi) cercano di entrare ma quasi mai si affronta il problema di quanti non vorrebbero comparire in Dmoz.
Come? Perché un utente non dovrebbe voler essere in Dmoz? Ma, solo cavoli suoi. Mica Google chiede agli utenti perché gli hanno disabilitato Googlebot da robots.txt, ne prende atto e continua felice sulla sua strada.
Allora perché se io volessi uscire da Dmoz mi sento dire che l'unico modo per rimuovere un listing da Dmoz è mettere offline il sito o proteggerlo da password? Perché Dmoz non permette ai webmaster di scegliere, magari proprio con un robots.txt se l'editore ha autorizzazione o meno ad includere il sito nella directory?
Lo devo dire, in questo Dmoz ha perso punti... e lo dico sia da utente sia da editore.