Per ottimizzare la visibilità dei vostri siti

Francesco PC Academy di - 10 maggio 2011 in Altro

Quando realizziamo dei siti capita, non di rado, soprattutto per chi non ha grande esperienza, che i motori di ricerca non visualizzano il nostro sito. Nei quattro punti che seguono vedremo degli errori, frequenti, da evitare.

  1. Molti siti usano Javascript per permettere una navigazione agevole per gli utenti in siti web di grandi dimensioni. Tuttavia per i crawler (il software che analizza i contenuti di una rete, in genere attraverso un motore di ricerca) non è altrettanto semplice. Per vedere se il crawler sarà in grado di visualizzare il tuo sito disattiva javascript nel tuo broswer e poi guarda il sito. Se il sito non viene visualizzato allora nemmeno il crawler sarà in grado di farlo.
  2.  

  3. Un sito in Flash può contenere oltre ai testi, video, animazioni che rendono il sito di notevole impatto e molto gradevole da visitare. Ma non è detto però che un sito realizzato interamente con Flash possa essere visto da tutti, anzi! Infatti un sito in flash viene codificato come fosse un unico file video e ciò non permette ai crawler dei motori di ricerca di ottenere le giuste informazioni per permettere la navigazione. Prova a esportare i file Flash e includerli in delle pagine strutturate secondo il codice HTML, in modo tale da rendere più agevole il compito del crawler e rendere visibili tutti i contenuti del tuo sito.
  4.  

  5. Avere dei contenuti di qualità è fondamentale per rendere più visibile il vostro sito. Infatti con l’avvento di Panda Update introdotto da Google per combattere le Content Farm bisogna avere dei contenuti originali e di qualità per avere più visite. Per chi non sapesse cos’è Panda Update, è un sistema creato da Google per far sì che siti web che hanno grandi quantità di contenuti, però copiati e non originali, oppure perché sono online da poco tempo ottengano primati nei rank. A beneficiarne dovrebbero essere quei siti che offrono articoli originali e un prodotto valido per l’utente.
  6.  

  7. Il file Robto.txt è un file che contiene le informazioni per i crawler dei motori di ricerca dicendo loro quali pagine possono vedere e quali no. L’errore si verifica quando il webmaster accidentalmente blocca la cartella principale del sito nel file Robot.txt e ciò impedisce ai crawler di far visualizzare il sito. Per vedere se il sito è bloccato bisogna vedere se nel file c’è una barra come DISALLOW: /
Share

Promozioni

Potrebbe interessarti



Francesco PC Academy
Francesco: Lavora come freelance, si occupa di Web Design & Marketing, Strategie Digitali, Blogging e docenza. Per PC Academy cura: il tutoraggio dei corsi online Scrittura Creativa e Sceneggiatura; le lezioni in aula sulla creazione del CV infografico e come Presentarsi alle Aziende in modo professionale; la redazione di molti articoli di questo portale.

Commenti