Per ottimizzare la visibilità dei vostri siti
Quando realizziamo dei siti capita, non di rado, soprattutto per chi non ha grande esperienza, che i motori di ricerca non visualizzano il nostro sito. Nei quattro punti che seguono vedremo degli errori, frequenti, da evitare.
- Molti siti usano Javascript per permettere una navigazione agevole per gli utenti in siti web di grandi dimensioni. Tuttavia per i crawler (il software che analizza i contenuti di una rete, in genere attraverso un motore di ricerca) non è altrettanto semplice. Per vedere se il crawler sarà in grado di visualizzare il tuo sito disattiva javascript nel tuo broswer e poi guarda il sito. Se il sito non viene visualizzato allora nemmeno il crawler sarà in grado di farlo.
- Un sito in Flash può contenere oltre ai testi, video, animazioni che rendono il sito di notevole impatto e molto gradevole da visitare. Ma non è detto però che un sito realizzato interamente con Flash possa essere visto da tutti, anzi! Infatti un sito in flash viene codificato come fosse un unico file video e ciò non permette ai crawler dei motori di ricerca di ottenere le giuste informazioni per permettere la navigazione. Prova a esportare i file Flash e includerli in delle pagine strutturate secondo il codice HTML, in modo tale da rendere più agevole il compito del crawler e rendere visibili tutti i contenuti del tuo sito.
- Avere dei contenuti di qualità è fondamentale per rendere più visibile il vostro sito. Infatti con l’avvento di Panda Update introdotto da Google per combattere le Content Farm bisogna avere dei contenuti originali e di qualità per avere più visite. Per chi non sapesse cos’è Panda Update, è un sistema creato da Google per far sì che siti web che hanno grandi quantità di contenuti, però copiati e non originali, oppure perché sono online da poco tempo ottengano primati nei rank. A beneficiarne dovrebbero essere quei siti che offrono articoli originali e un prodotto valido per l’utente.
- Il file Robto.txt è un file che contiene le informazioni per i crawler dei motori di ricerca dicendo loro quali pagine possono vedere e quali no. L’errore si verifica quando il webmaster accidentalmente blocca la cartella principale del sito nel file Robot.txt e ciò impedisce ai crawler di far visualizzare il sito. Per vedere se il sito è bloccato bisogna vedere se nel file c’è una barra come DISALLOW: /
Potrebbe interessarti
Quanto sei Creativo? Scoprilo con il test: Adobe CQ 16 Luglio 2020
Covid-19: Come cambieranno le offerte di lavoro 25 Marzo 2020
Corsi Online VS Covid-19 17 Marzo 2020
Francesco: Lavora come freelance, si occupa di Web Design & Marketing, Strategie Digitali, Blogging e docenza.
Per PC Academy cura: il tutoraggio dei corsi online Scrittura Creativa e Sceneggiatura; le lezioni in aula sulla creazione del CV infografico e come Presentarsi alle Aziende in modo professionale; la redazione di molti articoli di questo portale.
Commenti