In questo articolo della nostra guida SEO per principianti esamineremo velocemente alcuni must di un sito seo-friendly, ancora una volta specifichiamo che questo articolo non è destinato ad esperti e può contenere delle imprecisioni, dovute alla necessità di sintesi. E’ un articolo destinato ai principianti, il suo obiettivo principale è la chiarezza.
Un trucco importante ed efficace nella progettazione di un sito in grado di performare bene dal punto di vista seo è … non pensare ai motori di ricerca e concentrarsi sugli utenti! Abbiamo già parlato dell’importanza di scegliere un buon nome di dominio, se il nome scelto è adatto agli utenti piacerà anche ai motori.
La stessa cosa vale per due componenti essenziali: la grafica e la struttura. Una buona impostazione grafica e un sito facile da usare saranno buoni per gli utenti e quindi saranno verosimilmente più linkati. Pensate a un articolo ben scritto ma con tesi discutibili, un articolo di approfondimento che parla, ad esempio, di finanza o di genetica. Immaginate di trovare lo stesso articolo in due siti di cui non sapete nulla, uno con grafica amatoriale, con la classica impostazione degli anni ’90, un sito creato con frontpage. Poi immaginate di trovare lo stesso articolo, esattamente lo stesso con gli stessi contenuti, all’interno di un sito che ha un aspetto grafico simile a quello di un giornale. A questo punto siate onesti con voi stessi, quale vi sembra più affidabile? Nella prima situazione l’articolo verrà penalizzato dalla veste grafica povera e in generale l’utente avrà l’impressione di trovarsi di fronte a un sito non aggiornato se non addirittura abbandonato. Nel secondo invece il lettore magari inconsciamente tenderà ad attribuire autorevolezza alla fonte. Non stiamo esagerando, ci sono stati casi in cui una finta notizia, pubblicata da siti paragonabili a lercio.it sono stati presi per vero da autorevoli testate internazionali. L’abito fa il monaco.
Progettando la struttura del sito pensate ad un sistema di archiviazione di file, immaginate di archiviare le vostre foto su un computer e di fare in modo che questo sistema sia facilmente usabile da chiunque. Il risultato sarà inevitabilmente una struttura equilibrata, non ci saranno (o non dovrebbero esserci) troppi rami (directory), le foto dovrebbero essere distribuite in maniera omogenea ovvero non dovranno esserci directory con 10.000 foto ed altre vuote. Lo stesso deve avvenire per il sito per questo la progettazione della struttura coincide con l’impostazione del piano editoriale: non possono esserci argomenti troppo affollati o troppo trascurati.
Se la struttura degli argomenti è ben progettata lo stesso accadrà, in modo automatico, per la struttura delle url e anche queste tenderanno ad essere omogenee.
Sitemap
Il file sitemap è un file XML che elenca tutta le pagine di un sito, le immagini e i contenuti multimediali. E’ un elenco che deve essere costruito seguendo regole sostanzialmente imposte da google e dagli altri motori di ricerca. A questo link è possibile trovare tutti gli approfondimenti del caso e anche qualcosa in più, in questa sede vogliamo sottolineare il fatto che in teoria non è indispensabile creare questo file, in sostanza dovrebbe servire a far risparmiare tempo agli spider, crearlo e tenerlo aggiornato non è obbligatorio. Se per il vostro sito vi state affidando a uno dei CMS più diffusi abbiamo una buona notizia per voi: per WordPress, e Magento sono disponibili plugin gratuiti che funzionano perfettamente. Notizie un po’ meno buone sul fronte Joomla, purtroppo uno dei punti deboli di questo CMS si traduce in una grande difficoltà nella gestione della sitemap. E’ superabile, senza scendere troppo nei dettagli consigliamo Xmap agli utenti di Joomla.
Nel file sitemap per ogni indirizzo dovrebbe essere indicata la data di ultima modifica del contenuto, la frequenza di aggiornamento e “la priorità”.
Se per il vostro sito non usate un CMS oppure non avete trovato un plugin soddisfacente è possibile utilizzare un crawler ovvero uno strumento che analizzerà tutto il sito per creare un elenco di tutte le risorse da rielaborare successivamente prima di inviare a google. Alcuni di questi strumenti sono gratuiti altri a pagamento, alcuni funzionano online altri sono piccoli software da installare sul pc. Uno strumento online è questo.
Robots.txt
Il file robots.txt è un file di testo che deve trovarsi nella radice del sito e può contenere alcune indicazioni per gli spider. Onde evitare spiacevoli equivoci precisiamo che gli spider non sono obbligati a rispettare le indicazioni contenuti nel robots.txt ma ad oggi non abbiamo visto prove documentate di un crawler che non abbia rispettato le indicazioni contenute.
Sintetizzando al massimo nel file è possibile indicare allo spider cosa volete che sia indicizzato e cosa no. Anche in questo caso Google mette a disposizione parecchie informazioni per gli sviluppatori che vogliano documentarsi, si può cominciare ad esempio da questo articolo.
Anche il file robots.txt non è obbligatorio, se non vi sentite sicuri potete tranquillamente farne a meno. Una errata impostazione può creare danni enormi al sito quindi verificate con attenzione le impostazioni di questo file.
il Nofollow
L’attributo Nofollow indica ai motori di ricerca di non seguire quel link. Il codice di un link nofollow è questo
<a href=”http://www.google.it/” rel=”nofollow”>Il motore di ricerca</a>
Esteticamente non è distinguibile dagli altri link quindi la maggior parte degli utenti non si accorgerà di questo attributo assegnato al link. Se ne accorgeranno i motori che non trasmetteranno alla pagina linkata il “link juice” della pagina. L’esame delle conseguenze dell’uso del nofollow richiederebbero più di un articolo, magari ne parleremo in futuro, qui ci limitiamo a descrivere il nofollow tra gli strumenti fondamentali da usare nella progettazione del sito.
Se ad esempio nel vostro sito in ogni articolo è presente un link alla versione “stampabile” della pagina, quella senza fronzoli, questo link dovrebbe avere l’attributo “nofollow” questo perchè altrimenti google e gli altri motori di ricerca si troverebbero a dover valutare due pagine sostanzialmente con lo stesso contenuto, una con e una senza fronzoli e orpelli grafici. Quello che voi probabilmente volete è che venga indicizzata, valutata e possibilmente ben posizionata la versione con i fronzoli.
il file .htaccess
Il file .htaccess è una specie di coltellino svizzero, svolge una miriadi di funzioni e permette di fare un sacco di cose interessantissime e utili. C’è una cosa da chiarire: funziona solo con web server Apache ovvero, nella maggior parte dei casi, su server Linux. Se il vostro sito si trova su un server windows allora abbiamo un consiglio semplicissimo: spostatelo, subito. Prima o poi lo dovrete fare e più aspettate più l’operazione diventerà lunga (e costosa).
Tra le tantissime cose che permette di fare il file .htaccess ne segnaliamo due, rimandando ad eventuali prossimi articoli ulteriori approfondimenti:
Options +FollowSymLinks
RewriteEngine on
RewriteCond %{HTTP_HOST} ^supero.com.mt[nc]
RewriteRule ^(.*)$ https://www.supero.com.mt/$1 [r=301,nc]
Il codice sopra indicato serve a fare in modo che chi visita il sito che state leggendo richiamandolo senza inserire il www venga automaticamente indirizzato alla versione con il www. Visitatori e crawler ovviamente. Leggendo il codice vedrete che è presente l’indicazione del tipo di redirect, ovvero 301, questo indica che si tratta di una indicazione permanente.
# Permanent URL redirect
Redirect 301 /pagina-non-esistente.html https://www.supero.com.mt/gli-strumenti-base/
Con questo secondo secondo esempio indichiamo che i crawler (e gli utente) che cercano di visitare la pagina-non-esistente.html devono essere permanentemente inviati alla pagina che state leggendo in questo momento.
Validazione W3C
In questo esame rapido di alcuni degli strumenti indispensabili dei SEO spendiamo solo due parole per lo standard W3c: lasciate perdere. Non perdete tempo con questo standard, se le pagine si vedono correttamente, se gli errori non sono tremendi, tali da impedire la navigazione con alcuni browser, allora va tutto bene, passate oltre che c’è tanto da fare e incaponirsi a sistemare errorini di codifica non serve a niente.
Lascia un commento