Come evitare contenuti duplicati : 5 casi cui prestare attenzione
Per far sì che il vostro sito web troneggi nelle SERP su Google, Yahoo! e altri motori di ricerca, dovete assicurarvi che i contenuti forniti agli utenti siano completamente originali, privi di plagiarismi e, nella maniera più blanda, di contenuti duplicati.
Vediamo 5 casi particolari da evitare assolutamente.
1. Il caso WWW vs. Non-WWW
Molti webmaster si preoccupano che il loro sito web non venga visualizzato correttamente dai motori di ricerca se non presenta il “www.” prima del nome a dominio, o peggio, di venire penalizzati da Google per questo. Non c’è nulla di più falso: la scelta del www. o della sua omissione è completamente arbitraria e non comporta penalizzazioni di sorta. Ciò che conta davvero, è che una volta fatta la scelta, si resti fedeli ad essa: se avete scelto di omettere il www., ogniqualvolta un utente digiti www.iltuodominio.it, esso dovrebbe essere reindirizzato a iltuodominio.it; molti commettono invece l’errore di permettere l’indicizzazione di entrambe le versioni del sito, con e senza www., il quale causa contenuti duplicati.
Ecco come creare un redirect 301 per la versione scelta del nostro dominio:
Da WWW a non-WWW. Modificate il file .htaccess con il codice seguente:
RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_HOST} ^www\.sitoweb\.com$ [NC]
RewriteRule ^(.*)$ http://sitoweb.com/$1 [R=301,L]
Da non-WWW a WWW. Usate il codice seguente:
RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_HOST} ^sitoweb\.com$ [NC]
RewriteRule ^(.*)$ http://www.sitoweb.com/$1 [R=301,L]
2. Utilizzo di rel=canonical o i tag noindex e nofollow
Il concetto di rel=canonical può essere difficile da afferrare all’inizio, ma può rivelarsi molto utile: per Google, una pagina “canonical” è la versione preferenziale di un gruppo di pagine con contenuto molto simile. Ecco come creare un rel=canonical per il vostro sito (nei tag head del vostro template):
<link href="http://www.sitoweb.com/pagina-canonica/" rel="canonical" />
Oppure, potete utilizzare i tag “noindex, nofollow” nei meta tag della pagina duplicata:
<meta name="robots" content="noindex,nofollow" />
3. Keyword ripetute per tutte le pagine.
Questo caso si presenta soprattutto nei siti web mantenuti a mano, con gli include di PHP o comunque con header comuni. L’altra variante del caso è data da keyword rilevanti ripetute nel testo di pagine dal contenuto non rilevante, sebbene si tratti qui di uno specifico problema di strategia SEO. Meglio fare attenzione che ogni pagina abbia le proprie, uniche, parole chiave rilevanti.
4. Rendete i file robots.txt a prova di duplicazione.
E` bene che i webmaster prestino attenzione al file robots.txt, escludendo quelle pagine che si sanno avere contenuti duplicati dall’indicizzazione.
5. Niente plagiarismi!
Mentre ricercare, documentarsi e citare delle fonti sia un lavoro lodevole e necessario alla stesura di un buon articolo, è importante non copiare intere porzioni di testo, in quanto si scade nel plagiarismo. Siate creativi e originali e ne otterrete soltanto beneficio!
Avete altri consigli da dare?