<img alt="" src="https://secure.leadforensics.com/222484.png" style="display:none;">
Skip to content
13 modi sicuri per perdere posizioni su Google
Florian Anderhub13 apr 202211 min read

13 modi sicuri per perdere posizioni su Google

Questo articolo prende spunto dall’ennesima mail con la quale il proprietario di un sito ci chiede di scambiare un link sotto forma di Guest-Post reciproco. Lo scambio link è una delle tante tattiche SEO obsolete che non conviene più fare, sia per stare alla larga dalle penalizzazioni di Google, sia perché nei fatti risultano inefficaci. Sulla stessa linea le iscrizioni del sito a directory gratuite e di scarsa qualità o pubblicare articoli in siti di Article Marketing. Esistono comunque dei metodi molto più efficaci per far perdere posizioni al sito, conducendo a penalizzazioni così feroci, da far apparire l’ergastolo ad Alcatraz una sorta di paradiso terrestre.

Google è un motore di ricerca che si comporta da ecosistema, ma è anche il prodotto di una società privata. Ci sono regole da rispettare che la stessa Google consiglia di tenere a mente per migliorare nel posizionamento. Così come ci sono pratiche e abitudini ormai consolidate, che consentono di raggiungere l’obiettivo meno desiderato: la totale assenza dall’indice del motore di ricerca.

 

Duplicare il Title Tag delle pagine

Il Title Tag è uno degli elementi tecnici che possiamo personalizzare. Nel Browser (Mozilla, Chrome, Safari…) corrisponde al titolo della pagina e ha la funzione di comunicare a Google, per sommi capi, il contenuto della stessa. Non diversificarlo, duplicarlo in lungo e in largo nel sito è un errore HTML che provoca perdite di posizioni, dal momento che Google deve impiegare risorse aggiuntive per sapere quale, tra le pagine con i Title Tag duplicati, è veramente quella più ottimizzata per la parola chiave.

 

Duplicare il contenuto

I contenuti duplicati sono uno dei peccati capitali della SEO. Usare testi già presenti altrove in siti come Wikipedia o siti tematici, non aiuta affatto. Google non ha nessun interesse a sprecare risorse per indicizzare un sito che presenta contenuti non originali. Inoltre, come nel caso della duplicazione del Meta title, la pratica denuncia sciatteria, scarsa attenzione. Perché Google dovrebbe invece degnarsi di considerare il vostro sito?

 

Caricamento del sito lento e navigazione rallentata

È proprio di avantieri 17 gennaio 2018, l’annuncio di Google che la velocità di caricamento del sito da Mobile, cioè per oltre la metà delle connessioni in tutto il mondo, sarà considerata un fattore di posizionamento a tutti gli effetti, incidendo sulla qualità dell’indicizzazione. In parole povere: un sito lento perderà posizioni a favore di siti veloci. Una delle soluzioni potrebbe essere quella di adottare il protocollo AMP.

 

Sito non leggibile da mobile

Le persone utilizzano principalmente lo Smartphone e le applicazioni per navigare tra i siti. Che senso ha nel 2018 avere un sito che dal display dello smartphone è illeggibile? La leggibilità fa rima con funzionalità: oltre che responsive la grafica deve consentire le scelte operate via Touch. Il mancato rispetto di questi canoni farà perdere posizioni a vantaggio dei concorrenti. Leggi la nostra guida in proposito.

 

Non correggere gli errori di navigazione

La navigazione all’interno del sito dev’essere fluida. Non ci devono essere vicoli ciechi, non è un caso che abbiamo parlato di architettura del sito. Non mettere a posto questi elementi può risultare esiziale per il destino di un sito. Ad esempio non correggendo i troppi errori 404 determinati dalla cancellazione di pagine o articoli, oppure effettuare troppi Redirect interni che creano dei vicoli ciechi.

Non mettere a posto nemmeno i link interni spezzati, che cioè non portano da nessuna parte, così come non risolvere i collegamenti esterni che portano a pagine con codice 404. Allo stesso modo non dotarsi di un file robots.txt o di una Sitemap in XML potrebbe rendere più complicato il lavoro di Google, soprattutto quando ci sono istanze che si contraddicono (voglio deindicizzare una pagina via robots, ma la inserisco in sitemap).

Il sito, come ripeto sempre, deve avere un’ottimizzazione al 110%, regolata attraverso l’impiego di strumenti come Google Search Console.

 

Non ottimizzare gli elementi residuali come le immagini

La sciatteria e la scarsa considerazione che i proprietari dei siti hanno nei confronti di Google, che mette a disposizione un ampio campionario di risorse e guide gratuite per ottimizzare bene il sito, dovrebbe essere sempre punita o perlomeno non premiata. Ho fatto decine di test sull’ottimizzazione del contenuto verificando in continuazione che ottimizzare al meglio ogni singolo elemento equivale a fare “un favore” a Google, che non verrà ignorato.

Anche nella raccolta dei Backlink: articoli che contengono un link verso il sito di un cliente funzionano meglio se sono ottimizzati in ogni minimo aspetto, dai titoli agli elenchi numerati, dall’uso corretto dei meta tag all’ottimizzazione delle immagini.

Ottimizzare le immagini aiuta molto in tutte quelle Query dove sono determinanti per fare una scelta, per esempio in un E-commerce. Meglio se di alta qualità, ma ancora meglio se rinominate e dotate di testo alternativo (Tag ALT) e originali. In rete sono presenti miliardi di immagini, ma per il fatto che siano disponibili con una ricerca non significa che siano libere da Copyright.

Ci sono però immagini di pubblico dominio che possono essere usate. In caso contrario sempre meglio citare la fonte o chiedere i diritti di utilizzo, oppure acquistarle presso i siti di vendita in Stock.

 

Farsi ossessionare dalle parole chiave (Keywords)

Scrivere contenuti avendo in mente le parole chiavi è la via migliore per incasinare i contenuti, scriverli male e non posizionarsi. Perché? Perché si costruiscono contenuti intorno ad esse che non fanno ciò che dovrebbero fare, cioè rispondere a delle domande.

La stragrande maggioranza degli utenti cerca risposte ai propri problemi. Se ci si fossilizza sulle parole chiavi si trascurano la molteplicità e la ricchezza semantica con cui una persona formula delle domande o fa delle ricerche.

Insomma, anziché pensare alle Keyword si dovrebbe pensare alla Query.

 

Destinare un contenuto a una singola parola chiave

I contenuti che vanno per la maggiore sono lunghi e in grado di rispondere a più Query. Per cui destinare un singolo contenuto a una parola chiave, farlo breve e non espanderlo ovvero non renderlo in grado di rispondere a più Query, alla fine si paga.

Il Thin Content, contenuto sottile, privo di spessore e significato, non viene mai premiato. In un sito di un cliente abbiamo eliminato articoli insignificanti, creato pagine complesse con opportuni Redirect, risolvendo tutti i problemi di indicizzazione e posizionamento.

 

Fare campagne di Backlink avulse dal contenuto

Il concetto di link Earning (guadagnare link) ha soppiantato quello di link Building. Ma cosa significa link Earning al di là della traduzione letterale? Semplice: che siti che ottengono link in entrata non giustificati dalla presenza di un contenuto di qualità riceveranno sempre un flag da parte di Google. Se un sito ha poco traffico e riceve molti Backlink la cosa è quantomeno sospetta.

Per ovviare a ciò si devono produrre contenuti di qualità, conquistare traffico e condivisioni e solo dopo fare la campagna di Backlink. Anche se può sembrare contraddittorio o essere una sorta di cane che si morde la coda, è l’unico metodo che davvero funziona e che mette al riparo da future penalizzazioni.

Google è in grado di conoscere la quantità e la qualità del traffico che un sito genera. Se il traffico non è di qualità e non si sviluppa nel tempo non ha senso fare campagne di Backlink. Il modo di pensare vecchio stile secondo cui non è possibile posizionarsi senza Backlink è tipico di chi si è fermato alla SEO di 4-5 anni fa e deriva dal fatto che si considera il posizionamento un fine e non un mezzo. Ovvero tutto è racchiuso nel posizionamento delle parole chiavi e non è affatto così.

 

Concepire la SEO come posizionamento di parole chiavi

Il posizionamento è un mezzo per raggiungere traffico dal motore di ricerca più diffuso e più importante. Per costruire traffico però non è necessario e obbligatorio puntare Keyword prestigiose, altamente concorrenziali, ad alto volume di traffico. Se il vostro cliente pretende il raggiungimento immediato di questi obiettivi dovreste essere abbastanza sinceri dal dirgli che serve un grosso budget in contenuti. C'è una strategia più intelligente che dovreste sottoporgli: puntare su parole chiavi correlate, di rincalzo, in modo da generare traffico.

Perché come vi ho appena detto: se non generate traffico non potete iniziare una campagna di Backlink sicura, che vi metta al riparo da penalizzazioni. Un sito che genera traffico e poi Backlink è molto più naturale di un sito che riceve prima Backlink e poi traffico.

Ne deriva che anche “promettere posizioni” e legare il contratto di consulenza SEO al raggiungimento delle stesse è fondamentalmente sbagliato. La presenza sul motore di ricerca la si può ottenere in tanti modi, considerando un ulteriore vantaggio: più specifiche sono le parole chiavi, più aumentano le conversioni, che alla fine è quello che conta.

 

Non utilizzare gli strumenti di Google: Analytics e Search Console

Google mette a disposizione almeno due strumenti fondamentali con i quali è possibile seguire le vicende dell’indicizzazione del proprio sito: Google Analytics e Google Search Console. Il primo è uno strumento di analisi statistica sul comportamento degli utenti all’interno del sito. Non è un semplice contatore delle visite. Non impiegarlo significa letteralmente brancolare nel buio, dal momento che Analytics può essere usato per inferire in modo scientifico una serie di informazioni tecniche sul pubblico.

La parte più importante non è quella dell’acquisizione, ma quella relativa ai contenuti. Analytics ci può dire come arrivano gli utenti, da dove arrivano, cosa fanno, quanti secondi dopo lasciano una pagina e se lasciano il sito oppure continuano la navigazione. Possiamo impostare obiettivi e verificare che gli utenti percorrano “un sentiero” (Path) che abbiamo precedentemente tracciato, quindi analizzare dei Funnel di vendita verificando se compiono una determinata azione. Analytics è una miniera di informazioni che se correttamente analizzata e studiata può portare a grossi miglioramenti nel posizionamento su Google.

Search Console è invece l’interfaccia di default con la quale possiamo direttamente dialogare con Google. Ci avvisa dell’eventuale presenza di errori HTML, errori di Crawling ed errori di indicizzazione nonché della presenza di azioni manuali come le penalizzazioni (irrogate a seguito della violazione delle norme guida sulla qualità).

Con Search Console possiamo analizzare le Query e il posizionamento del sito e prendere decisioni conseguenti per migliorare i contenuti e aumentare il traffico.

 

Considerare le ricerche come tutte uguali

Questo è un errore che viene ancora fatto e che spesso vedo commettere anche in conferenze e corsi di formazione che dovrebbero insegnare tutt’altro. Dal momento che l’algoritmo RankBrain premia i siti che rispondono in maniera efficace e puntuale alla Query, nel tempo si è determinata una situazione per la quale Google non tratta le Query tutte allo stesso modo.

Questo approccio era già conosciuto quando Google fece uscire un aggiornamento chiamato Payday Update, dedicato specificamente ai siti che vendevano prestiti in giornata (un settore delicato). Però oggi in sostanza ad ogni Query corrisponde una tipologia di contenuto (testi, immagini, tabelle dati, slide, video, file audio, abstract).

Se cerco la Keyword “voli Low Cost” a posizionarsi non sarà una pagina con un testo ottimizzato che spiega cosa sono i voli Low Cost, le compagnie aeree o le tratte, ma un sito che consente di comparare i prezzi e far effettuare la prenotazione attraverso un meccanismo di Booking sicuro e trasparente. Questo perché Google è a conoscenza del fatto che gli utenti che effettuano quelle ricerche, stanno effettivamente cercando un volo e non mere informazioni scolastiche.

Al contrario, per una Keyword nella quale sono determinanti le immagini, si posizioneranno meglio le pagine con una gallery in HD incorporata. Gli esempi possono essere tanti, ma spero abbiate colto il punto. Pensare di risolvere tutto con i testi, insomma, è sbagliato. Bisogna essere elastici e interpretare la Query, puntando a comprendere le intenzioni dell’utente.

 

Considerare Google monolitico e immutabile

Google è cambiato molto. Io ho iniziato a sperimentare l’effetto delle ottimizzazioni per Google nel 2003, quando possedevo un Blog, parliamo di 15 anni fa. Al tempo era sufficiente elencare un po’ di volte le parole chiavi all’interno del testo per ottenere l’effetto desiderato. Google aveva iniziato a monetizzare il traffico con AdSense e AdWords e quindi stava per introdurre modifiche volte a combattere lo Spam, per risultare più attendibile agli occhi degli inserzionisti.

E c’è riuscito con il primo aggiornamento fondamentale chiamato Florida, proprio nel 2003. Il nemico mortale di Google è lo Spam, la manipolazione dell'indice per sviare l’attenzione degli utenti da siti attendibili a siti spazzatura, con lo scopo di generare guadagni.

Google è cambiato nel tempo: il nome degli aggiornamenti dell’algoritmo principale sono ben noti all’interno della comunità SEO: Florida, Panda, Penguin, Pigeon, Hummingbird, RankBrain fino all’ultimo update chiamato Maccabees nel dicembre 2017. Conoscere i filtri è importante anche per investigare le penalizzazioni.

Non rimanere aggiornati significa perdere opportunità e posizioni. E fare come il webmaster della mail di cui ho parlato all’inizio dell’articolo che proponeva ancora tattiche obsolete. Ciò che funzionava ieri non funziona oggi, ci sono tattiche che nel 2011 consentivano di ottenere posizioni in prima pagina, ma che oggi penalizzano. Gli utenti nemmeno se ne accorgono, ma i proprietari dei siti sì e spesso attribuiscono queste perdite alla cattiva gestione di un SEO Specialist. In realtà i SEO Specialist si adattano.

Tuttavia, è vero che un sito che si basa sulla triade: buoni contenuti, traffico, ottimizzazione al 110% non rischierà mai e passerà indenne ogni aggiornamento, venendo premiato. Se il tuo sito sta perdendo posizioni probabilmente stai commettendo errori riconducibili a una di queste pratiche. Puoi sottoporcelo alla nostra attenzione per un'analisi preventiva.

avatar

Florian Anderhub

Dopo aver conseguito un Master in comunicazione all’Università della Svizzera Italiana, dal 2006 Florian Anderhub guida Ander Group. L’estrazione multiculturale, i 21 anni da imprenditore e la passione per l’innovazione tecnologica sono una garanzia di crescita per i suoi clienti.

ARTICOLI CORRELATI