Era il 2012 quando Google annunciava il lancio di due nuovi algoritmi con l’obiettivo di controllare maggiormente i siti che facevano link building in modo disonesto o che pubblicavano contenuti di scarsa qualità.

Nel corso degli anni, poi, vari update sono stati rilasciati e di volta in volta molti siti sono stati colpiti e penalizzati in base alle rilevazioni effettuate da questi due algoritmi.

Bastava guardare il proprio grafico su Analytics per notare come a partire da una certa data le proprie visite iniziassero a calare per poi accorgersi che quelle stesse date coincidevano con gli update di Penguin e Panda.

Grazie a questi due algoritmi, il modo di fare SEO è cambiato radicalmente, poiché essi hanno portato i webmaster ad uscire dalle ormai obsolete logiche della link building, del page rank e di tutti quei parametri tecnici che ormai erano perfettamente prevedibili e utilizzabili a proprio vantaggio dai più furbi.

Ora, grazie a Penguin e Panda, il contenuto del sito e la sua usabilità hanno ottenuto un ruolo di primaria importanza. Content is king, come dicono tutti.

Lo scorso settembre, è stato rilasciato l’ultimo aggiornamento di Penguin. No, non il più recente, l’ultimo. Similmente a quanto avvenuto per Panda, anche per Penguin non ci saranno più ulteriori aggiornamenti.

Cosa significa questo? Google ha forse deciso di smettere di utilizzare questi due portentosi algoritmi per ritornare sulla vecchia strada? Ovviamente non è così. Anche perché i parametri che controlla Penguin sono ormai irrinunciabili. Vale la pena fare un breve recap:

  • Numero eccessivo di link in entrata con anchor text di natura commerciale;
  • Link in entrata da siti di bassa qualità;
  • Link in entrata da directory di bassa qualità;
  • Link in entrata da domini in blacklist;
  • Link nei footer e nei blogroll.

Ciò che accade ora, semplicemente, è che Panda e Penguin saranno incorporati nell’algoritmo principale di Google. Questo vuol dire che saranno gli spider ad applicare i filtri e quindi tutto avverrà in modo quasi del tutto automatico e soprattutto più rapidamente.

È un bene o un male? In parte è un bene, in parte, paradossalmente, è un male. Veniamo subito al perché.

Con l’annuncio del rilascio di un aggiornamento di Penguin, un webmaster sapeva che se le visite avessero iniziato a calare drasticamente da quella data, il suo sito era stato preso di mira dal filtro e poteva agire di conseguenza. Ora che queste operazioni saranno svolte più o meno quotidianamente, sarà quasi impossibile riconoscere i segnali del passaggio di un algoritmo.

Tuttavia, questo cambiamento si rivela positivo per quei siti che prima venivano ingiustamente penalizzati e dovevano aspettare l’aggiornamento successivo per sapere se la loro penalizzazione era stata cancellata dopo aver effettuato i dovuti reclami e ricordiamo che tra il penultimo e l’ultimo aggiornamento di Penguin sono intercorsi due anni.

Un’altra differenza dovuta a questo tipo di cambiamento è il fatto che ora non verranno più presi in esame i domini, ma le singole pagine. Ciò è dovuto, probabilmente al fatto che alcuni webmaster mettono su una strategia di link building apposita per una landing page o comunque una specifica pagina del loro sito. Anche i sottodomini rientreranno in questa nuova dimensione di analisi e sarà quindi più complicato intercettare la causa di eventuali cali di posizione nelle SERP.

Al momento, i parametri che i nuovi Panda e Penguin useranno sono gli stessi del passato, ma c’è da aspettarsi che, grazie all’integrazione con il core algorithm di Google, questi si evolvano e anche lo spam che ancora resiste venga finalmente filtrato e penalizzato.