Addio Penguin e Panda: ecco come cambia la SEO

Addio Penguin e Panda: come cambia la SEO

Era il 2012 quando Google annunciava il lancio di due nuovi algoritmi con l’obiettivo di controllare maggiormente i siti che facevano link building in modo disonesto o che pubblicavano contenuti di scarsa qualità.

Nel corso degli anni, poi, vari update sono stati rilasciati e di volta in volta molti siti sono stati colpiti e penalizzati in base alle rilevazioni effettuate da questi due algoritmi.

Bastava guardare il proprio grafico su Analytics per notare come a partire da una certa data le proprie visite iniziassero a calare per poi accorgersi che quelle stesse date coincidevano con gli update di Penguin e Panda.

Grazie a questi due algoritmi, il modo di fare SEO è cambiato radicalmente, poiché essi hanno portato i webmaster ad uscire dalle ormai obsolete logiche della link building, del page rank e di tutti quei parametri tecnici che ormai erano perfettamente prevedibili e utilizzabili a proprio vantaggio dai più furbi.

Ora, grazie a Penguin e Panda, il contenuto del sito e la sua usabilità hanno ottenuto un ruolo di primaria importanza. Content is king, come dicono tutti.

Lo scorso settembre, è stato rilasciato l’ultimo aggiornamento di Penguin. No, non il più recente, l’ultimo. Similmente a quanto avvenuto per Panda, anche per Penguin non ci saranno più ulteriori aggiornamenti.

Cosa significa questo? Google ha forse deciso di smettere di utilizzare questi due portentosi algoritmi per ritornare sulla vecchia strada? Ovviamente non è così. Anche perché i parametri che controlla Penguin sono ormai irrinunciabili. Vale la pena fare un breve recap:

  • Numero eccessivo di link in entrata con anchor text di natura commerciale;
  • Link in entrata da siti di bassa qualità;
  • Link in entrata da directory di bassa qualità;
  • Link in entrata da domini in blacklist;
  • Link nei footer e nei blogroll.

Ciò che accade ora, semplicemente, è che Panda e Penguin saranno incorporati nell’algoritmo principale di Google. Questo vuol dire che saranno gli spider ad applicare i filtri e quindi tutto avverrà in modo quasi del tutto automatico e soprattutto più rapidamente.

È un bene o un male? In parte è un bene, in parte, paradossalmente, è un male. Veniamo subito al perché.

Con l’annuncio del rilascio di un aggiornamento di Penguin, un webmaster sapeva che se le visite avessero iniziato a calare drasticamente da quella data, il suo sito era stato preso di mira dal filtro e poteva agire di conseguenza. Ora che queste operazioni saranno svolte più o meno quotidianamente, sarà quasi impossibile riconoscere i segnali del passaggio di un algoritmo.

Tuttavia, questo cambiamento si rivela positivo per quei siti che prima venivano ingiustamente penalizzati e dovevano aspettare l’aggiornamento successivo per sapere se la loro penalizzazione era stata cancellata dopo aver effettuato i dovuti reclami e ricordiamo che tra il penultimo e l’ultimo aggiornamento di Penguin sono intercorsi due anni.

Un’altra differenza dovuta a questo tipo di cambiamento è il fatto che ora non verranno più presi in esame i domini, ma le singole pagine. Ciò è dovuto, probabilmente al fatto che alcuni webmaster mettono su una strategia di link building apposita per una landing page o comunque una specifica pagina del loro sito. Anche i sottodomini rientreranno in questa nuova dimensione di analisi e sarà quindi più complicato intercettare la causa di eventuali cali di posizione nelle SERP.

Al momento, i parametri che i nuovi Panda e Penguin useranno sono gli stessi del passato, ma c’è da aspettarsi che, grazie all’integrazione con il core algorithm di Google, questi si evolvano e anche lo spam che ancora resiste venga finalmente filtrato e penalizzato.

Condividi

Altri Post

La nascita dei firewall e la loro evoluzione

La nascita dei firewall e la loro evoluzione

La nascita dei firewall risale agli anni ’80, quando la crescente necessità di proteggere le reti informatiche si fece urgente. Da semplici filtri di pacchetti a sofisticati sistemi di prevenzione delle intrusioni, la loro evoluzione ha segnato una frontiera cruciale nella sicurezza informatica.

Come funziona il deep learning spiegato semplice

Come funziona il deep learning spiegato semplice

Il deep learning è come un cervello virtuale che impara dai dati. Utilizza reti neurali, simili a quelle del nostro sistema nervoso, per riconoscere schemi e fare previsioni. Questo processo avviene in diverse “livelli”, permettendo un apprendimento sempre più profondo.

Le reti mesh: come funzionano e perché convengono

Le reti mesh: come funzionano e perché convengono

Le reti mesh rappresentano una rivoluzione nella connettività wireless. Grazie a molteplici nodi connessi tra loro, offrono una copertura estesa e continua, eliminando zone morte e migliorando la velocità. Scopri come funzionano e i benefici per la tua casa!

Come si costruisce un PC da gaming ottimizzato

Come si costruisce un PC da gaming ottimizzato

Costruire un PC da gaming ottimizzato richiede attenzione ai dettagli. Inizia con una scheda madre compatibile, scegli una CPU potente e abbina una scheda grafica di ultima generazione. Non dimenticare l’importanza di un buon raffreddamento e alimentatori adeguati per performance elevate.