Addio Penguin e Panda: ecco come cambia la SEO

Addio Penguin e Panda: come cambia la SEO

Era il 2012 quando Google annunciava il lancio di due nuovi algoritmi con l’obiettivo di controllare maggiormente i siti che facevano link building in modo disonesto o che pubblicavano contenuti di scarsa qualità.

Nel corso degli anni, poi, vari update sono stati rilasciati e di volta in volta molti siti sono stati colpiti e penalizzati in base alle rilevazioni effettuate da questi due algoritmi.

Bastava guardare il proprio grafico su Analytics per notare come a partire da una certa data le proprie visite iniziassero a calare per poi accorgersi che quelle stesse date coincidevano con gli update di Penguin e Panda.

Grazie a questi due algoritmi, il modo di fare SEO è cambiato radicalmente, poiché essi hanno portato i webmaster ad uscire dalle ormai obsolete logiche della link building, del page rank e di tutti quei parametri tecnici che ormai erano perfettamente prevedibili e utilizzabili a proprio vantaggio dai più furbi.

Ora, grazie a Penguin e Panda, il contenuto del sito e la sua usabilità hanno ottenuto un ruolo di primaria importanza. Content is king, come dicono tutti.

Lo scorso settembre, è stato rilasciato l’ultimo aggiornamento di Penguin. No, non il più recente, l’ultimo. Similmente a quanto avvenuto per Panda, anche per Penguin non ci saranno più ulteriori aggiornamenti.

Cosa significa questo? Google ha forse deciso di smettere di utilizzare questi due portentosi algoritmi per ritornare sulla vecchia strada? Ovviamente non è così. Anche perché i parametri che controlla Penguin sono ormai irrinunciabili. Vale la pena fare un breve recap:

  • Numero eccessivo di link in entrata con anchor text di natura commerciale;
  • Link in entrata da siti di bassa qualità;
  • Link in entrata da directory di bassa qualità;
  • Link in entrata da domini in blacklist;
  • Link nei footer e nei blogroll.

Ciò che accade ora, semplicemente, è che Panda e Penguin saranno incorporati nell’algoritmo principale di Google. Questo vuol dire che saranno gli spider ad applicare i filtri e quindi tutto avverrà in modo quasi del tutto automatico e soprattutto più rapidamente.

È un bene o un male? In parte è un bene, in parte, paradossalmente, è un male. Veniamo subito al perché.

Con l’annuncio del rilascio di un aggiornamento di Penguin, un webmaster sapeva che se le visite avessero iniziato a calare drasticamente da quella data, il suo sito era stato preso di mira dal filtro e poteva agire di conseguenza. Ora che queste operazioni saranno svolte più o meno quotidianamente, sarà quasi impossibile riconoscere i segnali del passaggio di un algoritmo.

Tuttavia, questo cambiamento si rivela positivo per quei siti che prima venivano ingiustamente penalizzati e dovevano aspettare l’aggiornamento successivo per sapere se la loro penalizzazione era stata cancellata dopo aver effettuato i dovuti reclami e ricordiamo che tra il penultimo e l’ultimo aggiornamento di Penguin sono intercorsi due anni.

Un’altra differenza dovuta a questo tipo di cambiamento è il fatto che ora non verranno più presi in esame i domini, ma le singole pagine. Ciò è dovuto, probabilmente al fatto che alcuni webmaster mettono su una strategia di link building apposita per una landing page o comunque una specifica pagina del loro sito. Anche i sottodomini rientreranno in questa nuova dimensione di analisi e sarà quindi più complicato intercettare la causa di eventuali cali di posizione nelle SERP.

Al momento, i parametri che i nuovi Panda e Penguin useranno sono gli stessi del passato, ma c’è da aspettarsi che, grazie all’integrazione con il core algorithm di Google, questi si evolvano e anche lo spam che ancora resiste venga finalmente filtrato e penalizzato.

Condividi

Altri Post

Il cloud storage: come funziona e quali rischi comporta

Il cloud storage: come funziona e quali rischi comporta

Il cloud storage rappresenta una soluzione innovativa per archiviare e gestire dati online, consentendo accesso e condivisione facilitati. Tuttavia, nasconde rischi legati alla sicurezza e alla privacy, richiedendo attenzione nella scelta dei fornitori e nella gestione delle informazioni.

La storia dei laptop IBM ThinkPad e il loro culto

La storia dei laptop IBM ThinkPad e il loro culto

I laptop IBM ThinkPad, nati negli anni ’90, sono diventati simboli di innovazione e affidabilità nel mondo della tecnologia. Con il loro design distintivo e la leggendaria tastiera, hanno creato un culto tra professionisti e appassionati, testimoniando una storia di eccellenza.

Il futuro dell’intelligenza artificiale nella medicina

Il futuro dell’intelligenza artificiale nella medicina

Il futuro dell’intelligenza artificiale nella medicina si profila luminoso e ricco di potenzialità. Con algoritmi sempre più sofisticati, l’AI potrà migliorare diagnosi, personalizzare trattamenti e ottimizzare la ricerca, trasformando il panorama sanitario globale.

Le memorie cache: cosa sono e perché contano

Le memorie cache: cosa sono e perché contano

Le memorie cache sono piccole ma potenti alleate dei processori. Situate tra la CPU e la RAM, immagazzinano dati frequenti per accelerare l’accesso alle informazioni. Comprendere il loro funzionamento è fondamentale per ottimizzare le prestazioni dei dispositivi.