Torna indietro

5 Consigli “non richiesti” per migliorare il tuo posizionamento nei motori di ricerca

Condividi:

16 min

Camilla Cannarsa

Condividi su:

16 min

Camilla Cannarsa

Qual è il nostro strumento di analisi preferito per la SEO?

Screaming Frog.

Abbiamo quindi chiesto a Raffaele Visintin, Seo Specialist, Beta tester di Screaming Frog e autore dello Screaming Frog Club, di darci qualche consiglio sull’utilizzo di questo strumento. Cosa ne è venuto fuori?

Una vera e propria guida sui 5 errori da non commettere quando si tratta di SEO.

Buona lettura e buon esercizio!

La Seo rimane imprescindibile per l’authorship dell’azienda perché permette alle aziende di qualunque dimensione e settore di crescere e diventare remunerative.

Ovviamente la Seo non è immediata, non regala nulla e non bastano pochi attributi, qualche tag da inserire nel codice Html o il passepartout del semaforo verde di Yoast per emergere in un contesto altamente competitivo.
Ma il bello è proprio questo, una materia composta da infinitesimi elementi che devono essere equilibrati e mixati per ottenere la benevolenza del pubblico e del leader Maximo: Google.

Screaming Frog rappresenta il mezzo per iniziare a destreggiarsi in questo scenario. Attraverso questo crawling spider sarai in grado di eseguire analisi tecniche avanzate, integrare i dati con le API di terze parti e sostenere la crescita del tuo progetto.

Quindi se credi che la Seo non serva o ancor peggio sia morta ecco per te 5 consigli “Non richiesti” che credo possano comunque aprirti una nuova visione, altrimenti se sei convinto come me che il posizionamento organico sia una soluzione da perpetrare per il successo del tuo business benvenuto onboard! 

Evita i contenuti duplicati

“The Content is the King” per Google e rappresenta uno dei fattori più importanti per il ranking!

Le regole da seguire sono 2 e sono molto semplici.

1. Non copiare dal compagno di banco (concorrente, risorse online);
2. Non copiare da te stesso.

Se il primo punto è molto chiaro e i contenuti devono essere freschi, originali e ben scritti semanticamente, il secondo è uno degli errori che trovo maggiormente durante gli Audit Seo sui siti web ed e-commerce dei clienti.
Ma cosa significa copiare da se stessi?

Il concetto è banale ma dannatamente complicato: i contenuti delle pagine del tuo sito web devono rispondere a Search Intent diversi ottenuti dallo sviluppo di contenuti con keyword set ottimizzati, mentre nella prassi molti siti web presentano sezioni con pagine simili o addirittura identiche che inesorabilmente consumano il crawling budget, non creano valore per il navigatore e, di conseguenza, rappresentano un ostacolo per il ranking creando cannibalizzazione delle query.

L’obiettivo di un Seo professionista quindi non si deve limitare a comprendere e ottimizzare le pagine identiche ma deve porre attenzione anche a quelle con alta similarità.
Grazie a pochi accorgimenti, e con Screaming Frog, sarai in grado di scoprire sia i contenuti duplicati esatti, sia contenuti simili e tutto questo in pochi minuti:

1. Abilita “Near Duplicates” tramite ‘Config > Content > Duplicates‘.
Screaming Frog di default riesce ad identificare le pagine identiche e per scoprirle dopo la scansione sarà sufficiente consultare la colonna “Hash” dalla tab “Internal”, mentre per identificare i contenuti con alta similarità sarà sufficiente abilitare l’opzione “Enable Near Duplicates”.

Per farlo andare su: ‘Config > Content > Duplicates’.

Di base il Seo Spider considera una pagina come “simile” se presenta una corrispondenza minima del 90%; questo range lo potrai modificare in base al tuo progetto e alla capillarità di analisi da mettere in campo!

screaming frog immagini duplicate

2. Regola la sezione di contenuto da analizzare

Anche per questa task Screaming Frog è molto flessibile e ti permette di scegliere il focus su cui porre l’attenzione nella ricerca di contenuti duplicati o simili.

La configurazione standard di Screaming Frog esclude automaticamente gli elementi della <nav> e del <footer> e si basa sul corpo principale ma puoi personalizzare l’analisi includendo o escludendo specifici tag HTML, classi o ID in base al tuo progetto. 

sezione contenuto da analizzare di Screaming Frog

3. Crawlera il tuo sito web.

4. Consulta i risultati e rispettive similarità nella tab “Content” della finestra superiore del Seo Spider utilizzando come filtri “Exact Duplicates” e “Near Duplicates”.

Maggiori dettagli li trovi nella finestra inferiore sulla tab “Duplicate Details”.

duplicazione filtri in Screaming Frog

5. Esporta i risultati da: Bulk Export>Content>Near Duplicates

esportazione risultati in Screaming Frog

Non abbandonare le tue pagine in un’isola deserta

Le “Orphan Pages” rappresentano le pagine che non ricevono alcun collegamento interno ma, nonostante questa condizione, sono presenti in Serp grazie a Link esterni che le hanno portate all’attenzione del Motore di Ricerca.

Questo scenario è molto comune dopo una migrazione e deve essere gestito attraverso un reindirizzamento, uno status code 410 (Gone) oppure una modifica dell’Internal Linking.

Per scoprire se anche il tuo sito web presenta questa anomalia ti basterà:

1. Scansionare la Sitemap XML del sito web: ‘Config > Spider > Crawl > Crawl Linked XML Sitemaps’ 

come scroprire le pagine orfane in Screaming Frog
2. Connettiti tramite API a Google Analytics per monitorare il “Traffico Organico” e a Google Search Console
come monitorare il traffico organico in Screaming Frog
schermata analytics come monitorare traffico organico
3. Scansiona il sito web e raccogli i dati abilitando la Crawl Analysis
come scansionare il sito in Screaming Frog

Un’immagine vale più di 1000 parole

Google pone molta attenzione alle immagini e grazie all’intelligenza artificiale riesce a decifrare il contenuto intrinseco dell’immagine stessa.
Un fattore che influenza le valutazioni del Motore di Ricerca è l’attributo “Alt Text” o testo alternativo, ritenuto vitale per aumentare l’accessibilità web agli ipovedenti e non vedenti.

La mancanza di questo attributo può far ignorare completamente l’immagine da parte di Google e rendere inutili i tuoi sforzi nel migliorare il posizionamento.

Scopriamo quindi come identificare le risorse che mancano di questo elemento in pochi passi con il Seo Spider:

1. Dal menu Spider > Crawl abilita la scansione e il salvataggio delle immagini.

2. Avvia la scansione e consulta la tab “Images” dove troverai tutti i dettagli con gli indirizzi relativi, le dimensioni in termini di peso (Size) e il numero di link IMG di origine. 

come identificare le immagini senza Alt Text in Screaming Frog

3. Seleziona una o più URL nella finestra superiore della Tab e clicca sulla scheda “Images Details” in basso, in questo modo otterrai i dettagli sulle pagine di origine (colonna From – l’URL ‘da’) e il corrispettivo Alt Text

4. Concludi la tua analisi selezionando i filtri “Missing Alt Text” o “Missing Alt Attribute”.
come identificare le immagini senza Alt Test in Screaming Frog
5. Esporta i dati da: Bulk Export > Images > Images Alt Attribute & Text Inlinks
come identificare immagini senza attributo in Screaming Frog

Attentə a non ingrassare

Google è molto attento alla linea dei siti web e li vuole belli in forma e performanti. Per questo motivo attraverso il programma di allenamento chiamato Web Vitals sta mettendo a dura prova tutti i Seo e Dev.

Basta carboidrati risorse non utilizzate nel codice, basta zuccheri tempi di caricamento lenti e maggiori performance. Tra i vari indicatori della bilancia di Google c’è il parametro LCP (Largest Contentful Paint) che coinvolge anche le immagini e video presenti sul sito.

Per questi motivi una dieta bilanciata delle immagini con ottimizzazione della “size” è fondamentale per superare il test bikini per il Motore di Ricerca.
Controllare il peso delle tue immagini con Screaming Frog è molto semplice.

1. Dal menu:
a) Spider > Crawl abilita la scansione e il salvataggio delle immagini;
b) Spider > Extract abilita “Page Size”.

2. Visualizza i risultati del Crawl nella tab “Images”. Cliccando sull’header della colonna Size potrai ordinare le immagini in base al peso espresso in Kb.

3. Esporta le immagini da Bulk Export > Images > Images Over X Kb Inlinks o tramite la funzione “Export”.

La prigione del file ROBOTS.TXT

L’errore più comune che un Seo deve sempre verificare per primo! Mi capita sempre più spesso di imbattermi in aziende che mi chiedono: “Perché da quando abbiamo pubblicato il nuovo sito web siamo scomparsi dalla Serp di Google?”.

I motivi possono essere molteplici ma il primo controllo che faccio è quello sul file robots.txt. Molte volte il sito in staging va a sostituire il sito “live” ma il dev o seo si dimentica di aprire le porte a Google.

User-agent: *
Disallow: /

Queste maledette due righe, che in fase di sviluppo ti hanno permesso di evitare le scorribande dello spider dei Motori di Ricerca, se non vengono gestite bloccheranno inesorabilmente la scansione allo Spider.

User-agent: *
Disallow:

Questa condizione è la più comune ed estrema ma può sempre capitare che non tutto il sito sia influenzato ma solamente delle sezioni specifiche.
Per controllare quali risorse vengano bloccate dal file Robots.txt puoi avviare la scansione con il Seo Spider e consultare la Tab “Response Code” applicando il filtro “Blocked by Robots.txt”.

 

Conclusioni

Di consigli Seo “Non Richiesti” e gestibili con Screaming Frog ce ne sarebbero a centinaia, non ti resta che chiedere a Camilla e allo staff di Humans Agency e iscriverti al mio canale Youtube:
https://www.youtube.com/channel/UCzBajW55HKsufgeWSzsPgoA
Raffaele Visintin, Seo Specialist e founder di Screamingfrog.club, la prima community italiana dedicata a Screaming Frog.

Ricevi i contenuti più rilevanti sul marketing digitale direttamente nella tua posta.

You have Successfully Subscribed!