Google Avverte: I Parametri URL Creano Problemi di Crawling
Gary Illyes di Google ha recentemente messo in guardia riguardo ai problemi causati dai parametri URL, che possono portare a inefficienze nei crawler, in particolare per i siti di e-commerce.
Durante un episodio del podcast "Google’s Search Off The Record", Illyes ha spiegato come i parametri possano generare un numero infinito di URL per una singola pagina, complicando il lavoro dei crawler dei motori di ricerca.
Questi parametri, sebbene possano portare allo stesso contenuto, non sono facilmente riconoscibili dai crawler senza che questi visitino ogni singolo URL, il che può portare a un uso inefficiente delle risorse di crawling e a problemi di indicizzazione.
I siti di e-commerce sono i più colpiti da questa problematica, poiché spesso utilizzano i parametri URL per tracciare, filtrare e ordinare i prodotti.
Ad esempio, una singola pagina di prodotto potrebbe avere molteplici variazioni di URL per diverse opzioni di colore, taglie o fonti di riferimento.
Illyes ha sottolineato che l'aggiunta di parametri URL rende il crawling molto più complicato, poiché ogni variazione deve essere considerata.
Google ha affrontato questo problema per anni e in passato ha offerto uno strumento per i parametri URL nella Search Console, che aiutava i webmaster a indicare quali parametri erano importanti e quali potevano essere ignorati.
Tuttavia, questo strumento è stato dismesso nel 2022, lasciando alcuni esperti SEO preoccupati su come gestire la questione.
Sebbene Illyes non abbia fornito una soluzione definitiva, ha accennato a possibili approcci.
Google sta esplorando modi per gestire i parametri URL, sviluppando algoritmi per identificare URL ridondanti.
Ha suggerito che una comunicazione più chiara da parte dei proprietari dei siti riguardo alla loro struttura URL potrebbe essere utile.
Inoltre, ha menzionato che i file robots.txt potrebbero essere utilizzati in modo più efficace per guidare i crawler, evidenziando la flessibilità di questo strumento.
Questa discussione ha diverse implicazioni per la SEO.
Per i siti di grandi dimensioni, gestire i parametri URL può aiutare a conservare il budget di crawling, assicurando che le pagine importanti vengano esplorate e indicizzate.
Gli sviluppatori potrebbero dover riconsiderare come strutturano gli URL, in particolare per i grandi siti di e-commerce con numerose variazioni di prodotto.
I siti di e-commerce che utilizzano la navigazione a faccette dovrebbero prestare attenzione a come questo impatta sulla struttura degli URL e sulla loro indicizzabilità.
L'uso di tag canonici può aiutare Google a comprendere quale versione dell'URL dovrebbe essere considerata primaria.
In sintesi, la gestione dei parametri URL rimane una questione complessa per i motori di ricerca.
Google sta lavorando su questo aspetto, ma è fondamentale monitorare le strutture URL e utilizzare strumenti per guidare i crawler.
Gli esperti SEO dovrebbero rimanere vigili e adattare le loro strategie per affrontare queste sfide.
Data: 2024-08-09
Source: https://www.searchenginejournal.com/google-warns-url-parameters-create-crawl-issues/523982/