I siti veloci hanno ranking migliori? Macché, è una bufala!

Tartaruga

Nel 2010 il blog ufficiale di Google dedicato ai webmaster ha pubblicato un post che annunciava che la velocità dei siti era entrata a far parte dei segnali valutati per stabilire l’ordine dei risultati delle SERP.

Il post possiede alcune caratteristice “inusuali”, come vi mostrerò in seguito, e sopratutto rimane estremamente generico nello spiegare in che modo le prestazioni dei siti influiscono sulla loro posizione.

In particolare, il termine inglese usato nel post per fare riferimento al nuovo segnale è “speed” e non “performance”. E’ mio parere che usando la parola “speed” diversi lettori siano stati indotti a credere che, a parità di altri fattori, ad ottenere posizioni migliori fossero i siti più veloci.

Non è così. Nell’articolo sulle “10 nuove cagate SEO” avevo accennato all’argomento ma adesso vi fornirò la spiegazione dettagliata.

L’annuncio ufficiale

L’articolo che introduceva ufficialmente il segnale della velocità tra i fattori di ranking è stato pubblicato nel 2010. In esso si dice che il parametro della velocità è stato aggiunto, seppure in misura poco influente, tra quelli che determinano la posizione dei risultati nelle SERP.

Se siete abituati a seguire le affermazioni di Google sui blog ufficiali, saprete già che a volte la comunicazione è poco chiara perché, nel tentativo di non scendere nei dettagli, corrono il rischio di produrre affermazioni ambigue e potenzialmente fuorvianti.

L’affermazione ufficiale sull’introduzione del nuovo segnale è: “Like us, our users place a lot of value in speed — that’s why we’ve decided to take site speed into account in our search rankings.“.

Il problema con questa affermazione è che “take site speed into account” è una frase paurosamente generica che non spiega assolutamente nulla; può significare tutto ed il contrario di tutto.

Da un lato la scelta della parola “speed” è stata infelice, dall’altro l’espressione “taking in account”, cioè “tener conto”, non spiega affatto in che modo la velocità viene tenuta in considerazione. Il mix micidiale di “speed” e “tener conto” ha sostanzialmente prodotto tre anni fa una generazione di SEO convinta che la caratteristica premiata nelle SERP fosse la velocità.

Relazioni con AdWords

Prima di analizzare le caratteristiche del post del 2010, è necessario dare un’occhiata al contesto in cui l’annuncio è avvenuto, ovvero circa due anni dopo l’introduzione del segnale della velocità delle landing page nel quality score di AdWords.

Io convengo con Francesco Tinti sul fatto che a volte AdWords è precursore nello stabilire quali segnali potrebbero un giorno essere presi in considerazione anche nei ranking organici. Più nel dettaglio, sono dell’opinione che AdWords possa fare da apripista per tutti quei segnali più direttamente legati all’esperienza dell’utente e all’usabilità delle risorse.

Non bisogna tuttavia commettere l’errore di dare per scontato che le motivazioni che spingono il team AdWords a considerare nuovi segnali di ranking delle inserzioni siano automaticamente valevoli anche per il Search Quality team riguardo il ranking organico.

Il fatto stesso che la velocità delle risorse sia stata adottata da AdWords nel 2008 e ben due anni dopo sull’organico dipinge uno scenario che lascia intendere che la cosa avesse molto più senso nel contesto pubblicitario e meno in quello dei risultati naturali.

Ulteriori impressioni sul fatto che il segnale della velocità avesse poco senso per l’organico emergono non appena si approfondisce l’analisi del post del 2010.

Prime perplessità

Innanzitutto, non è immediatamente chiaro perché dei centinaia di segnali che Google valuta per stabilire l’ordine delle risorse in SERP, tutti vengano sostanzialmente tenuti nascosti tranne uno, quella sulla velocità, che è stato invece enfatizzato con un post ufficiale.

E’ palese che le ragioni dietro al gesto non possono essere tecniche perché l’ambito in oggetto (cioè la pubblicazione di un post) è quello della comunicazione.

Una seconda considerazione la faccio sulla cautela con la quale gli annunci stessi sono stati fatti, sottolineando più volte sia sul blog ufficiale sia sul blog di Matt Cutts sia su un video correlato che l’effetto del segnale sarebbe stato minimo e difficilmente percepibile. Per di più, al momento della sua introduzione la novità si applicava solo alle ricerche in lingua inglese e solo se fatte su Google.com.

(a proposito, io ricordo che il segnale sia stato successivamente reso globale, ma magari la memoria fa cilecca e comunque non trovo alcun aggiornamento ufficiale in tal senso. Se avete da segnalare una fonte, ve ne sarei grato.)

Questa immediata precisazione sulla reale influenza del nuovo segnale non è coerente con il fatto stesso che gli sia stato dedicato un annuncio sul blog ufficiale.

Le motivazioni reali

La necessità di ridimensionare l’importanza di una novità contestualmente alla sua introduzione al pubblico nasce dal bisogno di conciliare le esigenze di due teste differenti.

La prima testa è rappresentata da Larry Page, che da anni spinge affinché il web diventi sempre più veloce e che, forte dell’esperienza positiva sull’introduzione della velocità tra i fattori del quality score di Adwords, ha interesse ad incentivare gli sviluppatori a farsi scrupolo delle prestazioni dei propri siti e della soddisfazione degli utenti.

La seconda testa è rappresentata dal team del Search Quality, che si ritrova tra le mani la patata bollente di dover ottemperare alle pressioni del capo implementando un nuovo segnale che di per sé non avrebbe molto senso utilizzare, ma che per ragioni di evangelizzazione (se non di propaganda) sono costretti ad aggiungere al minestrone. Per queste ragioni lo fanno cercando di limitare i danni, ovvero lo applicano in modo lieve e aggiungendo mille precisazioni sul fatto che non cambierà molto le cose.

Tra tutte le novità e i miglioramenti valutati e introdotti dal Search Quality Team nel corso degli anni, sicuramente l’inclusione della velocità dei siti tra i segnali di ranking non è un’iniziativa nata spontaneamente dalla volontà del team di proporre risultati migliori agli utenti.

Al contrario, la spinta iniziale è arrivata da una direttiva esterna e superiore. Di conseguenza, il team ha prima misurato se la modifica avrebbe apportato benefici alla qualità delle SERP e preso atto che il miglioramento esisteva (seppure in misura lieve) è riuscito a giustificare agli utenti e al mondo l’introduzione del nuovo segnale, che è stato strombazzato a destra e manca per evangelizzare ed incentivare.

La cosa figa è che questa conclusione non è una mia congettura ma la semplice concretizzazione di una previsione fatta dallo stesso Matt Cutts quando ancora il segnale della velocità non aveva influenza sulle SERP. In un video Cutts infatti ipotizzava che una sua introduzione tra i segali di ranking poteva essere un modo per “incoraggiare la gente a velocizzare i propri siti” (“incurage the people to make their sites faster”).

Asino che mangia una carotaAlla faccia della strumentalizzazione dei fattori di ranking, ridotti a carote motivazionali da posizionare di fronte agli asini. Consideriamoci fortunati che non siano state posizionate dietro.

L’unico tassello che manca al puzzle è in che modo il team del Search Quality ha limitato i danni ed implementato il nuovo segnale sulla velocità dei siti. La risposta è arrivata la scorsa settimana e dimostra che i siti più veloci non ricevono benefici.

La risposta ufficiale di Matt Cutts

La scorsa settimana (scrivo nel giugno 2013) Matt Cutts è stato ospite di SMX Advance e, tra le altre cose, ha anche fornito una risposta diretta alla domanda riguardo l’influenza della velocità dei siti sul ranking delle risorse.

Danny Sullivan ha letto una domanda dalla platea, riassumendola alla fine con un’affermazione alla quale rispondere con vero o falso: “Fast sites rank better.”

Risposta di Matt Cutts: “Slow sites rank worst. So you… [risate dalla platea] No, I’m being very precise. If you run a fast site, that’s great for your users, great for ROI, fantastic, you should pay lot of attention to cash in cache and all this sort of stuff but you don’t get a boost for it. It’s the sites that are outliers in terms of being really slow that rank lower.”.

Includo di seguito il video completo che, nonostante sia di qualità tecnica orrenda, contiene più di un’affermazione interessante da parte di Matt Cutts. La frase citata la trovate al minuto 46:25.

Riassumendo, non c’è un vantaggio per i siti veloci, c’è solo una svalutazione dei siti eccessivamente lenti.

Le persone che hanno riso dalla platea hanno probabilmente creduto che la precisazione di Matt (i siti veloci non rankano meglio ma i siti lenti rankano peggio) fosse una questione di lana caprina o una battuta, invece quella precisazione fa la differenza tra quali siti vengono influenzati nei ranking e quali no.

Questo è anche il modo in cui gli ingegneri del team Search Quality hanno limitato i danni in fase di implementazione della direttiva di Larry Page: non hanno realmente premiato i siti più veloci ma ridotto la visibilità di quelli eccessivamente lenti. In questo modo hanno evitato il rischio di sfavorire accidentalmente i siti di qualità maggiore ed hanno focalizzato il raggio di influenza del nuovo segnale ai siti troppo lenti e presumibilmente coincidenti con una qualità globale minore. Detto in altri termini, il nuovo segnale ha effetto su siti la cui poca visibilità sulle SERP non costituisce un grosso problema per gli utenti.

Vale la pena di spiegare meglio.

Come funziona un segnale di ranking

In fase di ranking, tutti i motori di ricerca hanno bisogno di ordinare le risorse nel modo più veloce possibile.

Il modo più semplice per raggiungere questo obiettivo è quello di prendere in esame tutti i segnali riguardanti una risorsa (ciascuno dei quali è rappresentato da un semplice valore numerico) e moltiplicarli tra loro per ottenere un valore globale dell’attinenza della risorsa alla query dell’utente. Questo valore viene calcolato per ciascuna risorsa.

Alla fine di questo processo i risultati vengono presentati semplicemente ordinando tutte le risorse in base al loro valore di attinenza, dal maggiore al minore.

L’uso di una semplice moltiplicazione ha grandi vantaggi, perché se si vuole rendere un segnale poco significativo per il ranking è sufficiente impostare il suo valore ad 1 nella stragrande maggioranza del casi. Siccome una moltiplicazione per 1 non cambia in nessun modo il valore di partenza, impostare un segnale ad 1 equivale a renderlo ininfluente. Per la stessa ragione, un segnale maggiore di 1 contribuisce a far salire la risorsa nelle SERP e un segnale minore di 1 contribuisce a far scendere la risorsa nelle SERP.

La precisazione di Matt Cutts secondo la quale i siti veloci non ricevono una spinta ma i siti lenti tendono a posizionarsi peggio significa che il segnale della velocità è impostato sempre ad 1 per i siti veloci, ma che il suo valore scende sempre più sotto 1 via via che aumenta il numero di secondi che l’utente deve attendere per ricevere la risorsa.

Per darvi l’idea della curva seguita dal segnale della velocità accludo un semplice grafico, i cui valori numerici sono del tutto campati in aria, e che quindi ha solo l’obiettivo di visualizzare in modo ultra-semplificato come Google non applica questo segnale ai siti veloci ma solo ai siti lenti.

Grafico che esemplifica l'influenza del segnale della velocità sul ranking delle risorse

In realtà i motori di ricerca più sofisticati usano metodi più complessi rispetto a quello descritto, ma il risultato è lo stesso: un segnale può essere reso influente solo sul sottoinsieme di siti che rappresentano i casi-limite.

Conclusioni. Qualcosa sta cambiando?

Posto che l’enfasi a migliorare l’esperienza dell’utente e le prestazioni dei siti rimane in senso generale, a cominciare dai dipendenti di Google che evangelizzano gli sviluppatori di siti e applicazioni web, il fatto che Matt Cutts abbia precisato che i siti veloci non ricevono vantaggi di ranking è un passo che a mio parere prende le distanze dalla comunicazione generica, fumosa e fuorviante che è stata proprinata agli utenti attraverso il post ufficiale del 2010.

Sempre riguardo il tema della velocità dei siti ho anche notato la scomparsa dall’apposita pagina di FAQ AdWords dei paragrafi di testo che affermavano l’influenza della velocità dei siti sul quality score. La pagina arrivava a specificare anche dettagli tecnici, che il team AdWords mi dice essere stati rimossi per semplificare la risposta, tuttavia dalla pagina sono stati rimossi anche tutti i riferimenti al fattore della velocità, che rimane citato in un paio di altre pagine ma che non possiede più dei paragrafi dedicati.

Da questi cambiamenti non sono in grado di dedurre alcunché ed ogni ipotesi produrrebbe solo speculazioni non confermabili, pertanto mi sono limitato a segnalarvi questi cambiamenti.

Sul fatto che il sottoscritto percepisca personalmente una parziale retromarcia, o perlomeno la volontà di non enfatizzare più i benefici del fattore velocità per i ranking organici e AdWords, comunque non ci piove.

Credits

L’immagine della tartaruga è di Jonathan Zander,
l’immagine dell’asino è di Clay Junell.

P.S.
Pensavo che sarebbe interessante parlare di argomenti simili in qualche evento. Giusto per dire.

54 Responses to I siti veloci hanno ranking migliori? Macché, è una bufala!

  1. Pierpaolo scrive il 18 June 2013 at 04:27

    Matt Cutts: “Slow sites rank worst. So you… [risate dalla platea] No, I’m being very precise. If you run a fast site, that’s great for your users, great for ROI, fantastic, you should pay lot of attention to cash in all this sort of stuff but you don’t get a boost for it. It’s the sites that are outliers in terms of being really slow that rank lower.”.

    Con tutto il rispetto per il tuo lavoro e la tua professionalità, forse potevi rendere l’articolo più breve, se non limitarlo addirittura a quella frase. Sarà deformazione professionale (gestisco un quotidiano), ma la lunga introduzione con questioni sull’evangelizzazione e le carote si potrebbero evitare.

    Poi il sito è tuo e ci fai/scrivi quello che ti pare.

    Commentavo..

    • LowLevel scrive il 18 June 2013 at 06:13

      @Pierpaolo

      forse potevi rendere l’articolo più breve

      Sicuramente, ma per raggiungere quale obiettivo? Io sono d’accordo con te: dandosi l’obiettivo di fornire la semplice notizia, tutto può essere ridotto al testo che hai citato o persino ad una frase ancora più corta. Ancora di più, potevo twittare “Matt Cutts dice che i siti veloci non ricevono vantaggi sulle SERP ma che i siti lenti vengono sfavoriti”.

      Tuttavia il ruolo di informatori SEO sulle notizie più recenti è già coperto (e anche molto bene) da altre fonti italiane ed estere, pertanto ho deciso di sfruttare questo blog personale per fornire anche e sopratutto considerazioni mie, di dare evidenza ai fili logici che seguo per arrivare ad una conclusione e di mostrare lo svolgersi di storie che, come quella discussa nel presente post, iniziano diversi anni prima e si sviluppano nel corso del tempo. Il risultato è che diversi miei post sono chilometrici ed incredibilmente prolissi.

      Mi rendo conto che non è un prodotto da consumare velocemente, ma così come me ne rendo conto io mi aspetto che se ne renda conto anche il lettore. Da un lato esiste da parte mia una forma di soddisfazione nell’osservare alcune persone che decidono di soffermarsi nonostante la prolissità e dall’altro esistono persone che sono disposte a perdere un po’ di tempo su queste pagine perché nel corso del tempo hanno apprezzato anche le considerazioni da due soldi che ci aggiungo di mio.

      A volte scrivo articoli interamente composti da considerazioni personali, che per propria natura sarebbero insensati se l’obiettivo fosse quello di fornire una notizia, ma che acquisiscono una ragion d’essere se vengono inquadrati nel contesto più ampio, cioè che a volte un po’ di “cibo per la mente” può essere scovato anche nel fare ragionamenti assieme. Anzi, ti dirò di più, i post che mi hanno dato le soddisfazioni maggiori sono proprio quelli che hanno ricevuto condivisioni in cui si diceva “E’ un po’ lungo ma ne vale la pena.”.

      E ovviamente anche questo commento è volutamente prolisso, un po’ per liquefarti simpaticamente le balle ed un po’ per rimarcare ulteriormente la linea divisoria tra due target molto diversi, che prendono posto dall’una o dall’altra parte della riga a seconda delle proprie preferenze nei confronti del tipo di blog che ho deciso di realizzare. Sicuramente avrei potuto scrivere un articolo molto più corto e col solo obiettivo di fornire la notizia, ma solo se l’avessi scritto per un quotidiano con obiettivi di pageview, magari facendo attenzione a rimanere appena sopra la soglia della quantità di testo minima pretesa da Google News.

      Anzi, mi hai fatto ricordare che devo aggiungere all’elenco dei post potenziali un articolo su Google News. Ecco, vedi? Se ti avessi risposto con una riga non mi sarebbe venuto in mente. Grazie anche per questo. :)

    • Pierpaolo scrive il 18 June 2013 at 17:18

      @LowLevel: ahahahahaha quando ho visto la lunghezza del commento ho pensato “non ce la può fare, è più forte di lui”.

      Senti, ma scrivilo sto articolo su Google News, anzi, scrivi pure 1-2 libri, anche di 2000 pagine l’uno, ti prego, me li leggo dalla prima all’ultima pagina :)
      (parlo seriamente. certo, se poi potessi evitare un 100-200 pagine di carote e cetrioli sarebbe meglio, ma accetterei lo stesso visto l’interesse per l’argomento..)

      (in realtà per chi sta nel mio settore sono più utili libri sul giornalismo che su google news.. molti giornali online non l’hanno capito.. ma anche google news è un argomento moooooooooolto interessante :) )

  2. niguli scrive il 18 June 2013 at 07:27

    Tralasciando la bontà di quanto scritto nell’articolo, io invece gradisco articoli di questo tipo, volutamente lunghi ed esplicativi, approfonditi. Al giorno d’oggi sono rimasti in pochi quelli che scrivono così anziché scrivere 2 righe superficiali sul social network di turno. Per me bene così dunque!

  3. Andrea scrive il 18 June 2013 at 14:28

    Ciao Enrico, è sempre un piacere leggere i tuoi articoli!
    Durante lo sviluppo una web application applico molte delle best practices consigliate dalla disciplina delle Web Performance Optimization e lo faccio per dare un vantaggio all’utente in termini di miglioramento della user experience.

    In merito al fattore velocità, ho sempre nutrito dei dubbi sul “peso” all’interno dell’algoritmo anche perché il comunicato ufficiale di Google è stato volutamente vago.
    Alcune domande frutto del buonsenso,
    Di che velocità si sta parlando?
    Velocità percepita dall’utente (=document.ready) o velocità del server nel restituire il codice html (o le risorse in genere)?
    Come potrebbe fare Google a valutare in modo oggettivo (visto che ritengo l’oggettività essere un requisito indispensabile per un fattore di ranking) la velocità di un sito?
    Visto che la velocità può dipendere dal grado di congestione della rete, dal carico del server (che solitamente varia in base al numero di visitatori contemporanei ecc), dalla locazione del server e da tanti altri fattori e visto che lo spider non passa necessariamente lo stesso giorno alla stessa ora sulle stesse pagine risulta difficile ipotizzare un metodo di valutazione oggettivo. Diversamente siti con poco traffico, o con cdn o con super server o semplicemente scansionati in orari non di punta sarebbero avvantaggiati rispetto a competitors molto più meritevoli ma con infrastrutture meno adeguate.
    Se invece la velocità misurata fosse quella percepita dall’utente, Google dovrebbe probabilmente ricorrere ad una misurazione “lato client” tramite browser (sto pensando ad esempio ad una toolbar o a un hidden feature di chrome) oppure utilizzare un headless browser. Nel primo caso i dati potrebbero essere inefficiati dalle attività cpu intensive del client così come dalla congestione della rete (es. velocità adsl) mentre nel secondo ovvero headless browser, si riproporrebbero parte dei problemi esposti sopra senza considerare la potenza di calcolo necessaria per effettuare questa valutazione. Non ho nemmeno preso in considerazione Google Analytics in quanto la sua presenza non è obbligatoria sui siti, di default traccia il tempo di caricamento della pagina del 10% degli utenti, può non essere integrato su tutto il sito ecc…

    Credo quindi che l’unica strada percorribile sia stata quella di stabilire dei valori soglia (più lento di X secondi) per determinare un eventuale diminuzione del punteggio di ranking.
    Probablmente non ce ne sarebbe nemmeno stato bisogno in quanto già dal bounce rate rilevabile dalla serp è possibile ottenere informazioni significative (Gli utenti scappano perchè la pagina impiega troppo tempo a caricarsi)

    Scusa il papiro, ma anche a me piace scrivere e dettagliare le mie opinioni :)

    Alla prossima

    • LowLevel scrive il 18 June 2013 at 21:56

      @Andrea: Ciao, Andrea. :) La velocità viene misurata lato client principalmente attraverso le toolbar installate sui browser.

      Come hai fatto notare tu, anche questo tipo di metodo va implementato tenendo conto che i tempi di ricezione e rendering di una pagina possono dipendere anche o sopratutto dalla lentezza delle connessioni degli utenti. Tuttavia Google ha l’obiettivo di misurare quanto il sito è fruibile da utenti reali e quindi chi progetta i siti dovrebbe farlo prendendo in considerazione anche la velocità media delle connessioni degli utenti target.

      Matt Cutts fornisce proprio alcuni dettagli in proposito in questo video di un paio di anni fa.

      Grazie per la domanda, che mi ha dato modo di segnalare questo ulteriore video di approfondimento. :)

  4. cristina scrive il 18 June 2013 at 17:54

    se fosse stato più breve, sarebbe stato anche meno interessante perchè privo, come suggerisci nel liquefacente commento, dei percorsi logici che portano alle conclusioni
    insomma una carota motivazionale per arrivare in fondo

    e, a proposito: ‘sto Clay Junell fa anche delle gran belle foto

  5. Giacomo Pelagatti scrive il 18 June 2013 at 22:00

    Solo un paio di note:

    Prima che decidessero di segarlo, in GWT (Google Webmaster Tools) c’era un report sulla velocità del sito. Stava sotto “Funzioni sperimentali > Prestazioni del sito”. Quel report era un grafico che mostrava la velocità media di caricamento delle pagine del sito misurata da Google. Nel grafico c’era una linea orizzontale, al di sotto della quale appariva la didascalia “LENTO”. Quella linea era in corrispondenza del ventesimo percentile dei siti più lenti fra quelli misurati da Google. La scelta di evidenziare se la velocità del sito si collocava sopra o sotto il 20mo percentile dei siti più lenti del Web, e non di quelli più veloci, avrebbe dovuto suggerire una riflessione ai SEO. Anche la scelta di usare un percentile come soglia, e non un valore assoluto, avrebbe dovuto suggerire una riflessione ai sovente poco riflessivi SEO. E qui mi fermo.
    you should pay lot of attention to cash in all this sort of stuff: io concordo, però la frase di Cutts è in realtà you should pay lot of attention to cache and all this sort of stuff. 😉

    • LowLevel scrive il 18 June 2013 at 22:10

      @Giacomo: grazie per i contributi e la correzione. :)

  6. Giacomo Pelagatti scrive il 18 June 2013 at 22:17

    Grazie a te per il post. Ero convinto che nei commenti di WordPress si potessero usare anche i tag ol e li, e invece ricordavo male.

  7. Giacomo Pelagatti scrive il 18 June 2013 at 22:23

    Ricordavo male anche a proposito di un’altra cosa: la didascalia “LENTO” appariva nel grafico in GWT al di sopra della soglia, e non al di sotto (l’asse verticale del grafico riportava infatti i tempi di caricamento in secondi). Ricordavo però bene sulla posizione della soglia. Ho pubblicato uno screenshot vintage qui, a futura memoria SEO: http://postimg.org/image/glx7xxl7f/

  8. Giacomo Pelagatti scrive il 18 June 2013 at 22:30

    Ehm, osservando meglio il grafico mi rendo conto che ricordavo malissimo: la linea di separazione era in corrispondenza del 20mo percentile dei siti più veloci. Chiedo scusa, fate conto che non abbia scritto nulla. La prossima volta non andrò a memoria. :(

    Resta valida la considerazione che quella misurata da Google è una velocità relativa, e che penalizzare in visibilità i siti più lenti equivale di fatto a premiare i siti più veloci (o meno lenti, che dir si voglia). 😉

  9. Giacomo Pelagatti scrive il 18 June 2013 at 23:11

    I miei commenti fallaci di SEO smemorato, nei quali invitavo i SEO a riflettere, hanno indotto in me una riflessione. 😀

    La riflessione/ipotesi è la seguente:

    – assumendo (assunzione sulla quale personalmente concordo, un po’ col senno di poi ed un po’ con quello di prima) che Google non abbia mai associato alla maggior velocità relativa di un sito un boost diretto in termini di ranking, e che tale boost fosse in realtà indiretto (ossia derivante da altri segnali influenzati dalla velocità del sito e dalla qualità dell’esperienza utente in generale);

    – assumendo anche che esista, e sia sempre esistita (ed anche su quest’assunzione personalmente concordo), una moderata penalizzazione associata ad un’eccessiva lentezza relativa (le parole chiave qui sono gli aggettivi);

    – e sapendo che, analogamente a quanto avviene nel sistema ad aste di AdWords, nel quale a parità di Quality Score (punteggio nel quale rientra anche la qualità della pagina di atterraggio, la rilevanza dell’annuncio rispetto ai termini di ricerca dell’utente, nonché la pertinenza fra annuncio e landing page) un annuncio deve pagare un CPC più alto per essere visualizzato in una posizione più alta, anche i risultati organici sono ordinati (semplificando al massimo) in base ad un meccanismo simile, tale cioè che a parità di segnali di qualità (fra i quali può rientrare, come segnale negativo, l’eccessiva lentezza relativa) una pagina deve avere più risorse (ad es., PageRank) per avere più visibilità rispetto ad altre pagine che competono nella stessa SERP;

    Possiamo, secondo te/voi, ipotizzare che la soglia di eccessiva lentezza relativa al di sopra della quale viene applicata una moderata penalty di visibilità sia query-dependent, ossia calcolata non sull’intero corpus di pagine web nell’indice del motore, ma sul sottoinsieme di documenti rilevanti selezionati?

    Secondo me, possiamo. :)

  10. Giacomo Pelagatti scrive il 18 June 2013 at 23:32

    Volevo anche aggiungere una considerazione di tipo “dietrologico” sulle possibili reali motivazioni dietro l’iniziativa “Make the Web Faster” (https://developers.google.com/speed/).

    Personalmente credo che le cose siano andate più o meno così: qualche anno fa, un pezzo grosso del team AdWords va da Larry Page e gli dice “Ohi Larry, senti qua che storia: i nostri analisti hanno stimato se la velocità media dei siti web aumentasse dell’1% ogni anno nei prossimi cinque anni, i risultati in termini di maggiori ricavi per Google sarebbero questi [mostra un grafico]”.

    Tutto il resto è una conseguenza. 😉

    • LowLevel scrive il 18 June 2013 at 23:50

      @Giacomo: proprio oggi discutevo della potenziale natura query-dependent del fattore velocità con alcuni SEO e convengo sulla validità dell’ipotesi, anche perché ranking e soglie numeriche assolute non sono mai andati troppo d’accordo.

      Confesso che quando ho iniziato a scrivere l’articolo mi ero spinto a proporre una esplicita congettura sulla possibile influenza di “Google Money”, che coincideva sostanzialmente con quanto suggerito da te. Prima della revisione, le “due teste da conciliare” erano originariamente Google Money e Google Tech.

      Poi ho eliminato/modificato quella parte a seguito di una rilettura, perché non ho percepito sufficiente solidità nell’ipotesi, che poteva lasciare il posto alla più semplice spiegazione che ho poi pubblicato.

      Però sì, allontanandomi da ogni solidità deduttiva, ritengo che Google Money avesse un interesse a fare propaganda su un segnale farlocco ma influente sui risultati economici.

    • Daniela Trifone scrive il 21 August 2013 at 15:55

      Se ricordo bene GG offre anche qualche servizio a pagamento per rendere il web più veloce attraverso le proprie backbones – https://peering.google.com/about/index.html

      My 2 pence,
      Daniela

  11. Andrea scrive il 19 June 2013 at 00:09

    @Enrico: video interessante conferma in parte quanto avevo ipotizzato :)
    Vorrei condividere un mio pensiero riguardo al tema velocità: secondo me ha senso pensare che Google promuova la velocità del sito come ipotetico fattore di ranking anche per un altro motivo molto più pratico. Visto che:
    -la velocità del sito riguarda sia il server che il frontend
    -Solitamente chi vuol rendere un sito veloce pensa prima di tutto ad ottimizzare il server (erroneamente, visto che di solito l’80- 90% del tempo di caricamento della pagina è dovuto al frontend)
    – lo spider si trova ad avere a che fare “più spesso” con il server
    un sito più veloce (anche se solo di poco) è per Google un risparmio di tempo quindi di risorse e quindi di denaro.

    Sicuramente questa non è l’unica motivazione, però non penso nemmeno che la si possa scartare. Che ne pensi?

    • LowLevel scrive il 19 June 2013 at 00:54

      @Andrea: penso che Google faccia più soldi in modo più o meno proporzionale alla soddisfazione dei propri utenti, a cominciare dagli utenti delle SERP. Ritengo che introdurre un fattore di ranking basato sul risparmio economico immediato sarebbe poco logico, perché l’azienda si è sempre contraddistinta nel volere investire in attività anche dispendiose purché giustificate da ROI stimati molto alti nel lungo termine. La logica del risparmio motivato da ritorni economici immediati è distante dalla filosofia aziendale.

      Esistono anche considerazioni tecniche che mi inducono a credere che avrebbe poco senso introdurre un simile fattore di ranking:

      • I server che restituiscono le risorse più velocemente sono in realtà quelli sui quali gli spider amano passare più tempo, sia scaricando una quantità maggiore di risorse, sia andando più in profondità. Quindi, tecnicamente, più un sito è veloce e più la famelicità di Google indurrebbe i suoi spider ad investire più denaro nella sua perlustrazione.
      • Il fattore più importante che induce lo spider a perlustrare maggiormente un sito è in realtà il PageRank, la velocità di risposta del server è un fattore aggiuntivo ma non il principale (a meno che il sito non sia davvero lento).
      • I software che si occupano della spiderizzazione e che richiedono una risorsa ad un sito lento non vengono comunque bloccati dalla lentezza di risposta del server, perché la quantità di richieste in parallelo per scandagliare continuamente l’intero web è presumibilmente enorme. Di conseguenza gli spider non riceverebbero comunque un danno (di tempo e quindi economico) dalla lenta ricezione di una risorsa da parte di uno specifico server.
      • Quando uno spider individua un sito molto lento a rispondere, decide comunque di ridurre la frequenza di scansione del sito anche per evitare di ingolfarlo di richieste che il sito non è in grado di evadere in tempi ritenuti accettabili. Quindi in realtà una minore dedizione ai siti troppo lenti esiste già, solo che si manifesta solo sul crawling (e comunque negativamente anche sulla quantità di risorse del sito che verranno indicizzate in un certo lasso di tempo).

      Riassumendo, sia il tipico approccio filosofico dell’azienda nei confronti degli investimenti sia alcune considerazioni tecniche mi inducono a pensare che l’introduzione di un fattore di velocità dei server per le motivazioni che hai dato non avrebbe molto senso.

  12. andrea scarpetta scrive il 19 June 2013 at 10:39

    io commento solo per dire che si può linkare direttamente un preciso instante dentro un link di youtube con questa sintassi 😀

    #t=2703s

  13. Seoer scrive il 19 June 2013 at 11:26

    Tutto bello quel che dici Enrico, ma forse come al solito c’e’ stato un errore di interpretazione da parte della generazione SEO che letti i primi due paragrafi si e’ buttato a capofitto nell’installare plugin per il caching e altre menate varie?

    Il concetto di fondo dell’ariticolo da te citato era questo

    “While site speed is a new signal, it doesn’t carry as much weight as the relevance of a page. ”

    Ovvero, sara’ si un fattore, ma non contera’ piu’ di tanto. Tuttavia (parte omessa) ricordati che un sito veloce migliora l’esperienza e quindi anche quello che ne consegue.

    Se io utente non devo attendere e ricevo risposte immediate, protraggo di piu’ la mia visita, ritorno sul sito anche in un secondo momento e via dicendo.

    Non vedo quindi il perche’ poi molti abbiano detto “sito veloce” = ranking migliore.
    Indirettamente i siti rimasti fuori dal cerchio prendeno un ranking migliore, perche’ esistono meno risorse da considerare per i primi posti.

    Il sapiente gioco di parole che viene usato in google non dovrebbe esser cosa nuova ai piu’ avvezzi.

  14. Good Shepherd scrive il 19 June 2013 at 11:29

    Complimenti per aver affrontato l’argomento ma boh, non so…

    Gestisco da anni una decina di siti che vivono di posizionamento naturale, tutte le volte che ho aumentato le prestazioni ho migliorato il ranking in modo piuttosto percettibile.

    Tutte le volte che ho avuto problemi (es. DOS), ne ho risentito.

    Credo che i concetti “sito veloce” o “sito lento” siano relativi alla competitività del settore e che varino nel tempo (in modo più esigente), l’essere sopra o sotto questa media relativa e variabile fa la differenza.

  15. Giovanni Sacheli scrive il 19 June 2013 at 13:26

    a me pare soltanto una questione di dialettica.

    dire che la velocità non incide sul posizionamento a mio modesto parere è ben diverso dal dire “se hai un sito veloce puoi rankare al massimo potenziale, se è lento sarai penalizzato”.

    la frase di MC all smx adv è molto chiara e non lascia spazio ad interpretazioni: “se sei lento ranki male.” La correlazione tra ranking e posizionamento è chiara, anzi chiarissima e non è una allusione.

    Il guru però sei tu quindi mi levo il cappello e non replico, tuttavia la penso in modo un po diverso :)

    • LowLevel scrive il 19 June 2013 at 14:02

      @Giovanni: (premettendo che mi guardo bene da passare per “guru”) io non ho scritto che il fattore della velocità non incide sul posizionamento, ho scritto che quel segnale è ininfluente per i siti veloci e, più precisamente, è influente solo su quelli eccessivamente lenti.

      Siccome diverse persone hanno creduto che la posizione di qualsiasi sito variasse in maniera più o meno proporzionale alla propria velocità, la precisazione che ho riportato è che il segnale non ha influenza su tutti i siti ma solo su alcuni.

  16. Salvatore Capolupo scrive il 19 June 2013 at 13:51

    Ciao Enrico, forse ti ricorderai di me da Google Plus (quasi cit. Simpson).

    Scherzi a parte, l’articolo conferma una cosa che avevo sospettato al tempo dell’uscita del mod_pagespeed, che per chi non lo sapesse è il modulo di Apache con cui Google suggeriva caldamente di ottimizzare i siti.

    Il problema è che, già all’epoca, ebbi il sospetto che fosse una cosa poco pratica da effettuare o addiritura una semplice, per quanto eticamente impeccabile, trovata commerciale per incoraggiare le persone a fare uso di quel modulo, che non si paga di suo ma richiede una VPS o un dedicato per funzionare (mica robetta da 5 euro al mese, insomma).

    Il grafico orientativo sul “cutoff” per cui i siti lenti sono “penalizzati” – scrivo così per sintetizzare – mentre a quelli veloci, citando una frase colorita, “je rimbarza”(cioè gli passa del tutto indifferente), schematizza l’idea che mi sono fatto in merito.

    E poi diciamolo: si velocizza una pagina web prima di tutto per non costringere l’utente a scappare via dal tuo sito, molto più brutalmente.

    “In realtà i motori di ricerca più sofisticati usano metodi più complessi rispetto a quello descritto, ma il risultato è lo stesso: un segnale può essere reso influente solo sul sottoinsieme di siti che rappresentano i casi-limite.” è da incorniciare :)

  17. Marco D'Amico scrive il 19 June 2013 at 15:58

    Ciao Enrico,
    io sono tra quelli che senza porsi troppe domande ha proposto e divulgato l’idea che la velocità potesse essere un fattore di ranking, proprio a seguito del post pubblicato su Google Webmaster Central.
    Nel 2010 non mi posi volutamente il problema se fosse la solita carota di Google oppure no, e in tutta franchezza nemmeno oggi mi importa granché. Penso anche che con il senno di poi sia pure facile dire che fosse un’idea bislacca già in origine.
    Non mi è mai importato confutare questo fattore perché la velocità è un requisito che va molto oltre alla SEO, in piena sovrapposizione a molte altre discipline di web marketing.

    Questa è una di quelle carote che il più delle volte fanno un gran bene.
    L’ipotesi che il load time di un sito web possa inficiare sulle conversioni convince sempre tutti, anche i clienti più a digiuno di web marketing. Tuttavia su alcuni progetti per abbattere i ritardi è necessario investire cifre importanti, magari nell’ordine di parecchie migliaia di euro in hardware (ricordo che le ottimizzazioni non sono solo software).
    Spesso proprio sui costi di ottimizzazione della velocità di load time mi sono sentito porre questa domanda: “a fronte di questo investimento quanto guadagneremo in termini di conversioni?”.
    La domanda ha sempre avuto ragione d’esser posta, peccato però che questa risposta non possa essere data prima di avere investito e ottimizzato. E’ a questo punto che ho potuto notare che la leva più forte che ha spinto diversi clienti a investire nel miglioramento della velocità è stata la carota (oggi lo dico anch’io che è una carota) di un miglior posizionamento medio.

    Per mia “fortuna” a fronte di questi investimenti hanno sempre vinto tutti:

    – gli utenti che hanno potuto godere di un sito più veloce (evitiamo questioni sulla percezione per farla più semplice);
    – i miei clienti che hanno ottenuto più conversioni e più pagine sottoposte a scansione (migliorando il ROI);
    – un Google più felice di scansionare più pagine e con maggiore frequenza (parlo pensando a siti di migliaia/milioni di pagine).

    Carota o meno, questa “bufala” danni non ne ha mai fatti.

    Ai fini SEO oggi possiamo sostenere che un basso load time non migliora il posizionamento medio, ma possiamo continuare a dire che per finalità di scansione e indicizzazione la velocità ricopre un bel ruolo, specie al crescere delle dimensioni del progetto.

    Sulla lunghezza dell’articolo invece non ho nulla da dire. :-)

    • LowLevel scrive il 19 June 2013 at 19:26

      @Marco: ciao, penso che la carota motivazionale abbia prodotto nel complesso più benefici che danni. Poi ognuno deve decidere per sé se “il fine giustifica i mezzi” e se è opportuno prospettare un vantaggio che in realtà non esiste pur di ottenere benefici su altri fronti. Ritengo comunque il tema un campo minato.

  18. Giacomo Pelagatti scrive il 19 June 2013 at 21:04

    Non posso non essere pienamente d’accordo con la sostanza del commento di Marco, col quale condivido la visione del web marketing che trascende il punto di vista SEO tradizionalmente inteso.

    Chissenefrega, alla fine, se la lentezza è o non è un fattore di ranking negativo: un sito lento è un sito che non funziona! Punto.

    Quindi la sua eventuale influenza, diretta o indiretta, sulla visibilità è, in realtà, un problema irrilevante, e come tale dovrebbe essere trattato anche dai SEO.

    Ben detto.

    • Luca Bove scrive il 19 June 2013 at 22:57

      Daccordo con Marco e con Giacomo, che in ogni caso la velocità del sito, così come altri aspetti, servono alla strategia complessiva della promozione di un progetto web. E non si discute.

      Ma è importante altresì cercare di associare cause ad effetti nelle singole tattiche. Ce ne dobbiamo quindi fregare proprio per svolgere un miglior lavoro.

      Importante quindi che Enrico abbia sollevato questo polverone, facendo comprendere meglio le correlazioni tra SEO e velocità del sito. Specificando ovviamente che in ogni caso dobbiamo fare siti più veloci.

  19. Marco D'Amico scrive il 20 June 2013 at 00:14

    @Enrico: dire oggi che la velocità di load time migliora il posizionamento medio è dire una palla bella e buona, e da consulente non approvo storture o bugie nemmeno a fin di bene. Averlo detto prima delle ultime precisazioni del vescovo era semplicemente in linea con le dichiarazioni di Google, confutate o no; il che, a mio avviso, non traduce la “bufala” in menzogna.

  20. Giacomo Pelagatti scrive il 20 June 2013 at 02:15

    Mestiere arduo, il SEO. :)

    Ci si trova a dover discernere fra informazioni discordanti, spesso fumose o fuorvianti, a volte volutamente, anche quando provenienti da fonti ufficiali.

    Tanto che in alcuni casi, per districarsi in mezzo ai casini e risolvere problemi complessi (forse solo apparentemente tali?), anziché insistere col ragionamento analitico è più utile affidarsi all’intuizione ed al buonsenso. Io l’ho fatto tante volte nel mio lavoro.

    Esattamente due anni fa, in un documento di analisi SEO redatto insieme al mio collega Maurizio Petrone (documento che credo Marco D’Amico conosca praticamente a menadito) scrivevo, al capitolo “Suggerimenti di ottimizzazione della performance web”:

    Un sito web veloce è apprezzato dagli utenti e valorizzato dai motori di ricerca. Infatti, i tempi medi di caricamento delle pagine di un sito possono influire grandemente sull’esperienza utente e, in quanto tali, sono in grado di influenzare indirettamente la sua visibilità sui motori di ricerca. Inoltre, da circa due anni, le metriche relative alla performance web sono entrate a far parte dei segnali di qualità presi in considerazione da Google e possono avere un’influenza diretta sul posizionamento.

    In alcune analisi successive avevo pure aggiunto alla fine di questo paragrafo un link con l’indicazione della fonte, che è il già citato post sul blog ufficiale di Google.

    Sono forse pentito, col senno di poi, di aver indicato ai miei clienti che avere un sito veloce fosse importante anche per la loro visibilità? Mi vergogno forse di aver creduto ad una “bufala”? No di certo, e perché mai dovrei? Quella era l’informazione che veniva data dalla fonte che più ufficiale non si può, ed io come tale l’ho inoltrata, prendendola per buona. Inoltre, i miei clienti che hanno applicato religiosamente il suggerimento di rendere il proprio sito più veloce a caricarsi hanno avuto un ottimo ritorno dall’investimento, allo stesso modo in cui altri clienti di altri SEO anche più sensibili del sottoscritto al tema della WPO ne avranno tratto un indubbio beneficio. E i loro utenti pure; anzi, più di tutti.

    Per cui, amici e colleghi, niente sensi di colpa, prego, giacché non è colpevole di menzogna chi ad una menzogna in buona fede crede e se ne fa portavoce. 😉

    Per concludere, qual è l’insegnamento che, a mio modesto parre, possiamo trarre dall’ennesima “montagna russa” informativa SEO? Che l’atteggiamento mentale più produttivo per chi opera in questo campo è probabilmente quello riassumibile coi motti di X-Files: “Believe Nothing; Question Everything; Trust No One”. (Scherzo, ma anche no).

    Low, se domattina sono assonnato è colpa tua, te lo dico! 😛

  21. Andrea scrive il 20 June 2013 at 09:30

    Il problema, a parer mio, è comunque questa natura sibillina che Google continua ad adottare, con Matt Cutts nel ruolo della Pizia.
    Sinceramente hanno superato il segno più volte da questo punto di vista. Io capisco la necessità di segretezza che richiede un asset così importante come il mare di algoritmi innovativi che hanno sviluppato intorno alla search, ma sta di fatto che questo modus operandi è alla base delle incomprensioni, dei self-entitlement di molti SEO, delle indicazioni lette male e interpretate peggio.
    Ibis redibis non googlieris in bello, insomma.
    E poi se proprio volessimo si portebbe parlare di come quella della search di Google sia una grave posizione dominante nella gestione della conoscenza, più che della semplice ricerca di contenuti, ma questo è argomento per altri dibattiti.

  22. Danilo Pontone scrive il 20 June 2013 at 14:35

    Ciao Enrico,
    intanto ti esprimo la mia solidarietà sul fatto di essere “prolissi” 😀
    Anche io ho questa specie di “malattia”, dimostrabile dal seguente commento :)

    Battute a parte volevo dare anche io il mio parere sul discorso velocità di un sito e suo presunto miglior ranking.
    Non aggiungo altro a tutti gli approfonditi aspetti tecnici di cui hai parlato tu ed anche Giacomo nei commenti qui sopra.
    Tuttavia voglio limitarmi ad una interpretazione più prettamente “linguistica” del linguaggio usato da M.Cutts.

    Quando lui nel video fa quella battuta ed il pubblico si mette a ridere, ha praticamente dato la risposta che tutti vorrebbero.
    Gli domandano: “siti veloci si posizionano meglio?”
    Lui sarcasticamente è come se rispondesse: si certo come no…e siti lenti si posizionano male.
    Come quando tra amici si scherza: “si certo…ed io sono uscito a cena con Belen Rodriguez”.
    Quindi Cutts sta in un certo qual modo dicendo che è una mezza cavolata pensare che la velocità possa far posizionare meglio un sito.

    Guardiamo la realtà dei fatti e si scoprono parecchie SERP, soprattutto nel turistico (settore di mia maggiore competenza), con siti che per caricarsi completamente ci mettono moltissimo tempo.
    Eppure stanno ben posizionati, sicuramente grazie a numerosi altri fattori di ranking che non sto a menzionare per non dilungarmi.
    E quindi? Se sono lenti non dovrebbero posizionarsi male rispetto al mio supervelocissimo sito? :)

    Il fatto della velocità di un sito è da intendere semplicemente come un modo per facilitare un’azione da parte di un utente.
    Se il sito è veloce e risponde rapidamente alle esigenze di un utente allora hai più possibilità di trasformarlo da semplice utente a cliente, oppure è più probabile e facile che l’utente vada a fare qualche sharing di pagina laddove il sito sia stato impostato in ottica social.
    Solo per effetto di un’azione di questo tipo moltiplicata n.volte x n.utenti se ne scaturisce un possibile miglioramento in SERP.
    Dico questa cosa perchè, faccio un esempio restando nel campo turistico, alle volte capita di trovare siti web di strutture alberghiere che creano delle fotogallery pesantissime.
    Sotto ogni singola foto viene inserito un social button per far condividere tali contenuti/immagini.
    Però tali pagine spesso non sono ottimizzate al meglio e le foto sono pesantissime e quindi difficili da caricarsi in pochi secondi, oppure i bottoni social non si caricano correttamente.
    E’ proprio qui che subentra il fattore velocità. Magari l’utente desiste, si arrende e tu hai perso una buona occasione di sharing e visibilità.
    E’ in tal senso che dovrebbe essere visto il discorso velocità: un sito veloce offra maggiore affidabilità e possibilità di condivisione da parte dei visitatori.
    Pensa se poi allacciamo il discorso velocità di un sito desktop alla velocità di un sito mobile in cui le risposte di caricamento delle pagine devono essere ancora più rapide.

    Non per niente inoltre, il discorso di caricamento delle pagine viene anche inserito in una ricca sezione di Google Analytics (sez. Contenuti > Velocità sito).
    Se in analytics ci viene permesso di vedere tali statistiche di velocità anche per ogni singola pagina, un motivo ci sarà no?!
    Sono dati da prendere con la massima cautela, però ci aiutano a capire che un sito ottimizzato lato performance di caricamento è meglio.
    Se non fosse importante allora da G.Analytics questa sezione potrebbero rimuoverla definitivamente.

    Per concludere vorrei dire una cosa per fare una precisazione anche sul tuo post precedente che forse non è stato colto in modo corretto.
    Se in giro viene detto che “un sito veloce si posiziona meglio” è una cavolata e allora possiamo annoverare la cosa tra le “10 cagate SEO”.
    Se invece si dice che “un sito veloce è meglio dal punto di vista dell’ottimizzazione ed usabilità per una serie di azioni positive (sharing, commenti, registrazioni, booking online, acquisti etc) che l’utente potrebbe compiere” allora è corretto ed è tutto un altro paio di maniche.

    Spero di essermi spiegato.
    Ciao Enrico scusa la lunghezza 😀
    Buon lavoro a te e a tutti :)

  23. Maurizio scrive il 21 June 2013 at 00:51

    Ciao Enrico,

    ti segnalo che dall’altro giorno Adsense mostra un pannello di suggerimenti nel proprio account.
    Tra i suggerimenti, una sezione è dedicata allo “Stato di salute del sito”, e una delle voci si chiama “Prestazioni velocità pagina”. All’interno, recita: “Abbiamo analizzato le prestazioni delle pagine con il numero più alto di richieste di annunci. Il potenziamento delle prestazioni del sito può offrire ai tuoi utenti un’esperienza migliore e generare un maggiore volume di traffico.”

    Il lato sfigato di Google Money è rimasto indietro rispetto al resto?

    P.s. comunque secondo me, Google ha fatto bene a promuovere l’ottimizzazione delle performance, indipendentemente dall’influenza sui ranking.

    • LowLevel scrive il 21 June 2013 at 02:04

      @Maurizio: Ciao, grazie dell’aggiornamento. :) Posso chiederti perché ritieni che quella frase indichi che AdSense sia rimasto indietro? Il maggior volume di traffico può essere inteso come il risultato dell’incremento del rapporto pageview/utente, che solitamente tende ad aumentare con il migliorare delle prestazioni del sito.

  24. Maurizio scrive il 21 June 2013 at 10:55

    Ciao Enrico,

    d’accordo, possiamo sicuramente leggerla così, oppure anche in senso più ampio, cioè nel senso che gli utenti tendono ad apprezzare (e quindi segnalare) i siti di qualità maggiore, e le prestazioni concorrono ad incrementare la qualità globale.

    Il punto è che mentre il resto di Google sta ponendo via via minore enfasi sul concetto di prestazioni, come giustamente hai notato tu, Adsense inizia adesso a battere il tasto. In tal senso, è in ritardo rispetto al resto.

    Ciao.

  25. Luca Scaggion scrive il 21 June 2013 at 16:49

    Ciao Enrico, complimenti per l’articolo, che personalmente condivido ma che, come era prevedibile visto l’argomento, sta dando luogo ad uno stimolante e vivace scambio di opinioni.
    Riassumendo in estrema sintesi, il mio punto di vista è il seguente: la velocità non serve per la SEO di un sito ma è un fattore molto importante, spesso decisivo, in un’ ottica di SEM. E c’è una bella differenza. Il SEO – SEM di oggi non può certo permettersi di fissare negli occhi solamente i crawler e ignorare deliberatamente un’esperienza di navigazione imbarazzante da parte dell’utente, nascondendosi dietro un assai miope “Ti ho portato in prima pagina, il mio lavoro l’ho fatto”.
    Talvolta noto che si fa ancora confusione tra i concetti di SEO, SEM, Web marketing, spesso utilizzati come sinonimi intercambiabili tra loro, a partire chi poi offre tali servizi. Servirebbe una bella rinfrescata!

  26. LowLevel scrive il 21 June 2013 at 22:16

    Sono contento che questo post abbia stimolato la conversazione e francamente non mi attendevo che l’argomento potesse riscuotere tutti questi interessi. :)

    Propongo quindi una chiave di lettura aggiuntiva e personale, più vicina alle motivazioni per le quali ho scritto l’articolo: questo non è un post sulla velocità dei siti o sui fattori di ranking bensì sulle tecniche (e capacità) di comunicazione di un’azienda.

    Si potrebbe prendere un argomento del tutto diverso, per esempio il modo in cui Google sfrutta i segnali “sociali” acquisibili dal web, e costruirci sopra un post gemello, evidenziando la stessa condizione di “montagne russe” prodotta da affermazioni generiche e cambi di direzione da parte di Google.

    Potrei aggiungere una segnalazione di una recente modifica alle linee guida di Google che proprio in questo momento sta facendo nascere molti post riguardanti un presunto passaggio dai link ai segnali sociali (a mio parere una congettura poco illuminata). Ma siccome scrivo da mobile, mi verrebbe scomodo e quindi taglio corto. 😛

    Ne approfitto per ringraziare tutti dei contributi, che costituiscono spesso la parte dell’articolo più interessante. :)

  27. Giacomo Pelagatti scrive il 21 June 2013 at 22:34

    Ciao Low, riguardo alla modifica recentemente apportata al contenuto della voce “Ranking” della guida di Google, credo che abbiano solo corretto tardivamente un’affermazione (che attualmente è ancora possibile leggere sulla versione italiana della voce, intitolata “Posizionamento”) a dir poco imbarazzante per la sua palese dissonanza rispetto ai mantra aziendali degli ultimi anni, in ispecial modo quelli post-Penguin, ma non solo. 😉

    È un altro dietro-front comunicazionale, anche se più sottile di quello sulla velocità come segnale di ranking, ma a differenza di quest’ultimo era probabilmente prevedibile e, a ben vedere, necessario.

    Poi ovviamente ciascuno è libero di legger tra le righe ciò che meglio crede, compreso che avere molti “Like” su Facebook abbia qualche reale senso od importanza. Contenti loro… :)

  28. Luca Bove scrive il 21 June 2013 at 22:57
  29. Giacomo Pelagatti scrive il 22 June 2013 at 00:43

    @Luca: Sì, il riferimento era ovviamente a quella voce, editata di recente (io non me n’ero accorto; l’ho letto perché qualcuno, che evidentemente la stava monitorando, ha segnalato la modifica.

    BTW, io sto aspettando da alcuni anni che venga corretto questo grossolano errore di traduzione (a suo tempo segnalato e ri-segnalato a chi di dovere) presente sulla traduzione italiana della voce Search Engine Optimization (SEO).

    L’originale, che recita

    You should never have to link to an SEO. [grassetto mio]

    è stato tradotto così:

    Non inserire mai un link al sito di un SEO.

    Il contenuto del paragrafo che segue è poi totalmente scorrelato rispetto all’intestazione (anche sulla versione in inglese), ma questo è secondario. :)

  30. Pingback: AdWords per come, per quando, per che, per … SEO? :)

  31. Antonio scrive il 23 June 2013 at 18:47

    Argomento interessante. Prendo un giorno di ferie per leggerlo tutto, commenti compresi :-)))))

  32. Pingback: La Bufala Sulla Velocità Che Non Influisce sul Ranking è una Bufala

  33. SEO Google (@googlepolicyit) scrive il 3 July 2013 at 11:02

    Post interessante, ma soltanto se interpretato come provocazione finalizzata a discutere di un tema mai abbastanza sviscerato.
    Ciao, Gianni.

    • LowLevel scrive il 3 July 2013 at 18:47

      @SEO Google: tenuto conto del fatto che la recente precisazione di Google è arrivata dopo un equivoco durato tre anni, sono propenso a credere che nella SEO qualsiasi certezza possa essere messa in discussione.

  34. Franco scrive il 5 August 2013 at 11:31

    @LowLevel Bravo! quindi nessuno è un guru.
    Puoi mettere come come bufala che i seo possono definirsi guru
    http://searchengineland.com/google-mobile-site-speed-162977

    • LowLevel scrive il 5 August 2013 at 14:56

      @Franco: ah sì, sacrosanto. Penso che la creazione di guru da parte della società produca criticità, perché la gente tende ad attribuire più importanza ad un nome e cognome invece che alle affermazioni fatte, che andrebbero sempre argomentate. Ma qua mi ripeto, perché del fenomeno dei guru ho già scritto in passato.

      P.S. A beneficio di chi legge, evidenzio che l’articolo che citi fa riferimento ad un’affermazione di Google riguardante la futura retrocessione di siti mobile aventi configurazioni tecniche errate e che influiscono negativamente sull’usabilità del sito da parte degli utenti mobile, come per esempio redirect errati o erogazione di pagine 404: http://googlewebmastercentral.blogspot.com/2013/06/changes-in-rankings-of-smartphone_11.html

      Una retrocessione basata sulla lentezza dei siti mobile, come avviene già per quelli desktop troppo lenti, non è però al momento in atto.

  35. Pingback: 5 aspetti fondamentali per il posizionamento su Google | Hotel 2.0

  36. Pingback: La velocità (anzi, la lentezza) come fattore di posizionamento

  37. Seowebmaster scrive il 29 September 2013 at 04:00

    Articolo interessante come sempre, io vorrei aggiungere qualcosa che non ho notato neanche nei commenti…
    cioè = cosa si intende esattamente per “velocità” di un sito oppure sarebbe meglio sarebbe giusto di una pagina web (?)

    Le risorse che vengono mostrate nelle SERP sono le singole pagine, non i siti per intero, tanto vero che SERP = Search Engines
    Result Pages

    La velocità di una pagina (non di un sito) è data da tanti fattori, tra cui:

    1) performance dei server, tempi di risposta e sistema operativo installato

    2) peso in KB della pagina come codice HTML da elaborare

    3) peso delle immagini in KB e anche numero di pixels o risoluzione

    4) inclusioni di codici javascript e relativo codice che viene elaborato dai browser

    5) la velocità può anche dipendere dal tipo di connessione dell’utente

    6) la velocità può anche dipendere dal tipo di browser usato dall’utente

    Premesso che in molte query string i capita anche di vedere l’user-agent e stringhe del tipo:
    &sourceid=chrome oppure &aqs=chrome (giusto per fare un esempio)

    oppure nella ricerca immagini su Google, stringhe del tipo: &biw=1024&bih=653

    Domanda = quanto incide l’user-agent nel determinare la velocità di una pagina ???

    Infine, se qualcuno di voi ha ancora un cellulare tipo Wap 2.0 (Nokia 6600) e fà
    una ricerca su Google con il normale browser, noterà di fianco ai risultati un
    indicazione, cioè: il numero di KB di peso di quella pagina, accanto ai risultati

    Poi indagando, ho scoperto che quel numero si riferisce solo al codice HTML
    inteso come peso in KB considerando soltanto i tags html + testo inserito!

    Nel calcolo della velocità o delle lentezza quali fattori vengono considerati ???

    Volendo fare un paragone con un auto… un auto dalla massa più leggera è più veloce a parità di prestazioni del motore,
    ma quella con una massa più pesante, se ha un motore migliore può essere più veloce! Nonchè può essere più veloce,
    quella che ha pneumatici migliori o quella che si trova a fare una discesa anichè una salita o quella che CX migliore
    oppure quella che ha un carburante migliore oppure quella che ha un pilota migliore.

  38. Seowebmaster scrive il 29 September 2013 at 04:38

    E scusate se ho lasciato troppi spazi vuoti prima (ho fatto un copia/incolla di testo) ma volevo aggiungere…

    Tutti questo parlare di velocità e miglioramenti possibili, lo si fà solo pensando a Google! nessuno pensa alla user-experience e agli utenti in generale.

    Sarebbe a dire che, se Google domani dovesse preferire pagine con molto codice HTML e CSS o con immagini di 10.000 pixels, giusto perchè si punta al posizionamento SEO tutti si mettono a fare questo?

  39. Pingback: Velocità del sito web: dove agire per incrementarla - Paolo Bonizzoni

  40. Pingback: Test velocità di caricamento pagine web: ecco 6 tool gratuiti!

  41. Pingback: 14 tendenze per le Strutture Alberghiere nel 2014 | Hotel 2.0

Lascia un commento

More in Just SEO
Le 10 nuove cagate SEO di cui non si dovrebbe parlare più

MAI più. Sono passati quasi due anni dalla pubblicazione del famigerato articolo "Le 10 cagate SEO di cui non si...

Close