Studi sui fattori di ranking: distinguere quelli utili da quelli farlocchi

In fondo a questo articolo c’è un’infografica. Lo scrivo in cima altrimenti c’è il rischio che ve la perdete.

Non ho mai fatto mistero della mia avversione per qualsiasi tipo di studio dei fattori di ranking. Taglio corto e spiego che la ragione è che, a prescindere dalle buone intenzioni degli autori, i risultati di questi studi sono quasi sempre fuorvianti e a volte dannosi.

Viene subito alla memoria l’aneddoto che mi ha raccontato un esperto (e popolare) collega, a cui è capitato di dover essere valutato da persone poco addentro al settore SEO sulla base dei risultati di uno studio di fattori di ranking, considerato al pari di una bibbia.

Il problema di fondo, tuttavia, è che tali studi rafforzano nelle persone l’idea che i segnali presi in considerazione dai motori di ricerca per il ranking siano valevoli per tutti i siti e che possiedano un peso intrinseco invece di un peso che varia a seconda dei casi, come avviene sempre più spesso.

Il rischio è dunque che gli studi che hanno l’obiettivo di riassumere e sovra-semplificare un fenomeno complesso come il ranking vengano presi in considerazione senza quel grano di sale che impedirebbe alla gente di creare danni. La quantificazione di tale rischio è molto soggettiva e dipende solo da quanto ciascuno di noi ritiene il sale un elemento abbondante nella zucca delle persone.

L’obiettivo del presente articolo è costruttivo/istruttivo e quindi, spronato da un paio di recenti studi sui fattori di ranking di Google, uno dei quali pubblicato da un’azienda molto in vista, mi accingerò a spiegare come distinguere gli studi sui fattori di ranking “teoricamente utili in alcuni contesti” da quelli del tutto farlocchi.

Premessa importante

Nel mondo della comunicazione e del marketing, il valore di un’informazione non è mai intrinseco ma dipende dall’uso che i destinatari dell’informazione ne faranno.

Il profilo dei destinatari viene inoltre stabilito più o meno direttamente da chi produce l’informazione e da come la confeziona.

Se l’obiettivo è quello di raggiungere quante più persone possibili, viene progettato un prodotto di facile comprensione e consumo, in modo che possa risultare appetibile ad un bacino di utenti allargato alle masse meno colte, meno informate e meno abituate a svolgere spontaneamente analisi critiche.

Nel contesto SEO, la natura complessa degli algoritmi di ranking dei motori non è compatibile con l’obiettivo di produrre uno studio dai risultati semplici e di facile comprensione per una grande quantità di persone.

Di conseguenza è tecnicamente corretto concludere che ogni studio sui fattori di ranking è in buona parte intrinsecamente farlocco, perché per definizione questi studi sono un modo per sostituire dati reali ma complessi e sconosciuti con dati molto semplici e congetturati dagli autori dello studio.

Questa impietosa considerazione però non implica necessariamente che un film di fantascienza, per quanto abbia poco di scientifico, non possa servire da “cibo per la mente” e da stimolo per imbastire discussioni un po’ più approfondite di uno sterile elenco di fattori. L’importante è che tutti abbiano chiaro che si tratta di fantascienza, di un prodotto di fantasia degli autori.

Il problema torna dunque ad essere quello che citavo nell’introduzione: l’utilità di tali studi è proporzionale alla capacità della gente di comprenderne la natura intrinsecamente farlocca.

Paradossalmente, più verrà compreso che lo studio non dimostra alcuncué e più la gente sarà propensa ad usarlo come un semplice elenco di argomenti su cui chiacchierare con i colleghi.

In altre parole questi studi possono essere sfruttati correttamente solo da chi è consapevole del fatto che sono privi di basi solide.

Chi è il target?

Partendo dalla considerazione appena fatta è inevitabile chiedersi quanto è probabile che tali studi vengano veicolati a persone che ne comprendano la natura farlocca.

E’ un po’ come chiedersi che percentuale degli acquirenti di filtri magici, amuleti portafortuna e rituali per guarire dai malanni è consapevole del fatto che dietro la paccottiglia esoterica non vi sia nulla di scientifico.

Le ragioni per le quali uso questa metafora è che il prodotto confezionato da chi propone studi sui fattori di ranking ha spesso le stesse caratteristiche dello “snake oil” venduto qualche secolo fa alla gente poco colta: ci si allontana dal contesto scientifico simulando una pseudo-scientificità per confezionare un intruglio e veicolarlo ad un target che non è in grado di smascherare alcunché.

L’unica differenza tra gli imbonitori di pozioni miracolose e i moderni alchemici dei fattori di ranking è forse la buona fede, nel senso che in un settore in cui le basi scientifiche non sono mai abbondate viene naturale pensare che anche gli stessi autori degli studi possano essere convinti di aver confezionato un prodotto fondato su basi solide.

Resta il fatto che, anche presumendo tutta la buona fede da parte degli autori, in un mondo fatto di social network e di condivisioni frictionless la diffusione di questo genere di prodotti si poggia inevitabilmente sull’incapacità delle persone di comprenderne la vacuità.

Esiste dunque un conflitto di interessi tra gli obiettivi di diffusione di cultura che questi studi si pongono e gli obiettivi di istruire correttamente gli operatori del settore. Le due cose sono semplicemente incompatibili tra loro.

Un compromesso non è possibile, per motivi psicologici e culturali. Puoi aggiungere disclaimer giganteschi, ripetere centinaia di volte che “una correlazione non implica causalità” ma non c’è niente da fare: il contesto è talmente terra-terra che la stragrande maggioranza delle persone sarà affascinata dalla pseudo-scientificità di grafici e statistiche al punto che vedrà causalità anche dove non ce n’è e persino di fronte alla presa di distanze da parte degli autori.

Ora ditemi voi: non è un bellissimo modo per pararsi il deretano? Da un lato si è formalmente corretti, dall’altro si fa finta che l’interpretazione della massa non sia responsabilità di chi ha confezionato un prodotto da veicolare ad un target poco colto. Machiavellico.

Il target di questi studi è dunque composto da chi non ha mai percepito la complessità degli algoritmi di ranking di un motore di ricerca ed è quindi indotto a credere che questi studi siano dei buoni “bignami”, delle approssimazioni della realtà.

Insomma, è gente che crede che vi sia realmente un elenco di fattori di ranking in cui alcuni segnali hanno più peso di altri in senso assoluto, convinzione che viene rinforzata da tutti questi studi SEO ma che è sempre meno aderente alla realtà, come ho già spiegato diverso tempo fa.

Un primo suggerimento

Un primo suggerimento generale per distinguere gli studi farlocchi da quelli impostati secondo criteri scientifici e rigorosi è osservare se gli autori forniscono, assieme ai risultati ottenuti, sia una dettagliata descrizione della metodologia di ricerca seguita sia tutti i dati su cui la ricerca è stata fondata.

Nel fare ciò, gli autori dello studio mettono altre persone in condizione di rivalutare i dati raccolti, farne nuove elaborazioni, estrarne nuove evidenze ed eventualmente mettere in discussione il metodo adottato o la compatibilità dei dati raccolti con gli obiettivi che lo studio si poneva.

Il fatto che molti pochi studi SEO forniscano le suddette informazioni la dice lunga sulla differenza che passa tra un contesto realmente scientifico, all’interno del quale l’individuazione di falle in uno studio è considerato un evento benvenuto, ed un contesto di marketing, dove i proponenti di un prodotto non hanno un interesse ad essere smentiti per motivi legati alla propria immagine.

Il primo consiglio che dunque vi do è: se lo studio non specifica la metodologia nel dettaglio (fino ad arrivare alle formule che sono state utilizzate per tutti i calcoli) o non fornisce i dati su cui sono state svolte le analisi, allora potete dare per scontato che si sta partendo col piede sbagliato.

Attenzione però: come spiegherò di seguito, la presenza dei dettagli metodologici non è una condizione sufficiente a dichiarare lo studio “serio” e alcune volte sono invece usati come specchietti per le allodole, nel tentativo di conferire serietà a studi che sono fallati alla base.

Due tipologie di studi

Addentrandomi nella valutazione di questi studi, la prima cosa da fare è separare nettamente due tipologie molto diverse tra loro: l’analisi delle SERP e il sondaggio degli esperti.

Entrambe i tipi di studi hanno il proprio principale tallone d’achille nella scelta dei fattori ipotizzati, che è arbitraria e quasi sempre definita dagli autori dello studio.

Nel corso del tempo ho maturato l’opinione che i sondaggi degli esperti possono costituire un buon argomento di discussione a condizione che 1) non vengano venduti al pubblico come “fattori di ranking del motore” bensì come una raccolta di opinioni e 2) vengano progettati e svolti da un’azienda specializzata in sondaggi e ricerche di mercato.

L’analisi delle SERP dei motori è invece un’attività così pregna di formalismi pseudo-scientifici che in tutti i casi da me osservati i risultati avevano un effetto fuorviante, inducendo i destinatari a credere che i dati fossero emersi dalla semplice osservazione di quanto il motore di ricerca faceva. Come dimostrerò, non è così.

Prima tipologia: analisi delle SERP

Gli studi fondati sull’analisi delle SERP partono da una grande quantità di query e dal raccoglimento dei risultati di ricerca per ciascuna di esse. Successivamente, di ciascun risultato di ciascuna SERP vengono analizzate le sue principali caratteristiche (scelte arbitrariamente dagli autori dello studio) e infine viene calcolato un indice di correlazione tra la posizione della SERP e la presenza di ciascuna caratteristica.

La metodologia permette di capire se al salire della posizione viene osservato anche un incremento o decremento di una specifica caratteristica delle risorse e consente di quantificare quanto la correlazione è grande.

Solitamente questi studi producono un output in cui l’elenco di caratteristiche viene ordinato da quelle che hanno una maggiore correlazione con l’incremento di posizioni a quelle che hanno una correlazione minore.

La devastante comunicazione che arriva ai lettori è doppiamente subdola: da un lato si ha la percezione che i fattori elencati non siano stati scelti dagli autori ma siano in qualche modo magicamente emersi dall’osservazione e analisi delle SERP, dall’altro si ha l’impressione che le caratteristiche con gli indici di correlazione maggiore corrispondano a fattori di ranking a cui il motore attribuisce più peso di altri.

Inizio a spiegare perché tutto ciò è falso delineando la differenza tra causalità e correlazione nel contesto dei ranking.

Cause, correlazioni e ranking

Un fenomeno può essere causa di altri fenomeni che non sarebbero nati nel caso in cui il primo non si fosse manifestato.

Il rapporto tra il fenomeno iniziale e quelli che da esso ne sono scaturiti è chiamato rapporto di causalità, nel senso che il primo è stato causa degli altri.

I fenomeni che sono “figli” di quello iniziale sono invece correlati tra loro, in quanto sono nati da una causa comune, ma nessuno dei due ha causato l’altro.

Prendiamo in considerazione lo scenario in cui un gruppo di alunni sia costretto a studiare pesantemente sui libri per un lungo periodo di tempo e che questa attività provochi da un lato un affaticamento della vista con relativo aumento della miopia e dall’altro ad un incremento delle loro conoscenze.

Esempio di cause e correlazioni (1)

Poniamo adesso il caso che al termine del lungo periodo di studio gli studenti vengano valutati da una commissione e che venga creata una graduatoria sulla base di un criterio che non ci è dato sapere.

Il nostro compito è risalire al criterio partendo dalla graduatoria e valutando gli studenti come meglio preferiamo.

Ad una prima semplice osservazione degli studenti viene subito notata una percentuale maggiore di persone con gli occhiali tra quelle che hanno ottenuto i migliori piazzamenti. Decidiamo quindi di formulare l’ipotesi che la commissione abbia creato la graduatoria sulla base delle diottrie di ciascuno studente, procediamo a misurare con una formula matematica la correlazione tra posizione in graduatoria e diottrie di ciascuna persona e determiniamo che effettivamente esiste una relazione tra le posizioni più in alto e la presenza di persone con meno diottrie.

Sia ben chiaro: la correlazione esiste ed è reale. Effettivamente è stato dimostrato in modo scientifico ed inequivocabile che più in alto si osserva la graduatoria e più ci si imbatte in persone più miopi.

La domanda è: questo indiscutibile fatto dice qualcosa sul criterio usato dalla commissione per stabilire i ranking degli studenti?

La risposta è no. Se invece di ipotizzare un criterio basato sulle diottrie avessimo ipotizzato un criterio basato sulla preparazione dagli alunni avremmo comunque trovato una relazione, stavolta tra posizioni migliori e alunni più preparati.

Basandoci sulle correlazioni osservate, non c’è dunque modo di capire dall’esterno quale criterio sia stato effettivamente usato dalla commissione per produrre la graduatoria.

Io potrei ipotizzare cento criteri diversi ed ottenere conferme scientifiche di correlazioni reali tra ranking e ciascuno dei criteri che ho congetturato, ma in nessun modo una correlazione maggiore è un indicazione che il criterio sia stato effettivamente usato dalla commissione o che sia stato usato con maggiore probabilità.

La regola ovviamente rimane valida nel momento in cui viene applicata al mondo dei ranking dei motori di ricerca.

La scelta dei fattori monitorati

Esempio di cause e correlazioni (2)

Nel contesto dei ranking dei motori di ricerca rimane valida la regola che una correlazione maggiore tra ranking e fattori ipotizzati non spiega alcunché sui criteri usati dai motori per ordinare i risultati.

Nell’esempio fatto nel grafico soprastante, un articolo ben scritto può produrre sul web sia backlink verso il sito che lo ospita sia condivisioni e apprezzamenti sui social network. Di conseguenza la correlazione tra ranking e backlink sarà maggiore di zero e la correlazione tra ranking e “like” sarà maggiore di zero, quindi non c’è modo di sapere se il motore sta premiando un risultato in funzione dei suoi backlink oppure in funzione dei suoi “like” oppure in funzione di un terzo criterio di cui non abbiamo ipotizzato l’esistenza.

Da dove vengono dunque fuori i fattori di ranking “misurati” dagli tutti questi studi dei ranking dei motori di ricerca? Semplice: sono inventati da zero. Per esempio gli autori congetturano arbitrariamente che i “like” influiscano sui ranking di Google, misurano effettivamente una correlazione tra i ranking e la presenza di risorse con più “like” e propongono tale correlazione ai lettori sapendo che verranno equivocati per i criteri applicati dal motore di ricerca.

Così come ipotizzano i “like” potrebbero ipotizzare qualsiasi altra cosa gli saltasse per la testa. Per esempio se ipotizzassero come “fattore di ranking” i budget allocati dalle aziende per il marketing online, troverebbero probabilmente una correlazione tra le posizioni più alte della graduatoria e le aziende che spendono di più in promozione e advertising.

Ovviamente non sarebbe per loro credibile insinuare che Google vada a consultare i bilanci delle aziende per premiare quelle che investono di più online, pertanto gli autori di questi studi evitano accuratamente di aggiungere all’elenco dei “fattori” tutte quelle correlazioni esistenti e tecnicamente valide ma che non sarebbe credibile spacciare per fattore di ranking al pubblico dei lettori.

Il suggerimento che quindi do a chi si trova di fronte a studi di presunti fattori di ranking è quello di chiedersi se i segnali spacciati come fattori dagli autori possono essere ricondotti a segnali di ranking di cui è certa l’esistenza.

Nell’esempio dei “like” è quindi lecito chiedersi se la correlazione con i ranking esiste semplicemente perché le risorse che ottengono più riconoscimenti sociali sono più o meno anche quelle che ottengono più backlink, che sono un segnale di ranking “storico” e accertato.

Riuscire a spiegare un fenomeno sulla base di informazioni certe è sempre meglio che spiegarlo sulla base di congetture non dimostrabili. Se qualcosa si può spiegare in modo semplice, non c’è necessità di ricorrere a congetture più complesse o più ricche di elementi, come il principio del rasoio di Occam predica.

Il tipo di analisi svolte

Quando c’è da calcolare un indice di correlazione tra un presunto fattore di ranking ed i ranking stessi, solitamente gli studi che si fondano sull’analisi delle SERP fanno uso di specifiche formule su una grande quantità di dati.

Adesso, è importante che sia chiaro che la correttezza scientifica del calcolo delle correlazioni non rende lo studio più scientifico o più attendibile.

Al contrario, visto che la farlocchitudine di questi studi sta alla base e che vanno considerati fuorvianti semplicemente perché i presunti fattori vengono selezionati dagli autori, che i calcoli vengano effettuati in modo corretto non ha alcuna importanza.

Io posso asserire che i vincitori di una gara di ciclismo si siano piazzati in funzione della lunghezza del sellino delle proprie bici, ma misurare con precisione la lunghezza di tutti i sellini o calcolare correttamente la loro correlazione con i piazzamenti dei ciclisti non rende la congettura di fondo meno cretina. Rimane cretina ed inventata di sana pianta, a prescindere dal fatto che una correlazione esista o meno.

Le caratteristiche tecniche e scientifiche dei suddetti studi, quindi, non aiutano in alcun modo a comprendere quanto lo studio sia valido. Anzi, solitamente gli autori fanno riferimento a speficiche formule di correlazione (come quella di Spearman o di Pearson) solo per strumentalizzarle come specchietti per le allodole nel tentativo di comunicare una presunta scientificità a chi purtroppo non possiede le basi culturali per comprendere che la falla è concettuale e sta a monte, non nei calcoli.

Il miglior consiglio che posso dare è dunque quello di ignorare in buona sostanza i dettagli tecnici, nel caso in cui voi abbiate già capito che i presunti fattori sono stati scelti di sana pianta dagli autori.

Una seconda caratteristica da tener d’occhio è quella che io chiamo “sindrome da minestrone“, ovvero la tendenza di questi studi a calcolare correlazioni su grandi quantità di query/SERP senza dividerle in categorie.

Una delle più grandi piaghe che si abbattono sui poveri utenti da parte degli autori di studi pseudo-scientifici è infatti la piaga della “media aritmetica”, un calcolo semplice ma spesso abusato.

I risultati di un motore di ricerca cambiano ormai da anni in funzione del tipo di query, dell’intento dell’utente, dello storico delle ricerche precedenti, degli argomenti o settori di riferimento, del tipo di risorsa più congeniale ad assolvere la necessità dell’utente e di diversi altri elementi usato dai motori per personalizzare i risultati.

Fare un gigantesco minestrone dei risultati, calcolando una media aritmentica tra le correlazioni misurate su query/SERP di natura completamente diversa significa cestinare la realtà, che è fatta di estremi e diversità, per sostituirla con una realtà fittizia e piatta, creata artificiosamente da una matematica applicata incorrettamente.

Non esiste alcuna “SERP media” così come non esiste alcuna “lista di fattori media” né esiste una “persona media”. Qui mi piacerebbe citare il Trilussa ma mi limito a linkarvi la sua poesia su statistica e polli.

Quindi in linea puramente teorica io dovrei consigliarvi di controllare se lo studio propone elenchi di collelazioni diverse a seconda della tipologia di query o dei settori merceologici, come sarebbe corretto, ma se così facessi sarei io a fuorviarvi perché se anche esistesse questa separazione, la falla di fondo di tali studi rimarebbe, essendo legata alla scelta arbitraria dei fattori.

Anche in questo caso, pertanto, vi suggerisco di non farvi infinocchiare dall’apparente correttezza metodologica: quand’anche troviate una separazione dei presunti fattori in base alle tipologie di query, chiedetevi sempre se la falla di fondo permane. Se permane, non ha importanza che abbiano fatto minestroni o che presentino graduatorie di fattori divisi per settore o tema.

La conclusione su tutti gli studi che presentano un elenco di fattori di ranking basato sull’analisi delle SERP è quindi: fino a quando l’elenco dei fattori verrà congetturato dagli autori, queste ricerche vanno considerate tentativi di prendere per il naso i lettori.

Seconda tipologia: sondaggi degli esperti

Un discorso molto diverso va fatto invece per quel tipo di studi che scaturisce da una raccolta di opinioni da parte di “esperti”. Ovviamente “esperti” è virgolettato perché non c’è garanzia di quanto questi studi siano selettivi nella cernita delle persone da interpellare.

Per esempio io sono stato invitato più volte a fare sondaggi simili e solo questo basterebbe per bollare tali studi come intrinsecamente fallati e superficiali. Fortunatamente ogni volta declino gentilmente i suddetti inviti, quindi c’è una speranza che alcuni di queste analisi siano venute fuori di qualità.

Come ho già accennato, ci sono due caratteristiche che a mio parere potrebbero conferire utilità a tali studi.

La prima caratteristica consiste nel non tentare di vendere tali sondaggi come se fossero “i ranking di Google” e presentarli invece come il risultato di interviste, come un riassunto di quali elementi sono considerati importanti per la visibilità sui motori da parte di professionisti che lavorano costantemente nel settore.

Enfatizzando l’aspetto soggettivo di tali raccolte di opinioni, io penso che i risultati di questi sondaggi possano costituire un buon modo di confrontarsi indirettamente con altri professionisti e con le percezioni di altri colleghi.

Questo non significa che il prodotto finale non faccia danni, anzi. Un SEO esperto è in grado di soppesare le opinioni altrui e comprendere da sé che in un settore guidato dal verbo “dipende” ogni opinione assume valore diverso a seconda dei contesti. Al contrario, le persone meno scafate possono tendere a considerare tali studi come dei libri sacri, come nell’aneddoto che ho accennato nell’introduzione a questo articolo.

Non c’è niente da fare: uno dei problemi ricorrenti di tali studi è che devono necessariamente essere valutati in funzione delle persone che raggiungeranno. Se il target è composto prevalentemente da persone poco addentro alla SEO o con poca esperienza, è più facile che invece di essere considerati uno sprono alla discussione tali sondaggi vengano invece sfruttati come le tavole della legge consegnate a Mosè.

Il consiglio che mi sento di dare è il seguente: se ritenete che la vostra opinione valga meno di quella di chi è considerato più esperto di voi, allora questi studi non fanno probabilmente per voi. Al contrario, se siete il genere di SEO che tende a valutare le affermazioni altrui e che aspira ad acquisire una propria sicurezza attraverso un sano scetticismo verso tutto ciò che non avete sperimentato o tutto ciò che è opinabile, allora i risultati di questi sondaggi possono costituire un buono strumento per misurarsi indirettamente con altri professionisti. Dalle differenze di opinione con loro, potrete cogliere spunti di approfondimento su una vasta quantità di temi.

La seconda caratteristica che reputo importante è che la progettazione ed esecuzione di tali studi venga affidata ad aziende specializzate in sondaggi e indagini di mercato. Le domande da porre e la composizione delle opzioni che gli intervistati possono selezionare possono produrre grandi differenze nei risultati finali, specie nei casi in cui non vi sia molta concordanza tra le persone interpellate.

Un’indagine affidata ad un istituto specializzato in ricerche e sondaggi avallerebbe i risultati ottenuti garantendo l’applicazione di una metodologia scientifica. Il mio suggerimento è quello di considerare più attendibili tutti i sondaggi affidati ad aziende specializzate.

Il solito problema: la selezione dei presunti fattori

Come per gli studi basati sull’analisi delle SERP anche quelli fondati sui sondaggi devono fare i conti con la selezione dei presunti fattori di ranking. Fino a quando i fattori di ranking verranno proposti o suggeriti dagli autori del sondaggio, la validità dei risultati risentirà delle percezioni personali degli autori.

Sarebbe già diverso se i sondaggi venissero progettari lasciando agli intervistati piena libertà di risposta. Questo approccio, tuttavia, renderebbe difficile o forse anche impossibile riassumerli in belle tabelle ed infografiche e quindi verrebbe meno la possibilità di veicolare il prodotto attraverso un formato semplice e appetibile alla massa.

Ritengo comunque il problema della selezione degli ipotetici fattori molto meno dannoso rispetto a quando si manifesta negli studi delle SERP dei motori, perché nel caso del sondaggio degli esperti il tutto rientra comunque nel contesto delle opinioni personali e soggettive.

Il consiglio che do è quello di comprendere se il sondaggio ha dato agli intervistati sufficiente carta bianca per poter esprimere liberamente il proprio parere, invece di un elenco preconfezionato di possibili elementi di ranking.

Comunicazione dei risultati

A prescindere dalla tipologia di studio, esiste un consiglio generale che mi sento di dare a tutti: se lo studio parla esplicitamente di “fattori di ranking del motore X”, allora sta dicendo una falsità.

Non ci girerò attorno: la tecnica consiste nell’individuare un target poco colto, facilmente affascinabile da elementi pseudo-scientifici, poco in grado di individuarne le falle e confezionare un prodotto di forte appeal e poca sostanza. In tutto questo, un titolo d’effetto o fuorviante può costituire un elemento di forte attrazione e contribuire massicciamente alla diffusione dello studio attraverso le condivisioni su social network e per canali personali.

Ho già accennato alla strumentalizzazione dei dettagli tecnici come ulteriori specchietti per le allodole e in questo contesto mi limiterò a dire che gli studi basati sull’analisi delle SERP e gli indici di correlazione sfruttano i dettagli tecnici in modo palesemente markettaro. Se in alcuni casi si può concedere agli autori il beneficio del dubbio che alcune cose siano state fatte per propria leggerezza o ignoranza, in altri l’occhio allenato capisce subito che i riferimenti non dettagliati a formule e tecnicismi non è altro che un tentativo di conferire autorevolezza laddove non ce n’è.

Non ho invece notato alcuna correlazione tra autorevolezza dello studio e stile grafico adottato nella presentazione dei risultati. Ho osservato basi farlocche sia in formalissimi ed eleganti tabulati degni di istituti di ricerca di primo piano, sia in infografiche che ricordavano i volantini pubblicitari dell’arrivo del circo e del pagliaccio Blinko in città. Quindi non lasciatevi influenzare in nessun senso dalla grafica e badate al solo contenuto.

Il danno culturale

Mi accingo a concludere questi suggerimenti rivelando quello che a mio parere è un errore di fondo di qualsiasi studio: ridurre la SEO o anche la sola specifica attività di “posizionamento” ad un elenco di fattori di ranking.

Il danno maggiore prodotto da questi studi è a mio giudizio intrinseco e legato agli intenti stessi di queste ricerche.

Voi avete mai visto i medici fare “graduatorie di pillole che fanno bene“? Percepireste questa attività come qualcosa di serio?

La SEO è un settore molto particolare perché proviene da contesti storici dominati da attività di spam, apprendimenti raffazzonati ed empirici, prodotti farlocchi e tecnicismi che si focalizzavano sul semplice posizionamento senza abbracciare il più ampio contesto di marketing all’interno del quale la disciplina dovrebbe muoversi.

Nel tentativo di scrollarsi di dosso un retaggio culturale gretto e svilente, facendo percepire la complessità sempre maggiore della nostra professione, i professionisti del nostro settore non vengono aiutati da questi studi dei fattori di ranking, perché questi studi remano contro. Questi studi producono un danno.

Tali studi non fanno altro che sminuire la complessità della SEO, proponendo una visione semplicistica a chi la conosce poco o nulla, facendo percepire un mestiere riconducibile a tecnicismi o a formule preconfezionate, quando in realtà i SEO sono probabilmente la tipologia di professionisti che è stata più in grado di evolvere ed estendere i propri interessi a contesti che vanno ben oltre i motori di ricerca.

La verità è che di “fattori di ranking” non si dovrebbe proprio parlare più. Gli operatori di questo settore non hanno un interesse a svilire la professione agli occhi esterni proponendo visioni bambinesche di contesti complessi creati da ingegneri, matematici ed informatici. E’ un prendersi in giro ed un prendere in giro altri.

Parlare ancora di “fattori di ranking” nel 2013 significa mentire a sé stessi e ad una vasta platea di SEO, in cambio dell’effimera e temporanea visibilità che si ottiene dalla diffusione di questi “studi”, come se non facessero danni culturali o come se il loro costo non si spalmasse sull’intero settore, che fatica a sdoganarsi da un’immagine che queste “ricerche” perpetuano e rafforzano.

Questo, ovviamente, è solo il mio parere personale. Chiudo con un consiglio: io consiglio di investire in cultura, abbracciare la filosofia del “dipende”, allontanarsi dalle ricette precotte e dimenticarsi dei “fattori di ranking”.

Infografica sui fattori di ranking di Google

E siccome ‘sti studi dei fattori di ranking li fanno cani e porci, ho deciso di sgrufolare anche io! Consideratelo autorevole esattamente come qualsiasi altro studio vi capiterà di leggere. Buona visione! [link a versione grande in formato PNG, 9 Megabyte]

Infografica dei fattori di ranking di Google per l'anno 2013

P.S.
Pensavo che sarebbe interessante parlare di argomenti simili in qualche evento. Giusto per dire.

16 Responses to Studi sui fattori di ranking: distinguere quelli utili da quelli farlocchi

  1. Massimo Foletti scrive il 1 July 2013 at 17:39

    Se organizzi un evento, invitami vengo anch’io a portare testimonianze di altissimo livello sui ranking factors + alla moda

  2. Dario scrive il 1 July 2013 at 18:49

    Allora ti faccio una domanda: se parliamo di ranking o rankings, non viene da sé parlare di “fattori di”? Se ho letto attentamente (lo spero) tu scrivi che c’è differenza tra “fattore causale” e “fattore correlato”. Di fattori correlati se ne possono trovare 1000 e tutti più o meno vicini all’effetto. Il problema è individuare i “fattori causali” e dimostrare che senza di essi (cancellandoli?) non si sarebbe verificato l’effetto: il ranking. Domanda ingenua: ma questo è possibile? Cioè, non è come rispondere alla domanda “Google cosa pensa che un utente x si aspetta di trovare nei risultati se digita studi sui fattori di ranking”? X potrebbe essere chiunque. – Grazie del contributo :-)

    • LowLevel scrive il 1 July 2013 at 19:22

      @Dario:

      Domanda ingenua: ma questo è possibile?

      Non più, da molti anni.

      Il calcolo delle correlazioni attraverso le formule di Spearman o Pearson non è adeguato ed è incompatibile con quello che i motori fanno oggi. Il concetto stesso di calcolare la correlazione tra un singolo segnale ed i ranking è fallato, l’approccio matematico dovrebbe essere ben diverso. In pura teoria bisognerebbe progettare una metodologia che consideri ogni ipotesi di segnale e classificare ciascun documento individuato nelle SERP sulla base di tutti i segnali ipotizzati. Successivamente, per ciascuna query (o la sua congetturata espansione) si dovrebbe calcolare una correlazione tra essa e tutti i documenti mostrati nella SERP. Ma nella pratica tutto ciò è irrilevante, perché anche in questo caso i segnali dovrebbero essere ipotizzati dal ricercatore e quindi anche questo tipo di correlazioni non dimostrerebbe alcunché.

      Possedendo il vero elenco dei famigerati segnali di Google e sufficienti risorse sarebbe possibile trarre conclusioni attendibili. Ma senza quell’informazione di base, ogni calcolo è fine a sé stesso. Come ho scritto anche in altri articoli, uno dei quali è linkato nel post, da diversi anni non c’è più modo di fare reverse engineering sui fattori di ranking.

  3. seotorino scrive il 2 July 2013 at 00:10

    Quella su fattore SEO “culo” è il top mai letto… ma anche quella sul “budget” che è inversamente proporzionale! bisognerebbe tradurre l’infografica in inglese e postarla su Seomoz :)

  4. seotorino scrive il 2 July 2013 at 00:24

    Ammesso che esista un “Ranking” leggere qui la spiegazione http://it.wikipedia.org/wiki/Link_Analysis_Ranking e che sia questo valore a dare un ordinamento alle SERP – quello di Google è il Page Rank = http://it.wikipedia.org/wiki/PageRank – che rilevanza ha la query digitata dall’utente rispetto al valore di ranking ?? Ammesso che siano al 50% considerati questi 2 valori… l’utente ha delle preferenze impostate da se o auto-impostate da Google, quindi tutti questi calcoli vanno a farsi friggere, non essendoci SERP identiche per tutti!

  5. seotorino scrive il 2 July 2013 at 00:35

    scusate i 3 post consecutivi… ma da quando il fattore di successo di un qualsiasi sito web è determinato dalla sua posizione nelle SERP di Google, rispetto a certe keywords o rispetto al suo valore di ranking ??

  6. Nicola scrive il 2 July 2013 at 11:12

    L’infografica più credibile vista finora :)

  7. Diego Vassallo scrive il 2 July 2013 at 13:37

    Questo strepitoso e utilissimo articolo lascia però un grosso dubbio. Chi, come me, deve proporre delle strategie di web marketing al cliente e deve includere la SEO, come diamine si deve orientare per cercare di non fare danni al cliente?

    • LowLevel scrive il 2 July 2013 at 13:55

      @Diego: la mia opinione è che quelle aziende che hanno investito in marketing e che hanno curato la propria presenza online attraverso le forme di comunicazione e promozione più classiche possono ottenere benefici di visibilità sui motori di ricerca semplicemente non facendo stupidaggini (tecniche e di contenuto) sul proprio sito web o più generalmente sulle property che gestiscono online.

      Da una visione della SEO come canale di marketing a sé stante, separato dagli altri, si sta passando a vedere i benefici di visibilità sui motori come delle semplici conseguenze di quanto un’azienda è in grado di meritare il riconoscimento altrui e di darne visibilità online.

  8. Chiara Bardini scrive il 3 July 2013 at 18:08

    Splendido, come sempre.

  9. Gianluca Fiorelli (@gfiorelli1) scrive il 4 July 2013 at 12:28

    @seotorino
    Tradurre e postare su Moz qualcosa già pubblicato altrove è contro le loro linee guida :)… parola di Associato.

    Enrico, pur stando d’accordo con te con il fatto che per i molti motivi, che hai citato, creare studi di correlazione è quasi un qualcosa di utopico, non credi comunque che abbiano per lo meno un valore di “suggerimento” su quello che può apportare valore anche a livello di rankings.
    In fondo è qualcosa di molto umano cercare di capire ed inferire perché le cose sono così come le percepiamo.
    L’importante, credo, è presentare quegli studi nella maniera più trasparente possibile e mettendo sempre in chiaro che correlation is not causation.

    Questo, per lo meno, è lo spirito con cui in (SEO)Moz conduciamo queste ricerche, come quella che settimana prossima sarà presentata al MozCon (Ranking Factors 2013), e che è stata condotta utilizzando ambe metodologie (tests e opinioni degli esperti)
    E la trasparenza sarà tale, per cui non solo si spiegherà in dettaglio come si è svolto lo studio, ma anche saranno disponibili i raw data per chi li richieda.

    Io stesso so che se uno studio dice che gli “Shares” hanno 0.4 di correlazione con buoni rankings, non devo pensare che se non ho shares su FB sono f…uto, ma che i siti che rankano bene tendenzialmente presentano anche quel fattore. Forse il vero problema in realtà non sono gli studi in sè, ma il non saperli spiegare.

    • LowLevel scrive il 4 July 2013 at 15:59

      @Gianluca: io non posso fare altro che rimarcare quanto detto nell’articolo e cioè che il risultato finale non dipende solo da chi propone lo studio o solo da chi lo deve recepire, bensì da entrambe la tipologia di soggetti.

      Se prendi un qualsiasi studio basato sul calcolo delle correlazioni con i ranking e lo mostri a degli studenti universitari di statistica, ti ridono in faccia. Non perché i calcoli siano errati (2+2 fa effettivamente 4) ma perché i risultati dei calcoli non hanno un significato (2+2 non ti dice che segnali usa Google per i propri ranking). Tu mi chiedi se possono avere un “valore di suggerimento” e purtroppo (o per fortuna) la scienza ci dice “no, gli studi basati sull’analisi delle SERP non sono nemmeno suggerimenti”.

      Se lo stesso studio lo presenti a chi non ha basi di statistica, quel target sarà in buona parte abbindolato. Una buona fetta di persone vedrà relazioni di causa ed effetto anche dove non ce ne sono e prescindendo da quanto gli autori siano stati chiari. Il problema quindi è di comunicazione, psicologico e sociale: se hai un target non particolarmente colto su questi temi, è inevitabile che l’effetto finale sarà quello di indurre le persone a credere qualcosa che non è.

      Poi sta alla buona fede di questi autori decidere se è corretto diffondere dei risultati privi di significato ad una comunità che li interpreta da anni in modo errato.

      Gianluca, è inutile girarci attorno. L’unica motivazione che può indurre qualcuno a proporre dei calcoli che non spiegano niente a chi non li ha mai compresi è solo quella di sfruttare l’aspetto apparentemente scientifico per far fare pageview e condivisioni. E per farne tante hai bisogno di innescare fenomeni sociali di fanatismo e “ricondivisione frictionless” che pescano nel mare magnum dell’ignoranza.

      L’unica cosa corretta che queste aziende dovrebbero fare sarebbe dire: “Ci spiace, vi abbiamo preso per il naso, vi abbiamo accuratamente selezionati perché sapevamo che avreste creduto che la nostra popolarità avrebbe conferito a questi calcoli inutili un qualche senso. Abbiamo deciso di non produrre più calcoli che non spiegano niente, perché all’atto pratico producono nei vostri confronti un inganno.”. Ma facendo in questo modo non alimenterebbero certo la propria fama di studiosi o esperti, quindi nessuno lo fa.

      Mo’ tu hai fatto il nome di una di queste aziende ma io nel mio articolo ho evitato di fare nomi, proprio perché il risultato prescinde da quali siano le aziende che svolgono questi studi, sono tutti fuorvianti. La gente se li beve comunque a prescindere da chi li diffonde e più vengono investite risorse nell’attribuire un carattere pseudo-scientifico allo studio, più la gente se le berrà e le diffonderà.

      Al contrario, le opinioni degli “esperti” possono a mio parere essere un buon modo per imbastire delle discussioni interessanti tra i SEO. Aggiungo che i migliori SEO che ho avuto la fortuna di conoscere avevano opinioni che spesso divergevano dal “sentore medio”, quindi anche questo secondo tipo di studi è discutibile, ma almeno possono essere proposti senza tentare di spacciarli per qualcosa che non sia un semplice sondaggio su opinioni personali.

  10. Anna Luti scrive il 2 August 2013 at 16:33

    La maggior parte degli studi che ho visto parla di correlazione e non di rapporto causa-effetto che in statistica sono due cose differenti. Ci può essere correlazione tra due serie di dati senza che l’una influenzi l’altra. Se chi li legge pensa a un rapporto causa effetto significa che non sta capendo quello che lo studio sta rappresentando. Dal mio punto di vista alcuni di questi studi sono un buon modo per evidenziare la complessità del web marketing e proprio il fatto che non si può isolare l’effetto di una singola azione che si mette in atto. Io ci vedo il caro vecchio problema http://cliqology.com/2011/02/half-my-advertising-is-wasted-i-just-dont-know-which-half/

    • LowLevel scrive il 2 August 2013 at 17:55

      @Anna Luti: uno dei problemi è che la definizione di “factor” è “A circumstance, fact, or influence that contributes to a result or outcome.” e altre definizioni che ho letto fanno sempre riferimento ad un rapporto di causalità. Quindi esiste un esplicito riferimento alla causalità già dal nome di questi studi, che stride con i formali disclaimer che sottolineano come i risultati emersi non vogliono essere dimostrazione di alcunché. E’ un’incoerenza che nasce dal fatto che agli autori, impossibilitati ad affermare che esistano rapporti di causa-effetto, non rimane che insinuarlo attraverso l’uso di espressioni e parole ammiccanti, che a volte non si fermano al titolo.

  11. delizard scrive il 2 August 2013 at 19:05

    Ciao,
    l’articolo in sè mi è piaciuto davvero molto e ti faccio i complimenti, ma, come ho già risposto su altri blog ad articoli di questo taglio e non volendo qui ripetermi, in poche parole sono più vicino alla visione di Gianluca Fiorelli.

    Grazie, ciao!

  12. seotorino scrive il 3 August 2013 at 10:28

    io dico che questi ranking factors se ci sono, si possono anche studiare, prevedere, influenzare, ma Google cambia in continuazione gli algoritmi e il peso assegnato a links!
    quindi un risultato che basa il suo posizionamento sui fattori esterni, tende a essere instabile (se questi fattori cambiano nel tempo)
    ma tra l’altro l’arte del SEO non è questa, ma ottimizzare un contenuto, fare in modo che venga correttamente indicizzato, scansionato e venga letto e condiviso dagli utenti… di questi fattori esterni di ranking io ho imparato a fregarmene da tempo!

    quindi facendo il SEO evitando di fare anche lo spammer, il contenuto viene fuori nei risultati e anche condiviso (spontaneamente)

Lascia un commento

More in Just SEO
Come cercare termini o frasi separate da esattamente X parole

Scrivo questo post estemporaneo per darvi evidenza di una query assurda e inizialmente incomprensibile che ho dovuto tirar fuori per...

Close