Le 10 nuove cagate SEO di cui non si dovrebbe parlare più

MAI più.

Sono passati quasi due anni dalla pubblicazione del famigerato articolo “Le 10 cagate SEO di cui non si dovrebbe parlare più“, che si è diffuso viralmente contro ogni previsione e che ha prodotto tra SEO e webmaster una quantità di commenti e apprezzamenti inaspettata.

SEO urlo

Copyright © Fabio Agostini

Per “cagate SEO” si intendono quegli argomenti di nessuna importanza e quei luoghi comuni inaffondabili su cui i SEO amano riversare fiumi di chiacchiere inutili. Tutte discussioni che dovrebbero essere archiviate definitivamente.

Siccome la produzione di materia fecale è intrinseca della natura umana e degli ambienti SEO/markettari, nel corso del tempo si sono accumulate nuove cagate SEO che è imperativo mettere a tacere per sempre, sotto gli scrosci di abbondanti tirate d’acqua.

Tutti i temi che seguono sono riferiti a Google, che dalle nostre parti è il motore di ricerca monopolista. Disclaimer e precisazioni le ho già fatte nell’introduzione della prima edizione delle “10 cagate SEO”, quindi potete leggerle lì se volete.

Orsù, disdicete l’abbonamento a “Pleistocene Oggi” (cit.) e proseguite con la lettura.

1. Ripetere gli H1 è penalizzante

Ah sì? E su quale pianeta extrasolare?

Le domande sulle intestazioni ed in particolare sugli H1 tornano periodicamente in vita nella comunità SEO come la muffa sui muri. Per passare l’antimuffa sarebbe sufficiente studiare un minimo di linguaggio HTML e prendere atto che il W3C ha sempre lasciato aperta la questione sul corretto utilizzo delle intestazioni, lasciando quindi discrezionalità ai webmaster.

Questa discrezionalità, paradossalmente, è proprio il motivo per il quale sulla possibile ripetizione del tag H1 sono state combattute guerre di religione che manco le crociate per la liberazione del santo sepolcro.

Lato SEO, pubblicare su una pagina intestazioni H1 multiple vuol dire semplicemente attribuire alle stesse la medesima importanza. Non è una cosa buona o cattiva, è solo una scelta.

A questo si aggiunge il fatto che Google attribuisce l’importanza di un testo valutando anche le sue caratteristiche visuali. Quindi che si tratti di H1 multipli o di molteplici intestazioni create attraverso un tag DIV ed un font molto grande, al motore poco importa. Ciò che si vede più grande è più importante di ciò che si vede più piccolo. Se hanno grandezza uguale, hanno importanza uguale. Nonostante Google svolga analisi visuali, voi continuate ad usare per le intestazioni i tag Hx, perché il loro significato è interpretabile in modo non ambiguo da qualsiasi software e motore di ricerca.

Tutto il resto sono solo masturbazioni mentali e, fidatevi, quelle mentali costituiscono la tipologia inutile.

2. Il Disallow serve a non far indicizzare risorse

Questa assurda convinzione si è diffusa principalmente perché, dopo i roghi europei dei libri culminati nel 1945, molti SEO sono stati privati di vocabolari da consultare per capire che cosa significa “indicizzare”. Alcuni credono che significhi “archiviare” o “leggere” o anche “asfaltare”, se hanno bevuto abbastanza birre.

“Indicizzare” significa semplicemente “aggiungere ad un indice un riferimento ad un documento”. E’ un po’ come avere un libro, che alla fine presenta un indice dei capitoli: se per un errore di stampa nell’indice manca un riferimento ad un capitolo, non significa che il capitolo non sia presente nel libro ma solo che nell’indice non se ne fa riferimento.

Quando il motore deve fare una ricerca consulta l’indice e se non ci sono riferimenti ad un documento, esso non verrà estratto dall’archivio dei documenti e di conseguenza non verrà presentato nei risultati di ricerca. Semplice, no?

La direttiva Disallow nel file robots.txt chiede semplicemente agli spider di un motore di non scaricare una o più risorse (ho semplificato un po’ ma va bene lo stesso). Non scaricando una risorsa, il motore non ne può conoscere ed archiviare i contenuti, ma può comunque aggiungere all’indice un riferimento alla risorsa. Per esempio il motore può creare riferimenti tra le parole presenti nell’URL (che il motore conosce anche se non ha scaricato il documento) e la risorsa stessa, quindi la risorsa viene indicizzata.

Ora magari la metafora del libro è poco comprensibile perché i roghi e Farmville hanno offuscato il vostro concetto di “libro”, ma se mi verrà in mente una metafora più abbordabile ve la invierò tramite messaggino.

3. Meglio il tag “B” o il tag “STRONG”?

L’incoronazione della pippa più diserbante va probabilmente all’annosa questione su quale tag conferisce più importanza ad un testo tra il tag “B” e il tag “STRONG”.

La questione non raggiunge le vette della diatriba “trattino o underscore”, che rimarrà negli annali come la più inutile idiozia su cui sono stati riversati fiumi di inchiostro telematico, ma attinge comunque dalla stessa scuola, palesemente frequentata da scolari perennemente ripetenti.

A volte ho l’impressione che i SEO siano persone tramutate magicamente in pietra negli anni ’90 e che solo recentemente si siano ridestate dal sonno pluriennale grazie ad un bacio di Matt Cutts, vagando spaesati per strada in cerca di una cabina telefonica per chiamare casa e di informazioni sull’uso di tag HTML creati decenni prima.

La faccio corta: il tag “STRONG” è quello da usare per attribuire importanza al testo. E’ nato per quello.

Poi potrei fare varie precisazioni, un po’ perché Google valuta anche gli aspetti visuali del testo e un po’ perché il W3C ha avuto la bella pensata di rivalutare il significato del tag “B” (sì, davvero). E invece le precisazioni non le faccio, altrimenti do il via ad altri decenni di discussioni inutili.

Mi spiace se ho riportato violentemente con i piedi per terra qualche cittadino del secolo scorso, ma già che ci sono: fossi in voi, nella top ten dei brani singoli non mi aspetterei di trovarci gli Oasis o Pupo.

4. Gli errori 404 tolgono valore al sito

L’unico tipo di errore di “risorsa non trovata” che crea problemi è quando lo status 404 viene restituito per risorse che invece dovrebbero esistere ed essere raggiungibili, per esempio risorse che ricevono link dalle pagine del sito stesso.

Se è però previsto e voluto che una risorsa non esista, allora erogare uno status 404 quando essa viene richiesta è esattamente quello che serve per dichiarare questa non-esistenza.

Il panico tra i SEO solitamente inizia a serpeggiare quando vengono osservati lunghi listoni di errori 404 sul pannello di “Strumenti per Webmaster” (GWT) di Google. Bisogna semplicemente comprendere che i 404 sono solo “dichiarazioni di non-esistenza” e che quindi è necessario valutare URL per URL se ciascuno di essi fa riferimento ad una risorsa che dovrebbe esistere oppure ad una risorsa che è previsto che non esista.

Non mi dilungo oltre, anche perché sull’argomento ho scritto un approfondimento qualche tempo fa. Anche se non lo leggerete, l’importante è che facciate pace con i codici di stato HTTP, che stanno lì per assolvere ad una funzione e non per ricoprire il ruolo di antagonisti cattivi che vanno eliminati.

5. Usando il nofollow si risparmia PageRank

Certo, inoltre elimina la forfora e aumenta il tasso di interesse sul conto corrente. A volte il nofollow produce anche biglietti omaggio per i concerti di Gigi D’Alessio, ma solo se non siete mai stati critici nei confronti dei cantanti neomelodici.

Anche in questo caso, questa diffusa convinzione nasce perché in pochi hanno idea di che cosa la formula del PageRank si pone l’obiettivo di calcolare. L’obiettivo del PageRank è quello di calcolare con che probabilità ciascuna risorsa può ricevere la visita di un utente che naviga il web cliccando sui vari link.

Se avete dieci link su una pagina, potete attribuire la relazione “nofollow” ad uno di essi, a più di uno, a tutti e dieci o a nessuno: qualunque cosa facciate, le probabilità che l’utente clicchi sui link non cambieranno in alcun modo.

Questa considerazione ha spinto Google a decidere che l’aggiunta dell’attributo nofollow ad un link non deve permettere di “riciclare” e ridistribuire il PageRank non attribuito tra le altre risorse linkate dalla pagina, perché questa ridistribuzione falserebbe i risultati dei calcoli degli indici di probabilità per le pagine che vengono linkate senza attributo nofollow.

Rassegnatevi a comprare da voi i biglietti per i concerti di Gigi.

(va detto comunque che in passato Google aveva fatto la stupidaggine di permettere il riciclo del PageRank non attribuito, ma fortunatamente hanno capito che era errato dal punto di vista matematico)

6. L’HTML non valido è un segnale di ranking negativo

Il codice HTML non valido non influisce in alcun modo sul ranking della risorsa. Sarebbe stato ingiusto se fosse stato un segnale negativo.

Fino a quando gli utenti sono in grado di visualizzare ed interagire correttamente con una pagina HTML, il motore di ricerca non ha alcuna ragione di sconsigliarla ai propri utenti. Per questo motivo tutti i motori di ricerca hanno sviluppato dei parser in grado di gestire il codice HTML non valido e persino codice HTML orrendamente mutilato.

Il dubbio sull’influenza nei ranking della validazione HTML si insinua a volte tra chi ha una visione molto tecnica della SEO e attribuisce a Google improbabili interessi a penalizzare i siti che presentano caratteristiche tecniche non ottimali.

La regola generale è: finché una caratteristica tecnica non produce un’esperienza sgradevole al cliente di Google (cioè l’utente del motore che approda sul vostro sito) allora Google non ha motivo di penalizzare alcunché.

7. Il testo nei tag META viene indicizzato

Si narra che Talete di Mileto, durante un’infervorata discussione con Erodoto, si impuntò su due gravi anacronismi che il primo considerava estremamente fastidiosi.

Il primo anacronismo riguardava la presenza stessa di Erodoto come interlocutore, il quale sarebbe nato oltre un secolo dopo Talete, e il secondo anacronismo riguardava il tema dell’indicizzabilità dei testi nei meta tag, che Talete riteneva essere un argomento trito e ritrito, le cui conclusioni definitive erano state raggiunte ormai da anni grazie alla consultazione dell’oracolo di Delfi.

Oggigiorno il tema dell’indicizzabilità dei testi nei meta tag viene discusso raramente tra i filosofi SEO contemporanei, ma a volte mi capita di vederlo riaffiorare dal mare magnum delle banalità e dell’obsolescenza.

E’ comunque falso. Nessuna delle parole o delle frasi inserite in un qualsiasi tag di tipo META viene aggiunta all’indice. Per alcuni di questi tag, per esempio per il META description, i motori archiviano il testo che esso contiene e lo sfruttano quando è utile mostrarlo all’utente nelle SERP, ma di questi testi non avviene alcuna indicizzazione.

E’ tempo di riporre la toga ed i sandali per vestirsi d’abiti di uso comune.

8. La velocità del sito è un fattore di ranking in Google

No. Questo mito è nato perché, nell’intento di evangelizzare la progettazione di siti web di qualità, Google ha lasciato intendere che i siti dalle prestazioni migliori potrebbero ottenere qualche vantaggio nelle SERP organiche.

In realtà la visibilità sulle SERP per i siti più veloci può migliorare indirettamente, perché i siti facilmente navigabili e reattivi a rispondere alle richieste dei propri visitatori, sono anche i siti che vengono apprezzati di più, che vengono consigliati e condivisi sul web e che accumulano dunque link e citazioni nel corso del tempo.

Ma di influenze dirette tra la velocità di un sito ed il ranking nelle SERP non ce ne sono, anche perché l’espressione “velocità di un sito” può significare tutto e niente, con una forte tendenza verso “niente”. Fino a quando sarà un concetto fumoso sarà anche impossibile misurarlo, quindi non potrà essere un segnale preso in considerazione dal motore per il ranking.

Non mi sento di escludere il fatto che Google abbia fatto un parziale dietrofront sull’influenza della velocità dei siti sulle SERP organiche. Sta di fatto che nel momento in cui scrivo, viene dichiarato che la velocità non è uno dei segnali usati dall’algoritmo di ranking.

Benvenuti nel fatato mondo delle montagne russe di Google. Per entrare dovete essere alti almeno PR5.

9. Il motore ha penalizzato il sito per indurmi a comprare pubblicità

Questa è una di quelle genialate partorite più di intestino che di intelletto. Sarà la condivisione dell’iniziale “inte” che confonde le menti più semplici.

Mi capita ogni tanto di beccare qualcuno che ha avuto il sito penalizzato da Google e che questo qualcuno congetturi che la motivazione sia di indurre il proprietario ad investire in keyword advertising.

Il sito penalizzato può anche somigliare ad un flipper lampeggiante di GIF animate, privo di testo e con la dicitura “Browser consigliato Internet Explorer 1.0 beta” nel footer, ma per qualche ragione la causa più probabile della penalizzazione viene ritenuta essere la voglia del motore di monetizzare.

In questi casi io faccio sempre notare: “Tutti quelli che nella SERP stavano sotto il tuo sito son saliti di una posizione grazie alla tua scomparsa. Quindi per un sito che scompare, ce ne sono tanti che salgono di posizione. Nel complesso mi pare un evento che crea più gente felice di gente incazzata.”.

Ovviamente non voglio imporre questa logica a nessuno, però sul fatto che le SERP siano qualcosa di molto simile ad uno “Zero sum game“, non ci piove.

10. Il NOINDEX serve a non fare archiviare le pagine

Ecco, questa è un’altra boiata frequente che nasce dall’assoluta sconoscenza di che cosa significa “indicizzare” e “archiviare”. L’accenno alla differenza di ruolo tra archivio ed indice ve l’ho già fatto quando ho scritto della direttiva Disallow, quindi mi limito ad aggiungere l’ovvio.

L’indice cita quali documenti sono associati a certe specifiche parole o frasi, mentre l’archivio dei documenti contiene… provate a indovinare…

Fa niente, ve lo dico io. Anzi, ve lo faccio dire da Plakto, il mio vicino di casa. Plakto è un organismo protozoico che risale all’era del brodo primordiale, di mestiere fa l’assicuratore ma ha anche investito dieci minuti della propria esistenza per capire com’è fatto un motore di ricerca. Plakto dice che l’archivio dei documenti contiene i documenti e che l’istruzione NOINDEX non può entrarci niente con l’archiviazione dei documenti, visto che influisce sull’indice e non sull’archivio.

Plakto aggiunge anche che dovreste approfittare del fatto che, a differenza sua, siete organismi multicellulari e che dovreste fare il possibile per giustificare alcuni milioni di anni di evoluzione. Plakto dice che l’unica cosa che vi invidia è la riproduzione sessuata.

Ringrazio Plakto per questo suo illuminante contributo. Di mio ci aggiungo che non si può pretendere che i SEO studino l’ABC di come è fatto un motore di ricerca (sarebbe come pretendere da un chirurgo che studiasse anatomia, per dire) ma è possibile capire da sé che il tema in oggetto è una sonora cagata semplicemente dando un’occhiata alle istruzioni previste dal meta tag ROBOTS: tra le tante, ce n’è una che si chiama “NOINDEX” e un’altra che si chiama “NOARCHIVE”. Ma vi pare mai possibile che quella che significa “non archiviare” sia la “NOINDEX”?

La domanda è volutamente retorica perché do per scontato che sarete in grado di rispondere da voi. E anche perché Plakto è purtroppo uscito un attimo a fumare una sigaretta. Comunque se arrivare alla risposta vi richiede acrobazie mentali troppo rocambolesche non so che dirvi… provate a iscrivervi ad una scuola circense.

L’undicesima cagata è tutta vostra

Come ormai consuetudine, i commenti sono a vostra disposizione per segnalare quei luoghi comuni che girano tra i SEO, le panzane che vanno contro ogni logica e le diffuse opinioni che non sono basate su alcun fatto.

Volendo restringere il numero di cagate a dieci, ne ho anche escluse dalla lista un paio che mi sembravano secondarie, in particolare una sull’authorship di Google (che la gente continua a confondere con l’agent rank). Ma ci sarà sicuramente modo di parlarne in futuro.

Plakto vi saluta con affetto.

64 Responses to Le 10 nuove cagate SEO di cui non si dovrebbe parlare più

  1. Michele Baldoni scrive il 13 June 2013 at 09:22

    Essere il primo a commentare aumenta la reputazione.

  2. barbara bonaventura scrive il 13 June 2013 at 10:17

    Ho le lacrime dal ridere: grazie.
    Rilancio subito

  3. Fra Baldo scrive il 13 June 2013 at 10:20

    la seconda posizione è la più cliccata..

  4. shiftzero scrive il 13 June 2013 at 10:25

    Se fai AdWords il tuo sito viene penalizzato in organico

  5. Alberto scrive il 13 June 2013 at 10:26

    ti apprezzo!

  6. andrea scarpetta scrive il 13 June 2013 at 10:33

    Il tasso di rimbalzo influenza il posizionamento!

  7. alessio scrive il 13 June 2013 at 10:36

    E comunque i colori assegnati ai font possono incrementare la rilevanza SEO delle keyword colorate all’uopo (ce lo sanno pure i muri).

  8. se scrive il 13 June 2013 at 10:56

    il trattino è meglio dell’ulderscore, l’undeerscore è meglio del trattino

    • LowLevel scrive il 13 June 2013 at 11:26

      @se: o anche “il trattino e l’underscore sono meglio dell’underscore e del trattino”, perché non si applica la proprietà commutativa.

  9. Giuseppe Guerrasio scrive il 13 June 2013 at 10:58
    • LowLevel scrive il 13 June 2013 at 14:13

      @Giuseppe Guerrasio: l’articolo che citi, risalente a tre anni fa, è una delle due ragioni che nell’articolo mi hanno spinto ad ipotizzare una “parziale marcia indietro”. La seconda ragione è un report di quanto affermato ieri da Matt Cutts, in base al quale non si sono boost nel ranking per avere un sito veloce (fonte). Queste conferme e smentite mi hanno indotto a parlare di “montagne russe”.

    • Merlinox scrive il 16 June 2013 at 22:55

      Resto titubante anch’io. Ho qualche caso reale di siti, non piccoli, che nel giro di qualche settimana, migliorando drasticamente le prestazioni, hanno avuto un netto miglioramento dell’indicizzazione, per rank e profondità di scansione.

  10. Fabri scrive il 13 June 2013 at 11:28

    È meglio usare immagini PNG che JPG. Google le preferisce…

  11. Roberto scrive il 13 June 2013 at 11:36

    Le immagini di donne nude piacciono agli utenti=miglior ranking

  12. Pingback: Anonymous

  13. niguli scrive il 13 June 2013 at 11:48

    le png aiutano a posizionare una pagina meglio delle jpg?

  14. niguli scrive il 13 June 2013 at 11:49

    fabri mi ha preceduto… quindi non sono l’unico ad avere sentito questa “domanda”… 😀

  15. scheggia scrive il 13 June 2013 at 12:32

    scusa ma allora cos’è che fa scendere un blog nella serp?

  16. 8volante scrive il 13 June 2013 at 12:38

    Plakto Fuma? lo scrivo in strong Plakto Smetti di fumare! Grazie

  17. Luigi Conte scrive il 13 June 2013 at 12:43

    Sono in forte disaccordo sui punti 4,7 e 8; l’unico in cui concordo appieno è il 10

    Esperienze ripetute hanno dimostrato che su siti contenenti migliaia di pagine, restituendo numerosi 404 su pagine inibite da robots.txt come per magia si è verificato un calo di ranking .. anche se restituire un 404 è innoquo, sta di fatto che azioni di questo tipo hanno influito pesantemente e come.

    Dire che la velocità di un sito non influisce sulla seo è come dire che la pulizia dei bicchieri di un ristorante non influisce sulla capacità di acquisire clienti .. magari acquisirli no, ma fidelizzarli si: se su un sito non mi trovo a mio agio perchè magari ha una esperienza di navigazione “lenta” e frustrante tendo ad evitarlo dalle serp; questo comporta (tra le altre cose) un minor ctr in serp e relativa posizione.

    Se dovessi fare un sito metterei un solo tag H1, cercherei di realizzare un codice snello e facilmente fruibile (anche se non per forza validato W3C), utilizzerei i tag strong e em al posto di B e I, utilizzerei i nofollow nei link su cui non ho controllo; in caso di cancellazione contenuti restituirei 404 mentre in caso di spostamento definitivo un 301; infine sfrutterei le meta description rendendole in linea con il contenuto. La speranza è che, così facendo, non venga fuori una cagata 😉

  18. Monica scrive il 13 June 2013 at 13:26

    Splendido!!!! 🙂

  19. giacomogaggiotti scrive il 13 June 2013 at 13:27

    Ti sei scordato I links nofollow passano comunque valore e rendono la link profile naturale 🙂

    Sul punto 8 bisognerebbe approfondire la cosa e ,esistono fattori di ranking maggiori e minori, per esempio la speed di un sito é un minor ranking factor come per esempio il tag H1.

    Tutti quelli che invece pensano che gli altri 9 punti non siano cagate dovrebbero decisamente cambiare lavoro.

  20. Francesco Margherita scrive il 13 June 2013 at 14:03

    Federico, potresti anche fare solo un articolo sulle 10 cagate SEO all’anno senza scrivere altro e il tuo blog sarebbe apprezzatissimo lo stesso. Ormai è un appuntamento irrinunciabile. Dovresti organizzare un evento annuale tipo: “10SEO(s)hit awards” 😀

    • LowLevel scrive il 13 June 2013 at 14:15

      @Francesco Margherita: l’idea degli awards è davvero bella! Comunque mi chiamo Enrico. 😛

  21. Johnnie Maneiro scrive il 13 June 2013 at 14:17

    Poche volte ti ho trovato così lucido!! 🙂 Bravo, bel articolo, di quelli che vorrei trovare uno al giorno. Ciao!

  22. Giacomo Pelagatti scrive il 13 June 2013 at 14:30

    @Luigi Conte:

    restituendo numerosi 404 su pagine inibite da robots.txt come per magia si è verificato un calo di ranking ..

    Oh bella! E come avrebbe fatto Google ad accorgersi dei 404, se le pagine erano “inibite da robots.txt”?

    • Luigi Conte scrive il 13 June 2013 at 15:14

      @Giacomo Pelagatti

      Non me lo spiego, così come non mi spiego come possano alcune pagine di un mio sito riuscire a posizionarsi in prima posizione della ricerca con una pagina VUOTA che restituisce un 404 da oltre due anni; un mese fa ho messo un 410 ma il risultato è lo stesso.

    • Giacomo Pelagatti scrive il 13 June 2013 at 17:09

      prima posizione della ricerca con una pagina VUOTA che restituisce un 404 da oltre due anni; un mese fa ho messo un 410 ma il risultato è lo stesso.

      La pagina che esce in prima posizione pur restituendo 404 (ora 410) da due anni è sempre in Disallow nel file robots.txt?

  23. Elena scrive il 13 June 2013 at 14:38

    Mille link 10€ e sarai primo!

  24. Pierpaolo scrive il 13 June 2013 at 15:03

    Mi domando google, nell’indicizzare questo articolo, cosa cavolo penserà. Lo reputerà un articolo sul SEO, sulla filosofia, sull’anatomia, sulla zoologia.. non ci siamo. Questo articolo non sarà mai ben posizionato in quanto hai mischiato troppi argomenti nella stessa pagina.

    E poi che titolo da dilettanti, nessuno ti ha insegnato un po’ di SEO copywriting?
    “SEO: le 10 nuove cagate di cui non si dovrebbe parlare più”
    o meglio
    “SEO: le 10 nuove cagate del posizionamento di cui non si dovrebbe parlare più”
    o anche
    “SEO: nuove 10 cagate posizionamento”
    oppure
    “SEO: posizionamento cagate 10 nuove”
    anche se questa vince:
    “SEO: tette”.

    • Rafael scrive il 17 June 2013 at 11:35

      SEO: tette gratis

  25. luigi scrive il 13 June 2013 at 15:25

    I titoli tutti in maiuscolo migliorano il ranking!

    • Pierpaolo scrive il 13 June 2013 at 15:52

      Se uno cerca tutto in maiuscolo, sì 🙂

  26. Matteo Zambon scrive il 13 June 2013 at 19:51

    Niente da dire ottimo articolo!
    Dico l’undicesimo:
    Avere un dominio più vecchio aumenta il ranking!

  27. Dario Salvelli scrive il 13 June 2013 at 20:05

    Grazie, davvero, per la versione reloaded. 🙂

  28. Danilo Petrozzi scrive il 14 June 2013 at 10:35

    Ottimo, però devo dissentire sui punti 6 e 8 in quanto ho testato personalmente più e più volte ottenendo risultati oggettivamente non discutibili =)

    Riguardo il punto 8, ad esempio, provate a prendere una vostra pagina ben posizionata e trasformate le immagini nel content da, mettiamo, 300×300 pixel tutte a 9500×9500 e poi scalatele con css per farle tornare visivamente cgiuste. Poi ne riparliamo =)

  29. luca bove scrive il 14 June 2013 at 12:26

    Un bell’articolo sulla valenza semantica in html5 di ,,, http://html5doctor.com/i-b-em-strong-element/
    e qualcosa di simile in italiano http://www.mattiafrigeri.it/articoli/web/html5-corretto-uso-tag-i-b-em-strong/

  30. Giacomo Pelagatti scrive il 14 June 2013 at 14:12

    Un po’ dissenteria è quasi fisiologica, quando comincia a far caldo. #cagateSEO

  31. melchiorre schifano scrive il 15 June 2013 at 09:28

    “Questa discrezionalità, paradossalmente, è proprio il motivo per il quale sulla possibile ripetizione del tag H1 sono state combattute guerre di religione che manco le crociate per la liberazione del santo sepolcro.”

    sei un grande… 🙂

  32. Stefano Bortuzzo scrive il 15 June 2013 at 14:36

    Per scongiurare Gigi d’Alessio, propongo di eliminare definivamente il nofollow

  33. Luca Bove scrive il 17 June 2013 at 09:20

    Enrico scusami
    ma la direttiva NOARCHIVE secondo la definizione non fa “visualizzare” la cache
    non c’è scritto nulla riguarda l’archiviazione.

    O sbaglio?

    • LowLevel scrive il 18 June 2013 at 03:17

      @Luca: sì, la definizione dice quello ma è fuorviante. Ti facci un riassunto.

      Pressocché tutti i motori di ricerca usano sia un indice sia un archivio dei documenti. Se si impedisce al motore di archiviare una risorsa, gli si rende impossibile estrarne i contenuti da mostrare nella cache e negli snippet sulle SERP. La direttiva per ottenere questo risultato è stata dunque chiamata originariamente NOARCHIVE, perché il risultato veniva ottenuto evitando di archiviare la risorsa. Questa è anche la ragione per la quale una direttiva NOARCHIVE implica anche un’implicita direttiva NOSNIPPET: perché i testi non stanno archiviati da nessuna parte. A livello di comunicazione Google semplifica le cose e spiega solo qual è il risultato, senza però spiegare che è una conseguenza del fatto che la risorsa non viene messa in archivio.

      In passato lo spiegava, ma da alcuni anni evita di scendere nei contesti tecnici per rendere le informazioni fruibili anche ai sassi. (il che è un bene, ma solo per i sassi)

  34. Ascao scrive il 17 June 2013 at 22:57

    grandissimo…un articolo perfetto a cui si perdonano anche alcune cagate!!! 😉

  35. Pingback: I siti veloci hanno ranking migliori? Macché, è una bufala! - LowLevel’s blog

  36. LowLevel scrive il 18 June 2013 at 03:21

    Visto che sulla velocità dei siti ci sono opinioni contrastanti, ho deciso di raccontarvi tutta la storia con un nuovo articolo: http://www.lowlevel.it/i-siti-veloci-hanno-ranking-migliori-macche-e-una-bufala/

    🙂

  37. AdN scrive il 18 June 2013 at 12:45

    A costo di sembrare un cazzaro, con questo articolo mi hai fatto venire un dubbio immenso.

    Stai dicendo che non ha davvero importanza dividere le parole di una URL con il dash rispetto all’underscore?

    In questo post:

    http://www.mattcutts.com/blog/dashes-vs-underscores/

    scrive esplicitamente:

    “So if you have a url like word1_word2, Google will only return that page if the user searches for word1_word2 (which almost never happens). If you have a url like word1-word2, that page can be returned for the searches word1, word2, and even “word1 word2″.”

    Non vale più questa norma?

    • Pierpaolo scrive il 18 June 2013 at 14:07

      Anch’io sapevo questa cosa, ma considerato che Wikipedia ha URL piene di underscore, e che in generale Google mi sembra intelligente abbastanza per riconoscere gli underscore come spazi negli url..

    • LowLevel scrive il 18 June 2013 at 21:33

      @AdN: la norma vale ancora ma la sua natura di cagata deriva dal fatto che la differenza tra le due scelte è talmente minima che ogni secondo investito a parlarne (compreso quelli necessari a scrivere questo commento) è un secondo investito male.

      In pura teoria, separare le parole con il trattino può fare una minima differenza pratica solo se quelle parole non appaiono in nessun altro punto all’interno della pagina. In tutti gli altri casi, son questioni pressocché irrilevanti, tanto che Google dice qualcosa di simile a “Se state iniziando a progettare un sito da zero, date preferenza al trattino perché separa i termini tra loro. Ma se avete un sito esistente, non state a perdere tempo a cambiare gli URL perché il gioco non vale la candela.” (fonte).

  38. AdN scrive il 18 June 2013 at 23:23

    Che possa essere tempo perso a disquisirne qua posso anche darti ragione. Ma se un cliente mi chiede come ottimizzare meglio il suo sito io gli consiglio tra le best practice anche quella di utilizzare il dash al posto del trattino.

    Ho sempre avuto un’approccio del tipo “tante piccole cose ne fanno una grande”

    Se uno non contasse fattori come questo, o utilizzare i giusti tag nell’html solo perchè di minore importanza non corre il rischio in realtà di fare una grossa cagata?

    • LowLevel scrive il 18 June 2013 at 23:37

      @AdN: sicuro, sarebbe una grande fesseria. Ecco perché il post non invita ad ignorare fattori, ma solo a non trasformarli in tormentoni incessanti e banali che durano per anni.

  39. Salvatore Capolupo scrive il 19 June 2013 at 14:03

    Aggiungo: “Il simbolo √ inserito all’inizio dei titoli incrementa il CTR della pagina”

    PS: che “abbuffata” tra il post sulla velocità dei siti e questo, cmq 😀

  40. seotorino scrive il 19 June 2013 at 22:03

    Google penalizza i siti web che usano redirect fatti con con meta refresh = 0

  41. navacasa.it scrive il 5 July 2013 at 09:52

    Buongiorno Enrico e complimenti per tutto, è un pò di tempo ormai che ti seguo e credo veramente che tu sia tra i seo più autorevoli d’Italia. Ma oggi leggendo i tuo post ho avuto un pò di confusione sul punto 2 e 10, perchè un altro autorevole seo della top ten Italiana non la pensa proprio uguale, leggi qui: http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/95-il-meta-tag-robots-non-robot-e-il-file-robots-txt.html.

    • LowLevel scrive il 5 July 2013 at 10:09

      @navacasa: non ho letto interamente quel post ma noto che è stato scritto oltre otto anni fa, che in termini SEO è un’era geologica.

      Devi tener conto che nel corso degli anni il linguaggio dei SEO si è evoluto e che se un tempo si parlava di indicizzazione o archiviazione o “disallow” come se si trattasse di concetti più o meno sinonimi, oggi c’è invece un uso più preciso dei termini usati.

      Come consiglio generale, in un ambito di così forte obsolescenza come la SEO, io suggerisco sempre di non comparare linee guida scritte in tempi diversi, perché nel corso del tempo il settore cambia ed anche i motori di ricerca potrebbero aver cambiato le regole.

    • navacasa.it scrive il 5 July 2013 at 10:24

      Grazie

  42. giovanninews scrive il 28 September 2013 at 10:09

    Dal mio punto di vista concordo molto con +Luigi Conte, anche se +Giacomo Pelagatti gli fa un paio di critiche abbastanza pesanti. Leggendo tutti i commenti, in fondo, anche altri punti sono stati alquanto discussi ed il titolo migliore doveva quindi essere qualcosa come “10 punti SEO da discutere” e non “Le nuove 10 cagate SEO….”. Ma secondo me, e forse anche per Google, la vera forza di Enrico Altavilla è la grande capacità di scrivere, in modo chiaro ed approfondito, che si legge tutto di un fiato e stimola la discusione ed è ciò che gli invidio. Enrico, forse hai sbagliato lavoro ! -:)

  43. Chiara Lunare scrive il 5 February 2014 at 22:12

    ciao, vorrei chiedere una cosa, io ho un sito in cui come pubblicità ho inserito un codice mobile redirect, questi tipi di cose possono penalizzarmi in qualche modo su google, non so diminuirmi l’organico o il pagerank o google se ne frega?? P.S: il codice è inserito solamente nella versione mobile del mio sito.

  44. Luca Spinelli scrive il 22 March 2014 at 19:36

    Mai riso così tanto, ho le lacrime agli occhi. Grazie lowlevel :’)

  45. Pingback: Le 4 Ragioni Per Cui La SEO è Morta... Almeno In Parte | The Wonder Web

  46. BlogMaster scrive il 22 April 2014 at 16:09

    ah ah ah ah, e ancora: ah ah ah ah troppo ganzo questo articolo .
    Dal 2007 su Blogger, mi sono sempre interessato alla SEO, certe diatribe credo siano più che altro ‘seghe mentali’ come dicono gli psicologi. O un fattore SEO ti aiuta, oppure ti penalizza, oppure non influisce, e Google da delle indicazioni ben chiare a proposito….
    A volte ho letto discussioni così inutili sulla SEO che sul sesso degli angeli

  47. Rick scrive il 6 August 2014 at 10:27

    Per me l’intelligenza e la cultura vanno sempre di pari passo con la sagacia, e tu hai dimostrato di possedere tutte e tre queste qualità. Se dovessi dare un voto al tuo articolo darei 10 e lode, anche se, in effetti, alcuni punti potrebbero non essere condivisibili al 100%. Complimenti!!!

  48. Riccardo “Merlinox” Mares scrive il 27 May 2015 at 11:20

    Ciao Enrico, approdo in questo vecchio post approfondendo il noindex. In realtà, in merito al punto 10, sembra che la NOINDEX comprenda la NOARCHIVE:
    http://i.imgur.com/w1nGlxu.png

  49. angelo farruggio scrive il 4 October 2016 at 19:20

    condivido ogni singolo punto!!!

  50. Alfonso scrive il 4 October 2016 at 22:49

    Google a partire dal 10 Gennaio 2017 penalizzerà tutti i siti web che mostrano pop-up invasivi ai visitatori che si collegano al sito tramite mobile 🙂 questa nuova regola in parte penalizzerà il posizionamento dei siti web. 🙂

Leave a Reply

Your email address will not be published. Required fields are marked *

More in Just SEO
5 nozioni semplici semplici sugli errori 404

Questo post dedicato agli status 404 è volutamente poco approfondito. In realtà per far le cose per bene, dovrei spiegare...

Close