Post recenti
Commenti recenti
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Le 10 nuove cagate SEO di cui non si dovrebbe parlare più
MAI più.
Sono passati quasi due anni dalla pubblicazione del famigerato articolo “Le 10 cagate SEO di cui non si dovrebbe parlare più“, che si è diffuso viralmente contro ogni previsione e che ha prodotto tra SEO e webmaster una quantità di commenti e apprezzamenti inaspettata.
Per “cagate SEO” si intendono quegli argomenti di nessuna importanza e quei luoghi comuni inaffondabili su cui i SEO amano riversare fiumi di chiacchiere inutili. Tutte discussioni che dovrebbero essere archiviate definitivamente.Siccome la produzione di materia fecale è intrinseca della natura umana e degli ambienti SEO/markettari, nel corso del tempo si sono accumulate nuove cagate SEO che è imperativo mettere a tacere per sempre, sotto gli scrosci di abbondanti tirate d’acqua.
Tutti i temi che seguono sono riferiti a Google, che dalle nostre parti è il motore di ricerca monopolista. Disclaimer e precisazioni le ho già fatte nell’introduzione della prima edizione delle “10 cagate SEO”, quindi potete leggerle lì se volete.
Orsù, disdicete l’abbonamento a “Pleistocene Oggi” (cit.) e proseguite con la lettura.
1. Ripetere gli H1 è penalizzante
Ah sì? E su quale pianeta extrasolare?
Le domande sulle intestazioni ed in particolare sugli H1 tornano periodicamente in vita nella comunità SEO come la muffa sui muri. Per passare l’antimuffa sarebbe sufficiente studiare un minimo di linguaggio HTML e prendere atto che il W3C ha sempre lasciato aperta la questione sul corretto utilizzo delle intestazioni, lasciando quindi discrezionalità ai webmaster.
Questa discrezionalità, paradossalmente, è proprio il motivo per il quale sulla possibile ripetizione del tag H1 sono state combattute guerre di religione che manco le crociate per la liberazione del santo sepolcro.
Lato SEO, pubblicare su una pagina intestazioni H1 multiple vuol dire semplicemente attribuire alle stesse la medesima importanza. Non è una cosa buona o cattiva, è solo una scelta.
A questo si aggiunge il fatto che Google attribuisce l’importanza di un testo valutando anche le sue caratteristiche visuali. Quindi che si tratti di H1 multipli o di molteplici intestazioni create attraverso un tag DIV ed un font molto grande, al motore poco importa. Ciò che si vede più grande è più importante di ciò che si vede più piccolo. Se hanno grandezza uguale, hanno importanza uguale. Nonostante Google svolga analisi visuali, voi continuate ad usare per le intestazioni i tag Hx, perché il loro significato è interpretabile in modo non ambiguo da qualsiasi software e motore di ricerca.
Tutto il resto sono solo masturbazioni mentali e, fidatevi, quelle mentali costituiscono la tipologia inutile.
2. Il Disallow serve a non far indicizzare risorse
Questa assurda convinzione si è diffusa principalmente perché, dopo i roghi europei dei libri culminati nel 1945, molti SEO sono stati privati di vocabolari da consultare per capire che cosa significa “indicizzare”. Alcuni credono che significhi “archiviare” o “leggere” o anche “asfaltare”, se hanno bevuto abbastanza birre.
“Indicizzare” significa semplicemente “aggiungere ad un indice un riferimento ad un documento”. E’ un po’ come avere un libro, che alla fine presenta un indice dei capitoli: se per un errore di stampa nell’indice manca un riferimento ad un capitolo, non significa che il capitolo non sia presente nel libro ma solo che nell’indice non se ne fa riferimento.
Quando il motore deve fare una ricerca consulta l’indice e se non ci sono riferimenti ad un documento, esso non verrà estratto dall’archivio dei documenti e di conseguenza non verrà presentato nei risultati di ricerca. Semplice, no?
La direttiva Disallow nel file robots.txt chiede semplicemente agli spider di un motore di non scaricare una o più risorse (ho semplificato un po’ ma va bene lo stesso). Non scaricando una risorsa, il motore non ne può conoscere ed archiviare i contenuti, ma può comunque aggiungere all’indice un riferimento alla risorsa. Per esempio il motore può creare riferimenti tra le parole presenti nell’URL (che il motore conosce anche se non ha scaricato il documento) e la risorsa stessa, quindi la risorsa viene indicizzata.
Ora magari la metafora del libro è poco comprensibile perché i roghi e Farmville hanno offuscato il vostro concetto di “libro”, ma se mi verrà in mente una metafora più abbordabile ve la invierò tramite messaggino.
3. Meglio il tag “B” o il tag “STRONG”?
L’incoronazione della pippa più diserbante va probabilmente all’annosa questione su quale tag conferisce più importanza ad un testo tra il tag “B” e il tag “STRONG”.
La questione non raggiunge le vette della diatriba “trattino o underscore”, che rimarrà negli annali come la più inutile idiozia su cui sono stati riversati fiumi di inchiostro telematico, ma attinge comunque dalla stessa scuola, palesemente frequentata da scolari perennemente ripetenti.
A volte ho l’impressione che i SEO siano persone tramutate magicamente in pietra negli anni ’90 e che solo recentemente si siano ridestate dal sonno pluriennale grazie ad un bacio di Matt Cutts, vagando spaesati per strada in cerca di una cabina telefonica per chiamare casa e di informazioni sull’uso di tag HTML creati decenni prima.
La faccio corta: il tag “STRONG” è quello da usare per attribuire importanza al testo. E’ nato per quello.
Poi potrei fare varie precisazioni, un po’ perché Google valuta anche gli aspetti visuali del testo e un po’ perché il W3C ha avuto la bella pensata di rivalutare il significato del tag “B” (sì, davvero). E invece le precisazioni non le faccio, altrimenti do il via ad altri decenni di discussioni inutili.
Mi spiace se ho riportato violentemente con i piedi per terra qualche cittadino del secolo scorso, ma già che ci sono: fossi in voi, nella top ten dei brani singoli non mi aspetterei di trovarci gli Oasis o Pupo.
4. Gli errori 404 tolgono valore al sito
L’unico tipo di errore di “risorsa non trovata” che crea problemi è quando lo status 404 viene restituito per risorse che invece dovrebbero esistere ed essere raggiungibili, per esempio risorse che ricevono link dalle pagine del sito stesso.
Se è però previsto e voluto che una risorsa non esista, allora erogare uno status 404 quando essa viene richiesta è esattamente quello che serve per dichiarare questa non-esistenza.
Il panico tra i SEO solitamente inizia a serpeggiare quando vengono osservati lunghi listoni di errori 404 sul pannello di “Strumenti per Webmaster” (GWT) di Google. Bisogna semplicemente comprendere che i 404 sono solo “dichiarazioni di non-esistenza” e che quindi è necessario valutare URL per URL se ciascuno di essi fa riferimento ad una risorsa che dovrebbe esistere oppure ad una risorsa che è previsto che non esista.
Non mi dilungo oltre, anche perché sull’argomento ho scritto un approfondimento qualche tempo fa. Anche se non lo leggerete, l’importante è che facciate pace con i codici di stato HTTP, che stanno lì per assolvere ad una funzione e non per ricoprire il ruolo di antagonisti cattivi che vanno eliminati.
5. Usando il nofollow si risparmia PageRank
Certo, inoltre elimina la forfora e aumenta il tasso di interesse sul conto corrente. A volte il nofollow produce anche biglietti omaggio per i concerti di Gigi D’Alessio, ma solo se non siete mai stati critici nei confronti dei cantanti neomelodici.
Anche in questo caso, questa diffusa convinzione nasce perché in pochi hanno idea di che cosa la formula del PageRank si pone l’obiettivo di calcolare. L’obiettivo del PageRank è quello di calcolare con che probabilità ciascuna risorsa può ricevere la visita di un utente che naviga il web cliccando sui vari link.
Se avete dieci link su una pagina, potete attribuire la relazione “nofollow” ad uno di essi, a più di uno, a tutti e dieci o a nessuno: qualunque cosa facciate, le probabilità che l’utente clicchi sui link non cambieranno in alcun modo.
Questa considerazione ha spinto Google a decidere che l’aggiunta dell’attributo nofollow ad un link non deve permettere di “riciclare” e ridistribuire il PageRank non attribuito tra le altre risorse linkate dalla pagina, perché questa ridistribuzione falserebbe i risultati dei calcoli degli indici di probabilità per le pagine che vengono linkate senza attributo nofollow.
Rassegnatevi a comprare da voi i biglietti per i concerti di Gigi.
(va detto comunque che in passato Google aveva fatto la stupidaggine di permettere il riciclo del PageRank non attribuito, ma fortunatamente hanno capito che era errato dal punto di vista matematico)
6. L’HTML non valido è un segnale di ranking negativo
Il codice HTML non valido non influisce in alcun modo sul ranking della risorsa. Sarebbe stato ingiusto se fosse stato un segnale negativo.
Fino a quando gli utenti sono in grado di visualizzare ed interagire correttamente con una pagina HTML, il motore di ricerca non ha alcuna ragione di sconsigliarla ai propri utenti. Per questo motivo tutti i motori di ricerca hanno sviluppato dei parser in grado di gestire il codice HTML non valido e persino codice HTML orrendamente mutilato.
Il dubbio sull’influenza nei ranking della validazione HTML si insinua a volte tra chi ha una visione molto tecnica della SEO e attribuisce a Google improbabili interessi a penalizzare i siti che presentano caratteristiche tecniche non ottimali.
La regola generale è: finché una caratteristica tecnica non produce un’esperienza sgradevole al cliente di Google (cioè l’utente del motore che approda sul vostro sito) allora Google non ha motivo di penalizzare alcunché.
7. Il testo nei tag META viene indicizzato
Si narra che Talete di Mileto, durante un’infervorata discussione con Erodoto, si impuntò su due gravi anacronismi che il primo considerava estremamente fastidiosi.
Il primo anacronismo riguardava la presenza stessa di Erodoto come interlocutore, il quale sarebbe nato oltre un secolo dopo Talete, e il secondo anacronismo riguardava il tema dell’indicizzabilità dei testi nei meta tag, che Talete riteneva essere un argomento trito e ritrito, le cui conclusioni definitive erano state raggiunte ormai da anni grazie alla consultazione dell’oracolo di Delfi.
Oggigiorno il tema dell’indicizzabilità dei testi nei meta tag viene discusso raramente tra i filosofi SEO contemporanei, ma a volte mi capita di vederlo riaffiorare dal mare magnum delle banalità e dell’obsolescenza.
E’ comunque falso. Nessuna delle parole o delle frasi inserite in un qualsiasi tag di tipo META viene aggiunta all’indice. Per alcuni di questi tag, per esempio per il META description, i motori archiviano il testo che esso contiene e lo sfruttano quando è utile mostrarlo all’utente nelle SERP, ma di questi testi non avviene alcuna indicizzazione.
E’ tempo di riporre la toga ed i sandali per vestirsi d’abiti di uso comune.
8. La velocità del sito è un fattore di ranking in Google
No. Questo mito è nato perché, nell’intento di evangelizzare la progettazione di siti web di qualità, Google ha lasciato intendere che i siti dalle prestazioni migliori potrebbero ottenere qualche vantaggio nelle SERP organiche.
In realtà la visibilità sulle SERP per i siti più veloci può migliorare indirettamente, perché i siti facilmente navigabili e reattivi a rispondere alle richieste dei propri visitatori, sono anche i siti che vengono apprezzati di più, che vengono consigliati e condivisi sul web e che accumulano dunque link e citazioni nel corso del tempo.
Ma di influenze dirette tra la velocità di un sito ed il ranking nelle SERP non ce ne sono, anche perché l’espressione “velocità di un sito” può significare tutto e niente, con una forte tendenza verso “niente”. Fino a quando sarà un concetto fumoso sarà anche impossibile misurarlo, quindi non potrà essere un segnale preso in considerazione dal motore per il ranking.
Non mi sento di escludere il fatto che Google abbia fatto un parziale dietrofront sull’influenza della velocità dei siti sulle SERP organiche. Sta di fatto che nel momento in cui scrivo, viene dichiarato che la velocità non è uno dei segnali usati dall’algoritmo di ranking.
Benvenuti nel fatato mondo delle montagne russe di Google. Per entrare dovete essere alti almeno PR5.
9. Il motore ha penalizzato il sito per indurmi a comprare pubblicità
Questa è una di quelle genialate partorite più di intestino che di intelletto. Sarà la condivisione dell’iniziale “inte” che confonde le menti più semplici.
Mi capita ogni tanto di beccare qualcuno che ha avuto il sito penalizzato da Google e che questo qualcuno congetturi che la motivazione sia di indurre il proprietario ad investire in keyword advertising.
Il sito penalizzato può anche somigliare ad un flipper lampeggiante di GIF animate, privo di testo e con la dicitura “Browser consigliato Internet Explorer 1.0 beta” nel footer, ma per qualche ragione la causa più probabile della penalizzazione viene ritenuta essere la voglia del motore di monetizzare.
In questi casi io faccio sempre notare: “Tutti quelli che nella SERP stavano sotto il tuo sito son saliti di una posizione grazie alla tua scomparsa. Quindi per un sito che scompare, ce ne sono tanti che salgono di posizione. Nel complesso mi pare un evento che crea più gente felice di gente incazzata.”.
Ovviamente non voglio imporre questa logica a nessuno, però sul fatto che le SERP siano qualcosa di molto simile ad uno “Zero sum game“, non ci piove.
10. Il NOINDEX serve a non fare archiviare le pagine
Ecco, questa è un’altra boiata frequente che nasce dall’assoluta sconoscenza di che cosa significa “indicizzare” e “archiviare”. L’accenno alla differenza di ruolo tra archivio ed indice ve l’ho già fatto quando ho scritto della direttiva Disallow, quindi mi limito ad aggiungere l’ovvio.
L’indice cita quali documenti sono associati a certe specifiche parole o frasi, mentre l’archivio dei documenti contiene… provate a indovinare…
Fa niente, ve lo dico io. Anzi, ve lo faccio dire da Plakto, il mio vicino di casa. Plakto è un organismo protozoico che risale all’era del brodo primordiale, di mestiere fa l’assicuratore ma ha anche investito dieci minuti della propria esistenza per capire com’è fatto un motore di ricerca. Plakto dice che l’archivio dei documenti contiene i documenti e che l’istruzione NOINDEX non può entrarci niente con l’archiviazione dei documenti, visto che influisce sull’indice e non sull’archivio.
Plakto aggiunge anche che dovreste approfittare del fatto che, a differenza sua, siete organismi multicellulari e che dovreste fare il possibile per giustificare alcuni milioni di anni di evoluzione. Plakto dice che l’unica cosa che vi invidia è la riproduzione sessuata.
Ringrazio Plakto per questo suo illuminante contributo. Di mio ci aggiungo che non si può pretendere che i SEO studino l’ABC di come è fatto un motore di ricerca (sarebbe come pretendere da un chirurgo che studiasse anatomia, per dire) ma è possibile capire da sé che il tema in oggetto è una sonora cagata semplicemente dando un’occhiata alle istruzioni previste dal meta tag ROBOTS: tra le tante, ce n’è una che si chiama “NOINDEX” e un’altra che si chiama “NOARCHIVE”. Ma vi pare mai possibile che quella che significa “non archiviare” sia la “NOINDEX”?
La domanda è volutamente retorica perché do per scontato che sarete in grado di rispondere da voi. E anche perché Plakto è purtroppo uscito un attimo a fumare una sigaretta. Comunque se arrivare alla risposta vi richiede acrobazie mentali troppo rocambolesche non so che dirvi… provate a iscrivervi ad una scuola circense.
L’undicesima cagata è tutta vostra
Come ormai consuetudine, i commenti sono a vostra disposizione per segnalare quei luoghi comuni che girano tra i SEO, le panzane che vanno contro ogni logica e le diffuse opinioni che non sono basate su alcun fatto.
Volendo restringere il numero di cagate a dieci, ne ho anche escluse dalla lista un paio che mi sembravano secondarie, in particolare una sull’authorship di Google (che la gente continua a confondere con l’agent rank). Ma ci sarà sicuramente modo di parlarne in futuro.
Plakto vi saluta con affetto.
Essere il primo a commentare aumenta la reputazione.
Ho le lacrime dal ridere: grazie.
Rilancio subito
la seconda posizione è la più cliccata..
Se fai AdWords il tuo sito viene penalizzato in organico
ti apprezzo!
Il tasso di rimbalzo influenza il posizionamento!
E comunque i colori assegnati ai font possono incrementare la rilevanza SEO delle keyword colorate all’uopo (ce lo sanno pure i muri).
il trattino è meglio dell’ulderscore, l’undeerscore è meglio del trattino
@se: o anche “il trattino e l’underscore sono meglio dell’underscore e del trattino”, perché non si applica la proprietà commutativa.
Sul punto 8 direi che è cannato di brutto:
http://googlewebmastercentral.blogspot.it/2010/04/using-site-speed-in-web-search-ranking.html
@Giuseppe Guerrasio: l’articolo che citi, risalente a tre anni fa, è una delle due ragioni che nell’articolo mi hanno spinto ad ipotizzare una “parziale marcia indietro”. La seconda ragione è un report di quanto affermato ieri da Matt Cutts, in base al quale non si sono boost nel ranking per avere un sito veloce (fonte). Queste conferme e smentite mi hanno indotto a parlare di “montagne russe”.
Resto titubante anch’io. Ho qualche caso reale di siti, non piccoli, che nel giro di qualche settimana, migliorando drasticamente le prestazioni, hanno avuto un netto miglioramento dell’indicizzazione, per rank e profondità di scansione.
È meglio usare immagini PNG che JPG. Google le preferisce…
Le immagini di donne nude piacciono agli utenti=miglior ranking
Pingback: Anonymous
le png aiutano a posizionare una pagina meglio delle jpg?
fabri mi ha preceduto… quindi non sono l’unico ad avere sentito questa “domanda”… 😀
scusa ma allora cos’è che fa scendere un blog nella serp?
Plakto Fuma? lo scrivo in strong Plakto Smetti di fumare! Grazie
Sono in forte disaccordo sui punti 4,7 e 8; l’unico in cui concordo appieno è il 10
Esperienze ripetute hanno dimostrato che su siti contenenti migliaia di pagine, restituendo numerosi 404 su pagine inibite da robots.txt come per magia si è verificato un calo di ranking .. anche se restituire un 404 è innoquo, sta di fatto che azioni di questo tipo hanno influito pesantemente e come.
Dire che la velocità di un sito non influisce sulla seo è come dire che la pulizia dei bicchieri di un ristorante non influisce sulla capacità di acquisire clienti .. magari acquisirli no, ma fidelizzarli si: se su un sito non mi trovo a mio agio perchè magari ha una esperienza di navigazione “lenta” e frustrante tendo ad evitarlo dalle serp; questo comporta (tra le altre cose) un minor ctr in serp e relativa posizione.
Se dovessi fare un sito metterei un solo tag H1, cercherei di realizzare un codice snello e facilmente fruibile (anche se non per forza validato W3C), utilizzerei i tag strong e em al posto di B e I, utilizzerei i nofollow nei link su cui non ho controllo; in caso di cancellazione contenuti restituirei 404 mentre in caso di spostamento definitivo un 301; infine sfrutterei le meta description rendendole in linea con il contenuto. La speranza è che, così facendo, non venga fuori una cagata 😉
Splendido!!!! 🙂
Ti sei scordato I links nofollow passano comunque valore e rendono la link profile naturale 🙂
Sul punto 8 bisognerebbe approfondire la cosa e ,esistono fattori di ranking maggiori e minori, per esempio la speed di un sito é un minor ranking factor come per esempio il tag H1.
Tutti quelli che invece pensano che gli altri 9 punti non siano cagate dovrebbero decisamente cambiare lavoro.
Federico, potresti anche fare solo un articolo sulle 10 cagate SEO all’anno senza scrivere altro e il tuo blog sarebbe apprezzatissimo lo stesso. Ormai è un appuntamento irrinunciabile. Dovresti organizzare un evento annuale tipo: “10SEO(s)hit awards” 😀
@Francesco Margherita: l’idea degli awards è davvero bella! Comunque mi chiamo Enrico. 😛
Poche volte ti ho trovato così lucido!! 🙂 Bravo, bel articolo, di quelli che vorrei trovare uno al giorno. Ciao!
@Luigi Conte:
Oh bella! E come avrebbe fatto Google ad accorgersi dei 404, se le pagine erano “inibite da robots.txt”?
@Giacomo Pelagatti
Non me lo spiego, così come non mi spiego come possano alcune pagine di un mio sito riuscire a posizionarsi in prima posizione della ricerca con una pagina VUOTA che restituisce un 404 da oltre due anni; un mese fa ho messo un 410 ma il risultato è lo stesso.
La pagina che esce in prima posizione pur restituendo 404 (ora 410) da due anni è sempre in Disallow nel file robots.txt?
Mille link 10€ e sarai primo!
Mi domando google, nell’indicizzare questo articolo, cosa cavolo penserà. Lo reputerà un articolo sul SEO, sulla filosofia, sull’anatomia, sulla zoologia.. non ci siamo. Questo articolo non sarà mai ben posizionato in quanto hai mischiato troppi argomenti nella stessa pagina.
E poi che titolo da dilettanti, nessuno ti ha insegnato un po’ di SEO copywriting?
“SEO: le 10 nuove cagate di cui non si dovrebbe parlare più”
o meglio
“SEO: le 10 nuove cagate del posizionamento di cui non si dovrebbe parlare più”
o anche
“SEO: nuove 10 cagate posizionamento”
oppure
“SEO: posizionamento cagate 10 nuove”
anche se questa vince:
“SEO: tette”.
SEO: tette gratis
I titoli tutti in maiuscolo migliorano il ranking!
Se uno cerca tutto in maiuscolo, sì 🙂
Niente da dire ottimo articolo!
Dico l’undicesimo:
Avere un dominio più vecchio aumenta il ranking!
Grazie, davvero, per la versione reloaded. 🙂
Ottimo, però devo dissentire sui punti 6 e 8 in quanto ho testato personalmente più e più volte ottenendo risultati oggettivamente non discutibili =)
Riguardo il punto 8, ad esempio, provate a prendere una vostra pagina ben posizionata e trasformate le immagini nel content da, mettiamo, 300×300 pixel tutte a 9500×9500 e poi scalatele con css per farle tornare visivamente cgiuste. Poi ne riparliamo =)
Un bell’articolo sulla valenza semantica in html5 di ,,, http://html5doctor.com/i-b-em-strong-element/
e qualcosa di simile in italiano http://www.mattiafrigeri.it/articoli/web/html5-corretto-uso-tag-i-b-em-strong/
Un po’ dissenteria è quasi fisiologica, quando comincia a far caldo. #cagateSEO
“Questa discrezionalità, paradossalmente, è proprio il motivo per il quale sulla possibile ripetizione del tag H1 sono state combattute guerre di religione che manco le crociate per la liberazione del santo sepolcro.”
sei un grande… 🙂
Per scongiurare Gigi d’Alessio, propongo di eliminare definivamente il nofollow
Enrico scusami
ma la direttiva NOARCHIVE secondo la definizione non fa “visualizzare” la cache
non c’è scritto nulla riguarda l’archiviazione.
O sbaglio?
@Luca: sì, la definizione dice quello ma è fuorviante. Ti facci un riassunto.
Pressocché tutti i motori di ricerca usano sia un indice sia un archivio dei documenti. Se si impedisce al motore di archiviare una risorsa, gli si rende impossibile estrarne i contenuti da mostrare nella cache e negli snippet sulle SERP. La direttiva per ottenere questo risultato è stata dunque chiamata originariamente NOARCHIVE, perché il risultato veniva ottenuto evitando di archiviare la risorsa. Questa è anche la ragione per la quale una direttiva NOARCHIVE implica anche un’implicita direttiva NOSNIPPET: perché i testi non stanno archiviati da nessuna parte. A livello di comunicazione Google semplifica le cose e spiega solo qual è il risultato, senza però spiegare che è una conseguenza del fatto che la risorsa non viene messa in archivio.
In passato lo spiegava, ma da alcuni anni evita di scendere nei contesti tecnici per rendere le informazioni fruibili anche ai sassi. (il che è un bene, ma solo per i sassi)
grandissimo…un articolo perfetto a cui si perdonano anche alcune cagate!!! 😉
Pingback: I siti veloci hanno ranking migliori? Macché, è una bufala! - LowLevel’s blog
Visto che sulla velocità dei siti ci sono opinioni contrastanti, ho deciso di raccontarvi tutta la storia con un nuovo articolo: http://www.lowlevel.it/i-siti-veloci-hanno-ranking-migliori-macche-e-una-bufala/
🙂
A costo di sembrare un cazzaro, con questo articolo mi hai fatto venire un dubbio immenso.
Stai dicendo che non ha davvero importanza dividere le parole di una URL con il dash rispetto all’underscore?
In questo post:
http://www.mattcutts.com/blog/dashes-vs-underscores/
scrive esplicitamente:
“So if you have a url like word1_word2, Google will only return that page if the user searches for word1_word2 (which almost never happens). If you have a url like word1-word2, that page can be returned for the searches word1, word2, and even “word1 word2″.”
Non vale più questa norma?
Anch’io sapevo questa cosa, ma considerato che Wikipedia ha URL piene di underscore, e che in generale Google mi sembra intelligente abbastanza per riconoscere gli underscore come spazi negli url..
@AdN: la norma vale ancora ma la sua natura di cagata deriva dal fatto che la differenza tra le due scelte è talmente minima che ogni secondo investito a parlarne (compreso quelli necessari a scrivere questo commento) è un secondo investito male.
In pura teoria, separare le parole con il trattino può fare una minima differenza pratica solo se quelle parole non appaiono in nessun altro punto all’interno della pagina. In tutti gli altri casi, son questioni pressocché irrilevanti, tanto che Google dice qualcosa di simile a “Se state iniziando a progettare un sito da zero, date preferenza al trattino perché separa i termini tra loro. Ma se avete un sito esistente, non state a perdere tempo a cambiare gli URL perché il gioco non vale la candela.” (fonte).
Che possa essere tempo perso a disquisirne qua posso anche darti ragione. Ma se un cliente mi chiede come ottimizzare meglio il suo sito io gli consiglio tra le best practice anche quella di utilizzare il dash al posto del trattino.
Ho sempre avuto un’approccio del tipo “tante piccole cose ne fanno una grande”
Se uno non contasse fattori come questo, o utilizzare i giusti tag nell’html solo perchè di minore importanza non corre il rischio in realtà di fare una grossa cagata?
@AdN: sicuro, sarebbe una grande fesseria. Ecco perché il post non invita ad ignorare fattori, ma solo a non trasformarli in tormentoni incessanti e banali che durano per anni.
Aggiungo: “Il simbolo √ inserito all’inizio dei titoli incrementa il CTR della pagina”
PS: che “abbuffata” tra il post sulla velocità dei siti e questo, cmq 😀
Google penalizza i siti web che usano redirect fatti con con meta refresh = 0
Buongiorno Enrico e complimenti per tutto, è un pò di tempo ormai che ti seguo e credo veramente che tu sia tra i seo più autorevoli d’Italia. Ma oggi leggendo i tuo post ho avuto un pò di confusione sul punto 2 e 10, perchè un altro autorevole seo della top ten Italiana non la pensa proprio uguale, leggi qui: http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/95-il-meta-tag-robots-non-robot-e-il-file-robots-txt.html.
@navacasa: non ho letto interamente quel post ma noto che è stato scritto oltre otto anni fa, che in termini SEO è un’era geologica.
Devi tener conto che nel corso degli anni il linguaggio dei SEO si è evoluto e che se un tempo si parlava di indicizzazione o archiviazione o “disallow” come se si trattasse di concetti più o meno sinonimi, oggi c’è invece un uso più preciso dei termini usati.
Come consiglio generale, in un ambito di così forte obsolescenza come la SEO, io suggerisco sempre di non comparare linee guida scritte in tempi diversi, perché nel corso del tempo il settore cambia ed anche i motori di ricerca potrebbero aver cambiato le regole.
Grazie
Dal mio punto di vista concordo molto con +Luigi Conte, anche se +Giacomo Pelagatti gli fa un paio di critiche abbastanza pesanti. Leggendo tutti i commenti, in fondo, anche altri punti sono stati alquanto discussi ed il titolo migliore doveva quindi essere qualcosa come “10 punti SEO da discutere” e non “Le nuove 10 cagate SEO….”. Ma secondo me, e forse anche per Google, la vera forza di Enrico Altavilla è la grande capacità di scrivere, in modo chiaro ed approfondito, che si legge tutto di un fiato e stimola la discusione ed è ciò che gli invidio. Enrico, forse hai sbagliato lavoro ! -:)
ciao, vorrei chiedere una cosa, io ho un sito in cui come pubblicità ho inserito un codice mobile redirect, questi tipi di cose possono penalizzarmi in qualche modo su google, non so diminuirmi l’organico o il pagerank o google se ne frega?? P.S: il codice è inserito solamente nella versione mobile del mio sito.
Mai riso così tanto, ho le lacrime agli occhi. Grazie lowlevel :’)
Pingback: Le 4 Ragioni Per Cui La SEO è Morta... Almeno In Parte | The Wonder Web
ah ah ah ah, e ancora: ah ah ah ah troppo ganzo questo articolo .
Dal 2007 su Blogger, mi sono sempre interessato alla SEO, certe diatribe credo siano più che altro ‘seghe mentali’ come dicono gli psicologi. O un fattore SEO ti aiuta, oppure ti penalizza, oppure non influisce, e Google da delle indicazioni ben chiare a proposito….
A volte ho letto discussioni così inutili sulla SEO che sul sesso degli angeli
Per me l’intelligenza e la cultura vanno sempre di pari passo con la sagacia, e tu hai dimostrato di possedere tutte e tre queste qualità. Se dovessi dare un voto al tuo articolo darei 10 e lode, anche se, in effetti, alcuni punti potrebbero non essere condivisibili al 100%. Complimenti!!!
Ciao Enrico, approdo in questo vecchio post approfondendo il noindex. In realtà, in merito al punto 10, sembra che la NOINDEX comprenda la NOARCHIVE:
http://i.imgur.com/w1nGlxu.png
condivido ogni singolo punto!!!
Google a partire dal 10 Gennaio 2017 penalizzerà tutti i siti web che mostrano pop-up invasivi ai visitatori che si collegano al sito tramite mobile 🙂 questa nuova regola in parte penalizzerà il posizionamento dei siti web. 🙂