Post recenti
Commenti recenti
- I Principali Test per un Sito Web in Ottica SEO - Ingegnerealbano.com on Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
- SEO e keywords: esistono strategie e tecniche efficaci? | SERIAL EYE on Benedetta SEO, maledetta SEO
- LowLevel on Continuare a smontare Google: un’altra scoperta SEO
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Hacking di Google: servizi nascosti, sconosciuti o futuri
Tutto quanto state per leggere è solo un gioco.
Smanettare nel codice di Google è sempre divertente. Osservando il codice HTML oppure certe convenzioni seguite per anni sui nomi di acuni file, emergono abitudini dell’azienda di Mountain View o caratteristiche che possono essere sfruttate per trovare informazioni interessanti.
Tra tutte, probabilmente le informazioni più ghiotte sono quelle relative a servizi non ancora pubblici ma previsti per il futuro.
Nei prossimi paragrafi vi condividerò i risultati di alcune delle ricerche che ho svolto, precisando che quanto ho trovato non corrisponde necessariamente a nuovi servizi o prodotti di Google ma potrebbero essere riferimenti a servizi pubblici che il sottoscritto non conosce o ricorda. 😛
Proprio per la suddetta ragione, vi chiederò di aiutarmi a capire se si tratta di servizi realmente nuovi o meno. 🙂
Logo dei servizi
Gli URL usati per i logo di Google sono sempre stati del tipo:
http://www.google.com/images/logos/nomeservizio_logo.gif
Vengono anche usate leggere variazioni nell’URL, per specificare le versioni di uno stesso logo in lingue diverse dall’inglese; tuttavia l’URL sopra indicato rimane quello principale e “canonico”.
Non si può escludere che prima di annunciare un nuovo prodotto, per esempio un nuovo motore di ricerca verticale oppure un nuovo servizio per le aziende, alcuni dei file necessari ad erogare il servizio vengano predisposti online con un po’ di anticipo.
Chissà che cosa si scoprirebbe se qualcuno provasse a testare l’esistenza di nuovi logo con alcune migliaia di accessi ad URL del tipo:
http://www.google.com/images/logos/ + parola + _logo.gif
Ho voluto approfittare dell’esistenza online di qualche dizionario inglese gratuito. Tra i tanti logo che ho beccato, io non conosco quelli che seguono. Mi dareste una mano a risalire ai servizi che li usano? I commenti del blog sono a vostra disposizione! 🙂
- http://www.google.com/images/logos/new_logo.gif
- http://www.google.com/images/logos/press_logo.gif
- http://www.google.com/images/logos/beat_logo.gif
- http://www.google.com/images/logos/storage_logo.gif
- http://www.google.com/images/logos/agency_logo.gif
- http://www.google.com/images/logos/shallow_directory_logo.gif (trovato in altro modo e sicuramente usato in passato)
Sono riuscito a trovare qualche piccolo inizio facendo delle ricerche, ma non ho acquisito alcuna certezza sull’uso di quei logo. Ogni vostro contributo è benvenuto.
Identificatori dei motori verticali
Quando effettuate una ricerca su Google Web (vi consiglio di farne una su Google.com e proseguire nella lettura) appare a sinistra dei risultati una colonna con delle icone dedicate ai motori di ricerca verticali.
Cliccando su una qualunque delle icone, per esempio quella del motore delle News, l’URL della pagina visualizzata dal browser cambia e al suo interno il parametro “tbm” contiene una stringa di testo che identifica il motore di ricerca verticale selezionato, “nws” nel caso delle News:
http://www.google.com/search?q=test&hl=en&prmd=ivnsfd&source=lnms&tbm=nws&sa=X&oi=mode_link&ct=mode&cd=4
Se provate a modificare il valore “nws” in un altro identificatore di un motore di ricerca verticale, Google produrrà la pagina relativa. Potete provare cambiando “nws” con “mbl”, che è l’identificatore dei contenuti Realtime:
http://www.google.com/search?q=test&hl=en&prmd=ivnsfd&source=lnms&tbm=mbl&sa=X&oi=mode_link&ct=mode&cd=4
Che succede se al parametro “tbm” viene assegnato un valore che non corrisponde ad un motore di ricerca verticale esistente? Google mostra un errore di tipo 400 (Bad Request) all’utente:
http://www.google.com/search?q=test&hl=en&prmd=ivnsfd&source=lnms&tbm=ciccio&sa=X&oi=mode_link&ct=mode&cd=4
Ravanando nel codice Javascript di Google, ho trovato un array che ospita valori destinati ad essere assegnati al parametro “tbm”, ovvero una lista di identificatori dei motori di ricerca. Sono tutti validi e accettati da Google, nel senso che non producono un errore di classe 400, tuttavia alcuni identificatori sono “inattivi” e i motori di ricerca richiamati non forniscono risultati.
Nella tabella che segue ho riassunto i codici conosciuti, quelli sconosciuti e alcune mie congetture basate su associazioni puramente arbitrarie e personali. Per tutti i codici, ho aggiunto un link all’URL dei risultati.
Codice | Motore di ricerca | Note |
---|---|---|
evn | Sconosciuto | Events? |
frm | Sconosciuto | |
ppl | Sconosciuto | People? |
prc | Sconosciuto | |
klg | Sconosciuto | Knol/Knowledge? |
pts | Patents | |
rcp | Recipes | |
shop | Shopping | |
vid | Videos | |
nws | News | |
mbl | Realtime | |
bks | Books | |
plcs | Places | |
isch | Images | |
blg | Blogs | |
dsc | Discussions |
Voglio indirizzare la vostra attenzione sopratutto sulle congetture “People” (che è diverso da Google Profiles, che possiede un identificatore diverso da “ppl”) e “Knol/Knowledge“, perché un’associazione di questi concetti può essere fatta con quello che mostrerò di seguito.
Grafica delle icone
L’ultima fonte di informazioni riservate potrebbero essere le icone che Google usa per i servizi di ricerca. Fortunatamente, piuttosto che gestirle tutte con file a sé stanti, Google usa la buona tecnica degli Sprite CSS e quindi unisce tutte le icone dei servizi di ricerca in un’unica immagine.
Quella che segue è la versione dell’immagine che è stata usata quando Google ha introdotto per tutti gli utenti la barra laterale per la selezione del tipo di ricerca, nel maggio 2010:
http://www.google.com/images/nav_logo15.png
Come potete notare, tra le icone appaiono un punto di domanda verde e due omini stilizzati (che ricordano un po’ quelli di Myspace): si tratta dunque di servizi di ricerca già preventivati all’epoca da Google, mantenuti fino alla più recente versione dell’immagine, ma che non vengono mai mostrati agli utenti nella barra verticale.
Volendo concedermi un volo di fantasia e cercando a tutti i costi di associarli agli identificatori dei motori verticali illustrati pocanzi, mi verrebbe da dire che le due icone misteriose potrebbero essere associate rispettivamente a dei concetti quali “Know/Knowledge” e “People”.
Ma queste sono le mie congetture. Vi invito a fare le vostre specie se, a differenza del sottoscritto, avete notato l’uso di queste icone prima d’ora. 🙂
Approfondimenti
Se siete i classici smanettoni che voglio ulteriormente approfondire quanto Google tenta di tenere riservato, vi segnalo una persona che fino a poco tempo fa era considerato il vero esperto in materia: Tony Ruscoe. Il suo blog è ricco di indicazioni su come approcciare la ricerca di servizi non accessibili al pubblico.
Tony ha usato per anni diversi sistemi, differenti da quelli sfruttati da me e spiegati in questo post. Stanchi di ricevere continui dictionary attack, quelli di Google hanno alla fine pensato che sarebbe stata una buona idea accettare la sua candidatura nel Webmaster Team e l’hanno assunto nel 2010. Interrompendo di fatto le sue ricerche.
Whatsup 0.3: gestione dei datacenter e fermento sul web
Nel precedente post dedicato a Whatsup avevo accennato alla versione 0.3, che tra le altre cose introduce la produzione automatica delle mappe mentali.
Prima di affrontare l’esportazione dei cluster in formato FreeMind, però, penso che sia opportuno dare piorità ad un aspetto più critico e che durante la sua gestione mi ha permesso di sviluppare una nuova idea sul genere di informazioni che Whatsup potrebbe fornire.
La gestione dei datacenter
Ogni software di ranking, nell’interrogare Google o qualsiasi altro motore di ricerca, si pone come obiettivo quello di acquisire informazioni sulla posizione dei siti, che vengono solitamente comparate con quelle acquisite precedentemente per comprendere se la visibilità dei siti migliora o peggiora nel tempo.
In linea teorica, converebbe interrogare sempre uno stesso datacenter, per essere certi che le informazioni acquisite sulle posizioni non siano sporcate dal tipico fenomeno di disallineamento dei dati che i datacenter solitamente mostrano. Nella pratica esistono ragioni per evitare l’interrogazione di un solo datacenter, ma in teoria la maggiore consistenza dei dati si otterrebbe evitando di interrogare datacenter diversi.
L’acquisizione di dati fatta da Whatsup si pone però obiettivi diversi da quelli che si pongono i software di ranking. L’interrogazione di un solo datacenter, infatti, non consentirebbe di acquisire tutte le ricerche “hot” del momento ma solo le ricerche hot conosciute dal datacenter interrogato. A causa del disallineamento dei dati, datacenter diversi possono ospitare ricerche leggermente diverse.
Che cosa conviene fare a Whatsup? Conviene porsi come obiettivo la completezza delle informazioni e acquisire tutte le ricerche facendo richieste multiple a datacenter diversi.
Interrogare più datacenter implica che si acquisiranno sia ricerche appena introdotte da Google nella categoria delle ricerche del momento, sia ricerche ormai meno attuali ma che rimangono ancora per un po’ di tempo nei datacenter aggiornati per ultimi. Questa non è una reale criticità, tuttavia, perché la frequenza di aggiornamento dei datacenter è così alta che anche le ricerche “vecchie” hanno vita breve e scompaiono da tutti i datacenter abbastanza velocemente, dietro la spinta delle query più nuove.
Datacenter non vuol dire IP
Molti SEO credono che un datacenter di Google venga identificato da uno specifico indirizzo IP o, per essere più precisi, che vi sia una corrispondenza biunivoca tra un datacenter e un indirizzo IP. Almeno relativamente ai servizi di Google che interrogo per estrarre le ricerche hot, questa convinzione pare essere errata.
Anche interrogando Google allo stesso indirizzo IP, l’insieme di query restituito può variare da utente a utente, che in termini di protocollo si traduce in “da connessione a connessione”. Quindi magari ad un IP corrisponderà pure una specifica struttura tecnologica, però sicuramente non corrisponde un unico centro di dati o archivio.
Per questa ragione, piuttosto che fare interrogazioni a IP diversi, Whatsup mantiene inalterato l’IP interrogato e fa di tutto per presentarsi sotto spoglie diverse cambiando user-agent, cookie e ovviamente aprendo ogni volta una nuova connessione HTTP. La quantità di richieste è modesta e non c’è rischio di incorrere in contromisure anti-flood di Google.
Diversi test testimoniano che questo approccio permette di ottenere ad ogni interrogazione un insieme di query leggermente diverso da quello dell’interrogazione precedente. Whatsup fa un po’ di tali richieste e poi mette assieme tutte le query raccolte. Ho anche svolto inoltre delle prove che dimostrano che, sfruttando la tecnica indicata, cambiere l’IP interrogato non porta ulteriori benefici in termini di nuove query acquisite.
Sfruttare il disallineamento
Nel fare query ai servizi di Google che erogano le informazioni sulle query più cercate del momento, ho notato un fenomeno interessante che riguarda l’allineamento dei datacenter.
Durante le ore diurne il disallineamento è maggiore, probabilmente perché l’aggiornamento dei dati avviene dietro la spinta delle ricerche effettuate dagli utenti e un volume maggiore di ricerche o la nascita di picchi su temi nuovi comporta un maggiore e più frenetico avvicendamento delle query vecchie/nuove. Al contrario, le ore notturne non mostrano quasi mai datacenter dai contenuti disallineati.
Ho allora pensato che il grado di disallineamento dei datacenter potrebbe essere usato come un indice indiretto del volume di query in un dato istante o, più precisamente, del “fermento” delle ricerche degli utenti.
Si tratterebbe di un indice molto approssimativo e difficile da estrarre (anche durante il giorno i datacenter non appaiono disallineati costantemente) ma se l’intuizione sulla relazione “attività umana – disallineamenti” si dovesse dimostrare azzeccata, si potrebbe ottenere per la prima volta uno strumento in grado di dare visibilità del fermento esistente in rete durante l’arco di una giornata. 🙂
Nuovi contenuti e categorie di post
Siccome questo blog è nato per dare un po’ di visibilità alle cose che faccio o penso e siccome le cose che faccio o penso vanno, fortunatamente per il mio equilibrio mentale, ben oltre il marketing e l’informatica applicata ad Internet, penso sia giunto il momento di ampliare l’offerta.
La matrice “a basso livello” verrà ovviamente mantenuta e quindi attendetevi un po’ di chiacchiere su argomenti nuovi ma sempre approcciati dal punto di vista di un geek/nerd.
Nascerà qualche post su argomenti “artistici” e non escludo di poter riprendere in mano le matite o un tracker, cosa che non faccio da oltre venti anni.
Visto che non ho idea di quanto i nuovi argomenti piaceranno al target principale di questo blog, che rimarrà quello dei markettari e dei SEO, eviterò di dare troppa visibilità sui social network a questi nuovi post.
Pertanto se avete voglia di scoprire che razza di cose pubblicherò, vi conviene iscrivervi al feed. 🙂
Un proxy PHP per il querybot
Dopo aver pubblicato l’articolo sul querybot per la simulazione di ricerche degli utenti, alcune persone mi hanno chiesto se l’emulazione umana avrebbe previsto anche il cambio di IP durante le richieste.
La risposta è sì. Se non ne ho parlato nell’articolo è perché, senza pensarci, ho dato per scontata tale caratteristica, visto che da tempo uso un proxy PHP che mi permette di cambiare facilmente IP. Ma ugualmente scontato per i lettori non lo è e quindi vi spiego un po’ come funziona il proxy.
Il proxy è una versione riveduta e corrotta di un software che ho programmato qualche anno fa, per la creazione di alcuni tool SEO e di un proxy web in grado di bypassare certe restrizioni imposte da Google.
Si tratta di uno script PHP che fa da wrapper delle funzioni cURL e che necessita dunque di questa libreria per funzionare, così come di una versione o configurazione di PHP che contempli la presenza di tali funzioni.
Dal punto di vista dello sviluppatore l’uso è molto semplice: esiste una copia esatta delle funzioni previste dalla cURL, con l’aggiunta di alcune opzioni di tipo CURLOPT_ per la gestione dei parametri del proxy.
Per esempio, usando la copia della funzione curl_setopt() è possibile specificare l’URL del proxy che dovrà essere usato per le successive richieste.
All’URL specificato è presente uno script PHP che rappresenta il proxy vero e proprio, ecco come funziona il meccanismo:
- il client effettua una richiesta come si farebbe normalmente con la cURL
- il wrapper entra in gioco per codificare la richiesta in un particolare formato
- il wrapper usa la cURL per inviare la richiesta codificata allo script proxy, nel far questo usa il metodo POST
- lo script proxy riceve la richiesta codificata e la decodifica
- lo script proxy usa la cURL per effettuare la richiesta originale esattamente nello stesso modo in cui l’avrebbe fatta il client;
- ovviamente la richiesta viene effettuata con l’IP dell’host sul quale lo script proxy risiede
- lo script proxy riceve il risultato della richiesta, lo codifica nuovamente e lo spedisce al client
- il client riceve e decodifica il risultato della richiesta e lo restituisce al codice chiamante
Tutto il processo sopra indicato viene effettuato in modo assolutamente trasparente per il programmatore. In altre parole, qualsiasi script PHP che usa già la cURL può facilmente essere modificato per aggiungere la capacità di sfruttare uno o più proxy esterni.
Il sistema è comodo perché il sottoscritto, come la maggior parte dei webmaster e dei SEO, possiede più di un host provider per i propri siti web. Uploadare su ciascuno di essi lo script proxy permette dunque di ottenere tanti IP diversi quanti sono gli host su cui si pubblica lo script.
Conflitto tra le opzioni
Un dettaglio di progettazione che trovo interessante e che voglio condividere con voi è il modo in cui ho evitato le collisioni tra le nuove opzioni CURLOPT_ introdotte dal wrapper e le opzioni CURLOPT_ già esistenti.
La cURL prevede già di default un lungo elenco di opzioni attraverso le quali è possibile stabilire il comportamento della libreria. Ciascuna di queste opzioni ha un nome (una costante che inizia con “CURLOPT_”) e un corrispondente valore numerico.
Il wrapper è stato progettato in modo da replicare le opzioni CURLOPT_ e aggiungerne di proprie. Ho dovuto quindi fare attenzione a non definire costanti che avessero gli stessi valori già usati per quelle “ufficiali”. Il problema però sta nel fatto che ad ogni aggiornamento della cURL è possibile che la quantità di opzioni (e quindi delle costanti) aumenti.
Il mio wrapper non poteva quindi definire le nuove costanti in modo statico, perché avrebbe rischiato di usare valori potenzialmente allocabili dalle future versioni della cURL. Ogni aggiornamento della libreria avrebbe potuto scatenare dei conflitti e mettere il wrapper nelle condizioni di produrre malfunzionamenti.
La soluzione che ho trovato è stata quella di definire dinamicamente le costanti che mi serviva aggiungere. Il wrapper fa così ad ogni sua inizializzazione (si legga: lancio dello script):
- usa la funzione di PHP get_defined_constants() per ottenere la lista delle costanti definite dalla cURL
- estrae il valore più alto usato dalle costanti “ufficiali”
- inizia a definire dinamicamente con la funzione define() le nuove costanti, partendo da valori superiori a quello massimo usato dalla cURL
Facendo in questo modo non c’è rischio che le costanti vengano create con valori già in uso o potenzialmente usabili in futuro dalla libreria cURL. 🙂
Marketing Myopia applicato al search marketing
Un po’ di tempo fa mi sono imbattuto in un documento che molti markettari troveranno familiare ma che il sottoscritto sconosceva del tutto. Si trattava di “Marketing Myopia” (qui un PDF), scritto da Theodore Levitt e pubblicato su Harvard Business Review nel 1960.
Nell’articolo Levitt illustra le criticità che possono nascere quando un’azienda è così fortemente focalizzata sul proprio prodotto da perdere di vista i consumatori e le loro reali necessità.
Tale miopia non permette alle aziende di rendersi conto che i clienti potenziali non sono coloro potenzialmente interessati ad acquistare il loro prodotto bensì coloro che sono interessati a soddisfare un bisogno nel migliore dei modi. Tale miopia non consente alle imprese di cogliere nuove opportunità e di crescere.
Gli esempi proposti da Levitt vanno dal settore ferroviario, che non percepì sé stesso nel più ampio mercato dei trasporti, a quello cinematografico, che non percepì sé stesso nel più ampio mercato dell’intrattenimento.
A distanza di cinquanta anni le cose sono un po’ cambiate, ovviamente, ed oggi è impossibile trovare un film animato che non vada di pari passo con la produzione di giocattoli, merchandise, videogiochi, CD, giostre nei parchi a tema, suonerie per cellulari e qualunque altra cosa possa essere ricondotta al mondo dell’intrattenimento.
Per fare un esempio più attuale, è di pochi giorni fa la notizia che la più grande compagnia americana di wrestling, la WWE, ha deciso di bandire completamente il termine “wrestling” o “wrestler” dalla propria comunicazione per proporsi d’ora in poi come una più generica azienda di intrattenimento. Al calo di interesse registrato (già da anni) su uno specifico prodotto, la WWE ha reagito ridefinendo il proprio mercato di riferimento e, come conseguenza, il proprio prodotto.
La miopia nel search marketing
Nel 2008 mi son ritrovato a dover rivedere il mio approccio alla professione di SEO, dietro la spinta di due necessità:
- trovare il modo di far percepire di più ed applicare meglio le mie capacità
- abbracciare il fenomeno “social” in quanto ormai strettamente legato al SEM
Dei due, è il secondo punto che potrebbe rappresentare la criticità maggiore per quelle aziende o consulenti che nel corso degli anni si sono specializzati sul search mantenendo il proprio focus su questo canale.
La criticità non nasce tanto dal fatto che sia intrinsecamente pericolosa una specializzazione, quanto nel fatto che a imporre un’evoluzione del search marketing è il mercato, non limitato all’universo dei consumatori.
Gli stessi motori di ricerca, nell’ampliare le loro analisi del web, hanno da tempo incluso il monitoraggio di segnali social e sistemi per la personalizzazione delle ricerche. Volente o nolente, questi cambiamenti impongono una gestione del search più attenta alle tematiche sociali e più vicina ai comportamenti della gente.
Dalle aziende non ci si può aspettare una reazione spontanea e immediata ai mutamenti del mercato. Quando le agenzie del settore search passarono dalla fase spammosa alla fase seriosa non fu per lungimiranza o per maturità di una visione del mercato ma perché tra il 2004-2005 Google iniziò a fare il culo alle pagine doorway, imponendo a tutti un’evoluzione. Punto.
La stessa identica sensazione di costrizione l’avverto da qualche anno e diventa sempre maggiore: in piena epoca interattiva, su un web generato e valutato sempre più dagli utenti, un cambiamento del “prodotto search” è a mio parere inevitabile. Si tratta di un’inevitabilità che non presenta gli stessi elementi di repentinità di quando Google iniziò a penalizzare le doorway, ma rimane comunque un passo che molti comprenderanno essere necessario.
Per usare una metafora darwiniana, le condizioni ambientali sono cambiate e ci si aspetta che le specie si adattino. Fortunatamente per chi lavora nel search marketing, i mutamenti non sono ancora particolarmente repentini (ma occhio alle accelerazioni) e questo darà più tempo per adattarsi a quei soggetti molto specializzati, che in condizioni di maggiore repentinità dei cambiamenti di habitat sono solitamente i primi a soccombere.
Il settore del search marketing è destinato a focalizzarsi un po’ meno sul search ed un po’ più sul marketing: ogni atteggiamento contrario va considerato miope e un ostacolo alla crescita del proprio business.
Cambiar pelle è difficile
Tre anni fa non avrei mai immaginato che avrei smanettato con le pubblicità di Facebook, sviluppato tool per Twitter, monitorato in tempo reale le ricerche degli italiani su Google o analizzato il buzz online, eppure queste attività sono arrivate come semplice conseguenza di un cambiamento della società e di un ampliamento degli interessi del sottoscritto.
Esistono però almeno tre grandi limiti che, in base alle mie osservazioni, rallentano tale evoluzione, che è sia culturale sia di business:
- La rigidità delle strutture già esistenti
- Il mito della specializzazione
- L’amor proprio
Di fronte alla necessità di cambiare bisogna fare i conti con la propria natura. Se per un consulente freelance la libertà di scelta può tradursi facilmente in una modifica della propria professione, lo stesso non si può dire per le aziende, che possiedono strutture ben definite e più difficili da modificare.
Per le aziende il cambiamento è più difficile se la struttura è stata cucita in maniera molto aderente attorno ad uno specifico prodotto, ai ruoli necessari ad erogarlo e ai flussi necessari a gestirne la produzione. Se prodotto e flussi possono essere ridefiniti con una cerca agevolezza, una ridefinizione dei ruoli deve fare i conti con l’organigramma esistente e con le persone assunte.
Il problema è particolarmente critico perché un’evoluzione del search che abbracci il social deve passare attraverso l’acquisizione di nuove competenze (anche incamerabili attraverso nuove assunzioni) e può comportare la parziale inadeguatezza dei dipendenti preesistenti.
Perché? Perché i migliori SEO che conosco sono per costituzione dei nerd ipercritici, a volte anche rompicoglioni olimpionici; tali elementi caratteriali sono funzionali a trovare errori da correggere (questo fa il SEO) ma che siano compatibili con l’universo social è tutto da dimostrare…
Esiste anche una seconda inadeguatezza, quella relativa ad altri ruoli necessari a mandare avanti la baracca: reparto vendite e accounting. Ma se trattassi adesso questo aspetto rischierei di uscire fuori discorso e di invadere quello ben più ampio su cattedrali e bazaar. Forse in futuro scriverò qualche considerazione anche su questo aspetto.
Il secondo limite è quello del mito della specializzazione. Si noti: non il fatto che un’azienda o un consulente siano specializzati quanto il fatto che alla specializzazione venga assegnato un valore talmente alto da ritenere questa caratteristica irrinunciabile o non modificabile. E’ questa visione che a mio giudizio costituisce un limite alla crescita in condizioni di trasformazione di un mercato.
Ho già indicato il danno che una specializzazione estrema produce in una fase di cambiamenti repentini del mercato: tali soggetti sono i primi a farne le spese. Vale però la pena di specificare che per le aziende o, più in genere, per i gruppi di professionisti è possibile mantenere la propria specializzazione su un settore senza rinunciare ad ampliamenti delle competenze su nuove discipline. L’importante è investire nuove risorse (personale, tempo) nell’acquisizione delle nuove competenze senza sottrarne al search.
Il terzo limite è quello dell’amor proprio, sul quale mi posso esprimere solo limitatamente allo scenario italiano, non avendo grande visibilità di quanto avviene altrove.
Mi è capitato di osservare più volte dei SEO che hanno fatto della propria scelta professionale una scelta filosofica. In parte, questo fenomeno è legato alla psicologia dei SEO, sulla cui ipercritica mi sono già espresso qualche paragrafo fa. Altre volte dipende da una semplice mancanza di interessi. Altre volte ancora è la conseguenza di un atteggiamento elitario, che per anni ha remato contro una reale integrazione tra SEO e SEA, rinunciando ai benefici che da essa possono derivare.
Lo stesso amor proprio, la stessa miopia, rischia adesso di costituire un limite ad accogliere le nuove evoluzioni che il search marketing sta affrontando. Una eccessiva gestione a compartimenti stagni, una fossilizzazione nelle stesse attività svolte negli anni, un disinteresse a priori nei confronti di fenomeni che influenzeranno sempre più il comportamento delle stesse persone che fanno ricerche sui motori, rischia di trasformare eccellenti professionisti SEO in eremiti fuori dai giochi.
Non c’è utilità nel search marketing se non viene integrato nelle più ampie strategie di marketing delle aziende; allo stesso modo non c’è utilità per i professionisti SEO se non comprenderanno che il proprio ruolo è funzionale ad obiettivi che si raggiungono attraverso la collaborazione tra canali diversi, che a volte possono anche convergere, come sta avvenendo in parte tra search e social.
Essere pronti ai cambiamenti già in corso significa semplicemente trovare una formula che concili passione ed esigenze, predisposizioni ed obiettivi dei clienti, esperienze acquisite e crescita culturale.
Questo scopo non implica dover sovvertire la propria natura professionale, ma implica che il timore del cambiamento deve essere messo da parte e che ci si muova per ottenere le migliori condizioni per affrontare le nuove sfide.