
Per alcuni questa è stata solo la – tardiva – conferma di una tendenza fin troppo prevedibile, dal momento che certamente l’interesse di Google e Bing per il ‘realtime’ e per i dati generati sulle più grandi piattaforme sociali non costituisce affatto una novità.
Sul versante Microsoft, ad esempio, è abbastanza recente la notizia dell’integrazione dei dati di Facebook per la personalizzazione della local search di Bing.
Per altri invece, per tutti quelli che hanno spesso visto con scetticismo la montante crescita dei social, l’articolo di Sullivan può essere lo stimolo giusto per approfondire un aspetto che ormai nessun seo professionista potrà evadere troppo facilmente.
Social signals e link building 2.0
L’intervista pubblicata su SearchEngineLand.com ha generato numerose reazioni, come era prevedibile; anche perchè le risposte dei due SE hanno definitivamente allargato i paradigmi di una delle operazioni di base del search marketing per come lo conosciamo, vale a dire quella ‘costruzione di popolarità attraverso le interconnessioni’ comunemente nota come ‘link building’.
L’intervista ha sollevato il vespaio di discussioni che vi lascio immaginare ed ha letteralmente affollato di domande il tradizionale appuntamento con i brevi video tips prodotti dal canale YouTube ( http://www.youtube.com/user/GoogleWebmasterHelp ) il cui volto è appunto il direttore del dipartimento antispam di Google inc, vale a dire il pingue e simpatico ingegner Cutts.
Qualcuno avrà senza dubbio ricordato com’erano le cose agli esordi della carriera del neonato Google (classe 1998) che aveva rivoluzionato l’idea di archiviazione dei risultati con il notissimo algoritmo del PageRank, che appunto sul link fondava la sua gerarchica – ma democratica – idea di web. ‘Una testa, un voto’ era scimmiottato, nell’immaginario aperto dall’algoritmo di Larry Page e Sergey Brin del 1998, con un più prosaico e digitale ‘un link, un voto’: eppure ecco svelata in quattro parole la radice del successo del motorone di Mountain View. Perchè naturalmente l’idea di utilizzare dei dati macroscopici per catalogare un enorme volume di documenti non è affatto errata, avendo le necessarie risorse a disposizione: e in buona misura sfruttare l’informazione contenuta nei link è ancora la chiave primaria del successo di Google, almeno sul fronte della ricerca. Ma ci separano più di dieci anni dalla fine dei novanta e Matt Cutts con il suo video ( http://www.youtube.com/watch?v=ofhwPC-5Ub4 ) ha tentato di fiaccare l’entusiasmo dei seo che – fulminati sulla via di Damasco – pensavano di correre alla conquista di tonnellate di followers.
La comunicazione e la libera pubblicazione di contenuti dalla fastidiosa e spesso fraudolenta attività degli spammers, che attraverso mezzi più o meno sofisticati e tendenzialmente automatici lavorano per attirare le risorse dei crawler dei motori di ricerca, distorcendo a proprio vantaggio gli indici dei risultati e accaparrandosi quote di traffico che altrimenti sarebbero destinate a contenuti effettivamente pertinenti. La differenza tra lo spam e l’internet marketing in senso lato non è semplicemente una questione quantitativa; l’ “inquinamento” degli indici è un problema di qualità e non un problema di ‘dimensioni’. La stessa logica sembra funzionare per la valutazione dei ‘social signals‘, in un terreno che certamente non è immune dalle feroci attività di spamming automatico che tutti conosciamo. Twitter è affollato di spam-bot e Facebook certamente ospita enormi sacche di ‘web-spazzatura’ scarsamente utili per gli utenti internet, anche a dispetto delle rigide politiche antispam studiate dagli ingeneri del social di Palo Alto (mentre invece sono probabilmente troppo liberali le norme antispam di Twitter.com, che dagli uffici di San Fancisco sembra non soffrire più di tanto quello spreco di risorse che molti ‘twit-bot’ infliggono impietosamente ai loro datacenter).
Per interpretare e indirizzare positivamente i ‘social signals’ occorre quindi scendere nel dettaglio tecnico di questi link che è possibile pubblicare sulle piattaforme sociali, anche perchè a ben guardare le risposte di Google e Bing alle incalzanti domande di Sullivan potrebbero sembrare particolarmente contraddittorie e indecifrabili per un non addetto ai lavori che volesse leggere il testo originale.
Sappiamo infatti che tutti i link in uscita dai principali social networks sono filtrati dal noto attributo ‘nofollow’, che appunto indica agli spider dei SE di non seguire un determinato link e di non conteggiarlo ai fini del ranking. Allora come è possibile che i due motori abbiano risposto affermativamente alla domanda di Sullivan, che ovviamente ha insistito in particolare su quest’aspetto?