Category : Editoria Digitale

Editoria Digitale

I media non ci vogliono stupidi, ma hanno bisogno di soldi.

Sarà capitato a tutti, credo, di sfogliare lo stream di Facebook e trovare titoli di notizie su testate online che storicamente hanno avuto un’importante ruolo nella diffusione delle notizie nel nostro paese, certo con punti di vista diversi e con linee politiche ben definite. Il loro ruolo era quello di informare la gente della propria area politica/economica/sociale.

Read More
Editoria Digitale

Come funziona Alexa? Beppe Grillo Vs. Repubblica.

Proprio in queste ore Beppe Grillo sta rispondendo a Repubblica in merito ad alcuni dati pubblicati in questi giorni, in cui si evince che il blog di Grillo sta perdendo visitatori. Ovviamente è una lettura fallace, ma anche politica: far passare il concetto di perdita di visite, con la perdita di audience e di potenziali elettori, il passo è breve. Non stiamo con Grillo ma questa volta Repubblica ha toppato in maniera grossolana.

Citando Repubblica.it:

Oggi però la stessa Alexa, tra le principali aziende mondiali che si occupano di statistiche internet e partner di Google nel determinare il ranking di un sito (la popolarità), rivela il tracollo subito dal sito che oggi si colloca al 171esimo posto in Italia e addirittura al 7495esimo posto al mondo, molto lontano dai picchi raggiunti qualche anno fa (anche se i dati variano in continuazione).

Ma cosa è Alexa che Repubblica utilizza per parlare di calo di visite e numeri?

Alexa, fondamentalmente, è un software – un programma – che si può installare sul proprio browser (che sia Firefox, Chrome o Internet Explorer) e da quel momento comincia a tracciare le visite che l’utente fa sui vari siti.

Notate qualcosa di strano in questo processo? Esattamente, avete indovinato. Le statistiche di Alexa sono assolutamente fallaci in quanto utilizzano i soli dati di chi ha il loro programma installato sul proprio PC-Browser. Tu lettore che mi stai leggendo, hai per caso installato Alexa sul tuo pc? No? Allora tu non rientri nelle statistiche usate da Repubblica, come neanche migliaia e migliaia di utenti web italiani e non solo.

Diventa palese quindi che il calo che evidenziano i report citati da Repubblica non significano – in termini reali – un calo di visite sul blog di Grillo, ma a mio parere, un calo degli utenti che si installano Alexa sul proprio pc.

Eppure era sufficiente cercare online per scoprire come funzionasse Alexa ed evitare quindi un articolo inutile come quello che Repubblica ha pubblicato.

UpDate: A pochi minuti dalla pubblicazione di questo post, alcune persone hanno indicato sui Social che l’articolo di Repubblica cita anche altri strumenti di “statistiche web”. E’ bene far sapere che gli unici strumenti che possono conteggiare in maniera ufficiale il numero di visite su un sito web sono il server sul quale il sito è ospitato (File di log ad esempio) e gli strumenti di web analytics che il proprietario ha adottato sul proprio sito web (Google Analytics o SiteCatalyst ad esempio) .

Questo significa che sia Calcustat.com che TrafficEstimate.com non hanno la possibilità di fornire dati reali.

Update del 19.02.2014

Ieri sera anche La Stampa ha voluto dire la sua, pensando di portare luce sulla questione, mentre invece clamorosamente fallisce anche lei.

Questo è quello che afferma il giornalista:

Quando Alexa parla di calo di popolarità del blog di Beppe Grillo, quindi, fa riferimento alla scarsità di engagement che il sito riesce a ottenere da parte dei suoi visitatori.

Praticamente ora Alexa è diventato uno strumento di misurazione dell’engagement (ovvero dalla relazione che si instaura tra gli utenti e il sito web). Ennesimo tentativo di infilarsi in discussioni senza prima informarsi su cosa si sta dicendo.

(Photo credits: gadlerner.it)

Read More
Editoria Digitale

Il problema di Unilibro.it non dipende da Google.

La comunità SEO è per antonomasia una ricercatrice del funzionamento di Google, siamo sempre pronti ad indagare e cercare di rilevare cosa e come Google si comporta davanti ad un sito. La notizia della “malgestione” del noto portale Unilibro.it che è approdata addirittura in tribunale ha scatenato una serie di controlli per capire cosa realmente sia successo.

Da qui sono nati diversi post di bravi seo italiani che hanno provato ad analizzare la situazione (segnalo quello di Andrea Podda e quello di Fabrizio Ventre). Ma qualcosa ancora non era chiaro.

Tutti i post scritti e analisi effettuate, si basavano sulla perfetta ottimizzazione SEO, ma ci sono centinaia di siti a cui sarebbero da applicare i consigli scritti nei due post indicati, eppure non si crea una situazione simile. A “naso” c’era qualcos’altro che non mi tornava.

Vediamo i sintomi descritti dai seo di Unilibro.it:

  1. Perdita di traffico
  2. Pagine non indicizzate
  3. Google Suggest che li associa ad un competitors.

L’ultimo sintomo è quello che meno mi ha colpito, in quanto Google Suggest si basa sulle ricerche effettuate in primis dall’utente che al momento sta effettuando la ricerca, secondo può essere “aggiustato” in diversi modi. Ma il fatto che a me non capiti, come non capita ad altri SEO che hanno verificato, mi fa pensare che il problema sia un “vizio” di forma di chi ha effettuato le ricerche (probabilmente nel suo storico delle ricerche di Google ha cercato spesso i competitors).

Ora torniamo ai primi due sintomi e cosa ho scoperto di singolare.

La perdita di traffico di Unilibro

Osservando il codice delle pagine web, ho riscontrato che il codice di tracciamento di Google Analytics (unico strumento di Web Analytics rilevato) è inserito alla fine delle pagine del codice delle pagine web. Cosa comporta questo? Che se la pagina non viene caricata velocemente, un utente può visitarla e uscire o andare oltre, senza che Google possa rilevare quella vista. Questo quindi evidenzia come sia possibile che il traffico non sia calato così vertiginosamente come indicato dal comunicato stampa di Unilibro.it, ma significa solamente che Google Analytics non fa in tempo a registrare le visite. Inoltre osservando i tempi di caricamento non proprio veloci, questo fenomeno del mancato tracciamento non è assolutamente da escludere.

Pagine non indicizzate

Il fatto che Unilibro.it affermi che molte pagine non sono indicizzate è apparso subito molto strano e ha suscitato un miriade di “dipende”, nel senso che solitamente le pagine non vengono indicizzate se c’è un errore nel sito. Dai controlli più basilari è emerso che il file Robots.txt non eslude dall’indice molte pagine (ma alcune si!) ma senza sapere il numero esatto di pagine esistenti non ho potuto verificare con esattezza.

Però facendo un ulteriore test, ecco che si scopre qualcosa di davvero singolare.

Tutti i server web nel momento in cui viene effettuata  una richiesta, rispondono con dei codici di stato ( i famosi 400 se la risorsa non esiste, i 301 o 302 nel caso in cui è stata spostata, e così via). Analizzando gli status di risposta del server Microsoft di Unilibro (si basano su un server con IIS della Microsoft) gli status code sono “ballerini”.

Che significa ballerini? Che il server restituisce status diversi in momenti diversi. La prova? Eccola:

status1

L’immagine evidenzia come la url di un pagina di prodotto restituisca uno status code 302 ai motori di ricerca, ovvero gli dice che quella risorsa è stata momentaneamente sposata altrove. Ma non sempre accade questo.

Infatti se il test di rilevamento degli status code viene fatto eseguire a intervalli di tempo, lo status cambia. Nelle prove da me effettuate in 3 ore, gli status code delle pagine di Unilibro.it sono cambiante più di dieci volte. (alternandosi tra 200, 301 e 302).

La prima anomalia di questo tipo l’ho riscontrata lanciando un programma di analisi delle pagine (Screaming Frog) ed erano apparsi diversi 302 e 301, uno di questi però era proprio su una pagina su cui stavo osservando il codice html, quindi era impossibile che quella pagina fosse un rendirizzamento.  Ripetendo i test più volte, il risultato è stato proprio quello sopra indicato: il server IIS di Unilibro.it indica agli spider dei motori di ricerca di comportarsi in maniera quasi “autoescludente” (gli indica che alcune pagine non ci sono e sono state trasferite in home, mentre non è vero), sfiorando  il cloacking.

Direi che questo problema sia quello fondamentale per cui Google non sappia come comportarsi con il sito web di Unilibro.it, non è questione quindi di un errore del colosso di Page e Brin, ma di quello di Gates.

 

Read More
1 2 3 4