No. 91

Titolo originale: Testing Content

Pubblicato in: Content Strategy, Workflow & Tools, User Research

Scritto da Angela Colter

Nessuno deve convincervi che è importante testare il design e l'interazione del vostro sito web con le persone che dovranno usarlo, vero? Ma se questo è tutto ciò che fate, state lasciando da parte il feedback riguardante la parte più importante del vostro sito: il contenuto.

Sia che lo scopo del vostro sito sia quello di convincere le persone a fare qualcosa, a comprare qualcosa o semplicemente di informare, testare solamente se gli utenti riescono a trovare le informazioni o a completare le transazioni è un'opportunità persa: il contenuto è appropriato ai lettori? Riescono a leggere e comprendere quello che avete scritto?

Una storia di due tipi di pubblico

Prendiamo in considerazione un sito di informazione sanitaria con due serie di schede informative: una versione semplificata per il pubblico non tecnico ed una versione tecnica per i medici. Durante l'esecuzione dei test, un medico si fermò mentre leggeva la versione tecnica per dire “Guardate, io ho cinque minuti tra un paziente e l'altro per cogliere il succo di questa informazione. Non sto facendo ricerca su questo argomento. Voglio solo saperne abbastanza per parlarne ai miei pazienti. Se non riesco a venirne a capo rapidamente, non lo posso usare.” Avevamo fatto delle supposizioni errate circa le esigenze del pubblico e avremmo perso questa importante rivelazione se non avessimo testato il contenuto.

Lo stai facendo male

Avete mai posto queste domande ad un utente riguardo il contenuto del vostro sito?

Come ti è sembrata questa informazione?

Hai capito quello che hai letto?

Si sarebbe tentati di porre queste domande, ma non vi aiuteranno a valutare se il vostro contenuto è appropriato per il vostro pubblico. La domanda sul “gradimento” è molto usata, soprattutto nelle ricerche di mercato, ma è irrilevante nelle ricerche di design e poiché il fatto che qualcosa piaccia ha poco a che fare con il fatto che lo si sia compreso appieno o che lo si userà oppure no. Dan Formosa fornisce una grande spiegazione riguardo il perché dovreste evitare di chiedere alle persone cosa gli piace durante le ricerche sull'utente: per quanto sia sbagliata la domanda sulla “comprensione”, aiuta a capire un po' di più riguardo a come leggono le persone.

Il processo di lettura

La lettura è il prodotto di due elementi cognitivi simultanei: la decodifica e la comprensione.

Quando abbiamo cominciato a leggere, abbiamo imparato che certi simboli indicano dei concetti. Cominciamo con il riconoscere le lettere e associando le forme con i suoni che rappresentano. Poi poniamo l'attenzione nel riconoscere intere parole e quello che significano. Una volta che abbiamo decodificato queste singole parole, possiamo spostarci verso la comprensione: capire quello che l'autore aveva in mente unendo quelle parole. E' un lavoro complicato, particolarmente se state imparando a leggere o se fate parte di quel 50% della popolazione che ha scarse capacità letterarie.

Sebbene sia una tentazione avere qualcuno che legge il proprio testo e a cui si possa chiedere se l'hanno capito, non dovreste fare affidamento su un semplice “sì” come risposta. E' possibile riconoscere qualunque parola (decodifica), tuttavia fraintendere il significato inteso (comprensione). Probabilmente l'avrete provato voi stessi: avete mai letto qualcosa solo per arrivare alla fine e realizzare di non aver capito quello che avete appena letto? Riconoscete ogni parola, ma poiché la scrittura non è chiara, o perché siete stanchi, il significato del passaggio vi sfugge. Ricordatevi, inoltre, che se qualcuno fraintende quello che legge, non c'è modo di saperlo a meno che non poniate delle domande per testare la loro comprensione.

Quindi come si fa a sapere se il nostro contenuto funzionerà per i nostri utenti? Diamo uno sguardo a come predire se funzionerà (senza gli utenti) e testare se funziona (con gli utenti).

Fate una stima

Le formule di leggibilità misurano gli elementi della scrittura che possono essere quantificati, come la lunghezza delle parole e delle frasi, in modo da prevedere il livello di competenza richiesto per comprendere un testo. Queste formule possono essere un modo rapido, semplice ed economico per stimare se un testo sarà troppo difficile per il pubblico destinatario. I risultati sono semplici da capire: molti specificano il livello approssimativo di classe scolastica statunitense necessario per comprendere il testo.

E' possibile acquistare dei software di leggibilità. Ci sono anche dei tool online gratuiti su Added Bytes, Juicy Studio e Edit Central; inoltre, c'è sempre la formula Flesch-Kincaid in Microsoft Word.

Ma c'è un grosso problema con le formule di leggibilità: la maggior parte delle caratteristiche che rendono un testo semplice da capire, come il contenuto, l'organizzazione ed il layout, non possono essere misurate automaticamente. Usare parole brevi e frasi semplici non garantisce che il vostro testo sarà leggibile, tantomeno le formule di leggibilità possono valutare il significato. Proprio per nulla. Ad esempio, prendete la seguente frase dalla pagina “About” di “A List Apart” e sottoponetela ad una formula di leggibilità. Lo SMOG Index stima che è necessario avere un'educazione da terza elementare per comprenderla:

We get more mail in a day than we could read in a week.

Ora, riarrangiate le parole in qualcosa che non abbia senso. Risultato: ancora terza elementare.

In day we mail than a week get more in a could we read.

Le formule di leggibilità possono aiutarci a predire il livello di difficoltà del testo e aiutarci per la richiesta del finanziamento per i test con gli utenti. Ma non fate affidamento sulle formule come vostro unico metodo di valutazione. E non riscrivete il testo solo per soddisfare una formula. Ricordatevi, le formule di leggibilità stimano quanto è difficile scrivere un testo. Non possono insegnarvi a scrivere un testo comprensibile.

Fate un test di usabilità moderato

Per scoprire se le persone comprendono il contenuto del vostro sito, fateglielo leggere e fategli applicare le loro conoscenze. In altre parole, fate un test di usabilità! Ecco come creare dei “task scenario” in cui i partecipanti hanno il compito di interpretare ed utilizzare quello che leggono:

  • Individuate le questioni che sono fondamentali per gli utenti e il business.
  • Create attività che provino la conoscenza di questi problemi da parte dell'utente.
  • Informate i partecipanti che non li si sta sottoponendo ad un esame, il contenuto lo è.

Poniamo il caso che stiate testando SEPTA, un sito web di trasporto pubblico. Offre svariati tipi di pass mensili che cambiano a seconda del mezzo di trasporto usato e della distanza percorsa. Ad esempio, un TransPass vi permette di usare la metropolitana, il bus o il tram. Un TrailPass vi permette anche di usare il treno, ecc. Se volete solo testare l'interfaccia, potete formulare il task in questo modo:

Compra un TrailPass mensile.

Ma voi volete testare quanto sia efficace il contenuto nello spiegare la differenza tra ciascun pass, così che le persone possano scegliere quello che è meglio per loro. Quindi, formulate l'attività in questo modo:

Comprate il pass meno caro che vada bene per le vostre esigenze.

Vedete la differenza? La prima versione non richiede per nulla di considerare il contenuto. Gli dice semplicemente cosa scegliere. La seconda versione gli chiede di usare il contenuto per determinare quale opzione sia la scelta migliore per loro. Assicuratevi solo che i partecipanti espongano le proprie esigenze, così che possiate giudicare se hanno scelto quello giusto.

Chiedete ai partecipanti di pensare ad alta voce mentre leggono il contenuto. Avrete degli interessanti spunti riguardo a quello che li confonde e perché. Idealmente, i lettori dovrebbero comprendere il testo dopo una sola lettura. Se devono rileggere qualcosa, vuol dire che dovete cercare di chiarire il testo. Inoltre, chiedete ai partecipanti di parafrasare alcune sezioni: se non ne colgono l'essenza, fareste meglio a riscrivere il passaggio.

Per testare con successo il contenuto con i task scenario e con le parafrasi, dovete sapere qual è la risposta corretta. Se ne avete bisogno, lavorate con un esperto in materia per creare un tasto con la risposta prima di effettuare le sessioni. E' possibile effettuare dei test di usabilità dal vivo moderati sia di persona che da remoto. Ma, ci sono anche metodi asincroni che potete usare.

Fate un test di usabilità non moderato

Se avete bisogno di un campione più grande, avete poco budget o siete tirati coi tempi, provate uno studio non moderato da remoto. Indirizzate le persone al tool di user testing non moderato di vostra scelta, come Loop11 o OpenHallway, assegnategli dei task e registrate il loro feedback. Potete anche usare qualcosa come SurveyMonkey e impostate il vostro studio come un test a scelta multipla: ci vuole più lavoro all'inizio rispetto alle domande aperte perché dovete definire in anticipo le possibili risposte, ma ci vorrà meno tempo per valutarle.

Il segreto per un test a scelta multipla di successo consiste nel creare domande a scelta multipla molto forti.

  • Formulate la domanda in forma positiva, non negativa.
  • Includete solo una risposta corretta o che sia chiaramente la migliore.
  • Fornite due–quattro risposte sbagliate (distractors) che sarebbero plausibili se non si fosse compreso il testo.
  • Mantenete le alternative mutualmente esclusive.
  • Evitate di dare dei suggerimenti in qualunque risposta.
  • Evitate di mettere “tutte le precedenti” e “nessuna delle precedenti” come scelte.
  • Evitate di usare “mai”, “sempre” e “solo”.

Potreste anche voler aggiungere un'opzione per “Non lo so” per ridurre le possibilità di tirare a indovinare. Questo non è il SAT dopo tutto. Una risposta giusta dopo che si è tirato ad indovinare non vi aiuterà a valutare il vostro contenuto.

Task scenario:
Volete acquistare dei traveler's check con la vostra carta di credito. Quale percentuale di aliquota viene applicata per l'acquisto?
Possibili risposte:
  • Lo Standard APR del 10.99%
  • Il Cash Advance APR del 24.24%*
  • Il Penalty APR del 29.99%
  • Non so

(* questa è la risposta corretta, basato su un accordo della società della mia carta di credito con i possessori della carta).

Così come con i test moderati, chiarite ai partecipanti che non sono sottoposti ad un esame ma è il contenuto ad esserlo.

Usate un test Cloze

Un test Cloze rimuove alcune parole da un campione del vostro testo e chiede agli utenti di inserire le parole mancanti. I partecipanti al vostro test devono fare affidamento sul contesto così come sulla loro conoscenza pregressa del soggetto per identificare le parole mancanti. Questo test si basa sulla teoria Gestalt della chiusura, in cui il cervello cerca di riempire i pezzi mancanti, applicandola al testo scritto.

Ha questo aspetto:

If you want to __________ out whether your site __________ understand your content, you __________ test it with them.

Assomiglia molto a Mad Lib, vero? Invece di uscirsene con una frase che suona divertente o strana o interessante, i partecipanti devono indovinare la parola corretta che l'autore ha usato. Mentre i test Cloze non sono comuni nel campo della user experience, gli insegnanti li hanno utilizzati per decenni per valutare se un testo è appropriato per i propri studenti, particolarmente nelle classi in cui si insegna Inglese come lingua straniera.

Ecco come procedere:

  • Prendete una porzione del testo, circa 125-250 parole.
  • Rimuovete una parola ogni cinque, rimpiazzandola con uno spazio bianco.
  • Chiedete ai partecipanti di riempire ogni spazio con la parola che pensano sia stata rimossa.
  • Assegnate un punteggio alle risposte contando il numero di quelle corrette e dividendo quest'ultimo per il numero totale di spazi vuoti.

Un punteggio del 60% o superiore indica che il testo è appropriato per l'audience. I partecipanti che totalizzano tra il 40% e il 60% avranno delle difficoltà a comprendere il testo originale. Non è un insuccesso, ma indica che il pubblico potrebbe aver bisogno di aiuti aggiuntivi per comprendere il contenuto. Un punteggio inferiore al 40% indica che il testo renderà i lettori frustrati e dovrebbe essere riscritto.

Potrebbe sembrare azzardato, ma provate questo metodo prima di accantonarlo. In uno studio governativo sulla leggibilità dell'informazione sanitaria, un gruppo di esperti ha categorizzato gli articoli sulla salute o come facili o come difficili. Abbiamo fatto un test Cloze usando quegli articoli con dei partecipanti che avevano —capacità letterarie basse/medie” e abbiamo trovato che i risultati coincidevano con quelli del gruppo di esperti. Il punteggio medio per la versione “semplice” era 60, indicando che l'articolo era stato scritto con un livello appropriato per questi lettori. Il punteggio medio per la versione “difficile” era 39: troppo difficile per questo pubblico.

I test Cloze sono semplici da creare, gestire e valutare. Danno una buona idea se il contenuto è corretto per il pubblico destinatario.. Se usate i test Cloze, da soli o con altri metodi di testing di usabilità tradizionali, sappiate che ci vogliono molti sforzi cognitivi per trovare quelle parole mancanti. Abbiate come obiettivo almeno 25 spazi vuoti per ottenere un buon feedback dal vostro testo, più di 50 possono stancare parecchio.

Quando testare

Testate il vostro contenuto in qualsiasi momento del processo di sviluppo del vostro sito. Purché abbiate contenuto da testare, potete testarlo. Dovete convincere il vostro capo a mettere a budget i test sul contenuto? Sottoponete il contenuto ad una formula di leggibilità. Avete del contenuto ma nessun wireframe o bozza grafica? Fate un test Cloze per valutare quanto è appropriato un contenuto. La comprensione del contenuto è cruciale per un task o per un workflow? Mostratelo nel contesto durante i test di usabilità.

Cosa testare

Non potete fare dei test su ciascuna frase presente sul sito, né è necessario che lo facciate. Concentratevi sui task critici per i vostri utenti e per il vostro business. Ad esempio, il vostro help desk riceve telefonate riguardanti cose che il vostro sito dovrebbe comunicare? Testate il contenuto per trovare se e dove il sito è insufficiente.

Allora, sotto!

Mentre nei test di usabilità si osserva cosa fanno gli utenti, non quello che dicono di fare, il test sui contenuti determina quello che gli utenti capiscono, non quello che dicono di capire.

Qualunque sia il vostro budget, la vostra timeline e l'accesso agli utenti, c'è un metodo per testare se il vostro contenuto è adeguato alle persone che lo leggono. Quindi, testate! E poi, siate felici se il vostro contenuto funziona, o riscrivetelo in maniera eccellente!

 

Illustrazioni: Carlo Brigatti

Share/Save/Bookmark
 

Discutiamone

Ti sembra interessante? Scrivi tu il primo commento


Cenni sull'autore

Angela Colter

Angela Colter Angela Colter ha valutato l'usabilità dei siti web per quasi un decennio. E' Principal of Design Research presso Electronic Ink a Philadelphia, tweetta frequentemente e scrive sul suo blog occasionalmente.