Usabile.it

usabilità, accessibilità e interaction-design per il web

home » Articoli » Verso l’usabilità semantica

17/07/2007

Verso l’usabilità semantica

[di Maurizio Boscarol]

L’ingegneria dell’usabilità nasce in ambito software e da quell’ambito si sposta progressivamente sul web portandosi dietro armi e bagagli: ovvero un insieme di tecniche e di metodi già sviluppati per l’analisi dei problemi di utilizzo dei prodotti a base informatica: test con utenti, linee guida, euristiche, metodi formali basati sulla rigida scomposizione dei task in componenti elementari, e così via.

Negli ultimi anni però è andato aumentando il numero di studiosi che ha rilevato che questo armamentario rischia di non essere del tutto adeguato al web. In particolare hanno notato delle differenze nel modo in cui gli utenti si comportano nell’interazione web rispetto a quella con i software.

Paradigmi d’interazione software

Nel campo software i modelli dell’interazione sono basati sul compito (task). In generale hanno in comune una serie di assunti:

  • l’utente si muove di solito in ambienti noti (i software) e ad alta stabilità (ogni volta che li apriamo, i software si presentano in maniera simile alla precedente, e anche fra diversi software c’è un’elevata uniformità dei meccanismi di funzionamento), dove bisogna compiere una serie di azioni ripetute, che mirano allo stesso risultato nel tempo; è così possibile un apprendimento
  • solitamente l’utilizzatore ha delle competenze specifiche nello specifico ambito di applicazione di un certo software (l’utente di un programma grafico sa di grafica, un utente di un pacchetto di contabilità conosce la materia, eccetera) e questo rende possibile essere molto precisi nella terminologia o nella progettazione di certe sequenze d’azione che ad un principiante sembrerebbero molto difficili.
  • grazie alla standardizzazione offerta dal sistema operativo, poi, gli oggetti dell’interfaccia (bottoni, menu, slider, ecc) sono noti e il loro funzionamento è predicibile e costante
  • i paradigmi d’interazione sono coerenti: funziona sempre il doppio click, si può fare il trascinamento di oggetti, che sono manipolabili per selezione diretta.

In tale ambito è del tutto normale che gli studiosi misurino il tempo di esecuzione, il numero di azioni svolte, diano importanza all’efficienza e ai test con gli utenti. Infatti, se un compito complesso viene ripetuto frequentemente, l’efficienza gioca un ruolo importante, ed è ben tollerabile una certa difficoltà di apprendimento iniziale. Ce lo ricorda anche Andrei Herasimchuk, già progettista d’interfaccia di Adobe:

“Il mio principale obiettivo è quello di creare un prodotto che funzioni nella maniera più efficiente possibile per utenti esperti e ripetuti, poi per i novizi, e infine per gli utenti non esperti e occasionali”.

E del resto è logico. Perché alla fine ad imparare queste interfacce ci riusciremo, ma se il compito ha una struttura intrinsecamente complicata e non a misura d’uomo (se richiede troppi passaggi, o azioni controintuitive, o che non consentano una gestione sicura dei dati, o che obbligano a tenere in memoria molte informazioni su cosa fare in ogni punto), lo stress che ne consegue si ripeterà uguale ad ogni utilizzo del programma, creando un ostacolo all’uso quotidiano soddisfacente del prodotto. Se le cose stanno così, è anche facile identificare scenari d’uso precisi, su cui svolgere test di usabilità con alti margini di attendibilità.

L’interazione sul web

Il web è un ambiente in cui queste premesse non sono più vere. Almeno per quanto riguarda i siti informativi (per quanto riguarda le applicazioni web, valgono almeno in parte altri discorsi).

A differenza del software, vi è una variabilità elevatissima:

  • nessun sito è identico ad un altro, raramente passiamo su un sito abbastanza tempo da impararne le funzioni avanzate
  • non svolgiamo compiti ripetuti a parte la ricerca di informazioni
  • gli argomenti di ogni sito sono diversi e bassa è la nostra competenza nella maggior parte di essi
  • le pagine hanno una densità informativa (testi, titoli, link) di gran lunga superiore a quella dei software.

Non solo: anche sul piano dell’interazione vera e propria troviamo delle differenze. Molto spesso infatti:

  • gli oggetti d’interfaccia non sono standardizzati (i bottoni possono essere resi con immagini e non essere facilmente riconoscibili, i menu sono diversi da sito a sito e dobbiamo ricostruire i tratti comuni per capire che son menu, i link non hanno lo stesso colore, in alcuni casi i link visitati sono differenziati e in altri no, e potremmo continuare…)
  • gli stessi paradigmi d’interazione sono differenti: non vale più il doppio click, ma il click singolo (infatti è molto alta la percentuale di utenti che durante i test di usabilità su siti web cliccano inconsapevolmente due volte invece di una, a dimostrare che la confusione, percepita o meno, c’è)
  • il trascinamento non è possibile (se non in interfacce evolute, in ajax, flash, java, ecc.)
  • i tempi disponibili per l’apprendimento sono molto minori che nei software: data l’elevata competitività dell’ambiente, prima si riesce ad usare un sito e meglio è
  • ed è pure più difficile identificare scenari d’uso precisi per i compiti, che sono spesso vari e differenziati per utenti diversi.

Queste considerazioni hanno incoraggiato a seguire nuovi filoni di ricerca. Le ricerche mirano a costruire nuovi modelli teorici che ci consentano di capire meglio l’interazione degli utenti con il web, ma stanno anche iniziando a svecchiare la tradizionale cassetta degli attrezzi dello specialista di usabilità. Fra le ricerche che hanno dimostrato particolare efficacia ci sono quelle basate sulle valutazioni semantico-lssicali. In particolare si segnalano la teoria dell’Information foraging di Peter Pirolli e Stuart Card e il Cognitive Walkthrough for the web di Kitajima Blackmon e Polson.

Entrambe le teorie si basano sulla considerazione che sul web gli utenti cercano (e seguono) la voce che a loro sembra più corrispondente con i propri bisogni informativi. Danno dunque la prevalenza all’aspetto semantico dell’interazione, ma, e questa è una decisa novità, i modelli riescono a tenere in considerazione anche alcuni degli aspetti contestuali (conoscenze degli utenti, scopi, situazione).

Seguire il profumo dell’informazione

L’information-foraging introduce il fortunato concetto di scent of information, o profumo dell’informazione, definito come:

“la percezione imperfetta che l’utente ha del valore, del costo e del percorso di accesso a fonti di informazione ottenuto attraverso stimoli prossimali, come i link nel web.”

L’information-foraging è una teoria che ha sviluppato un proprio modello computazionale del comportamento dell’utente, lo Snif-act (parlando di profumo, che si può fare se non sniffare?…).

In questo modello sono previste una memoria dichiarativa e una memoria procedurale. Nella memoria dichiarativa viene rappresentato ciò che è attivato e di cui l’utente è avvertito in un certo momento, come ad esempio i link in una pagina web. Essendo basata su un insieme di associazioni fra pezzi di informazioni, la memoria dichiarativa stabilisce ciò che è più probabile attiri la nostra attenzione in un certo momento, stabilendo la rilevanza di certe informazioni rispetto ad un certo fuoco dell’attenzione corrente.

La memoria procedurale decide invece ciò che si può o non si può fare, in termini di condizioni del tipo “Se… allora…”. Sono le regole da applicare in ogni fase durante la simulazione del comportamento. In questo modello le informazioni sono confrontate con un database di “profumi dell’informazione”. Le stime ricavate da questo database sono basate sulle co-occorrenze di parole in un corpus tipico di testi, integrato con parole specifiche provenienti dall’ambito web.

Il modello si dimostra in grado di fare due previsioni:

  1. Decidere quale link, fra quelli disponibili in una pagina, ha la maggiore probabilità di essere selezionato da un utente che abbia un certo scopo attivo nella memoria dichiarativa
  2. Anticipare quale sarà il punto di abbandono del sito (quando il profumo dell’informazione è inferiore ad una soglia minima).

Confrontando il comportamento del modello con quello di utenti reali si è constatato che i link indicati come più probabili dal modello erano quelli che nella realtà la maggioranza degli utenti seguiva. Quando il modello rilevava un basso profumo dell’informazione sulla pagina, allora si verificava nella realtà il più alto numero di abbandoni. Durante i test empirici sul modello è emersa una differenza fra utenti esperti e utenti novizi rispetto alla materia di cui si occupa il sito (competenza di dominio). E’ necessario dunque ogni volta cambiare le regole di produzione del modello a seconda del dominio e del livello di competenza del tipo di utente da simulare.

Una simulazione cognitiva per il web

Nel Cognitive Walkthrough for the web la logica è simile, anche se i dettagli sono diversi. Secondo questo modello, il comportamento dell’utente è diviso in più fasi: dato un certo obiettivo, l’utente fa un parsing (un’elaborazione) della pagina, crea macro-oggetti visivi, si focalizza su uno di questi oggetti e confronta le etichette verbali ivi presenti con il suo obiettivo, fino a scegliere il link che gli sembra più simile al suo obiettivo. La comparazione avviene attraverso un meccanismo di rappresentazione della conoscenza detto LSA, Analisi semantica latente. LSA è un modello di rappresentazione della conoscenza ad elevata dimensionalità, dove per ogni coppia di termini vengono costruiti dei vettori di correlazione basati sulla co-occorrenza di questi termini in un corpus di testi che rappresenta la conoscenza tipica dell’utente (si tratta di testi comunemente studiati a scuola a seconda dell’età considerata). La correlazione è basata sui coseni dei vettori e varia fra -1 e 1.

Anche il CWW è stato testato empiricamente, e si è rivelato in grado di identificare con buona precisione 3 tipi di problemi:

  1. Identificare titoli o link che sono troppo simili fra loro e possono così generare confusione concettuale nell’utente, che non saprebbe distinguerli chiaramente. Ogni coppia che ha un coseno superiore a 0,6 è considerata troppo simile, e viene suggerita la revisione di uno dei due termini.
  2. Identificare termini che sono poco familiari ad un certo tipo di utente, attraverso la lunghezza del vettore di correlazione (che rappresenta la frequenza di quel termine nel corpus di testi considerato).
  3. Identificare titoli e link che non sono simili fra di loro, ma che competono in relazione ad uno specifico obiettivo. Sebbene in generale l’utente non giudicherebbe simili quei due termini, li può giudicare egualmente rilevanti in relazione ad uno specifico obiettivo.

Pregi e limiti dei modelli semantici

Questi modelli sono giovani e promettenti, ma hanno tuttavia dei limiti. Il più evidente è che, essendo stati sviluppati in inglese, attendono una validazione in lingua italiana (e in altre lingue, naturalmente). L’italiano è una lingua meno paratattica dell’inglese, ed è possibile che ci siano delle difficoltà nel confermare i risultati del modello (è capitato anche nell’adattamento degli indici di leggibilità).

Inoltre bisogna fare molta attenzione a come si formulano gli obiettivi dell’utente. Solitamente si usano frasi come: “Ho bisogno di cercare il nome del regista del film con Colin Firth che è uscito qualche anno fa e che si ambientava in epoca vittoriana”. Se ben formulate, queste frasi definiscono anche delle informazioni sulle competenze possedute dall’utente. Un esperto di cinema (o qualcuno con una miglior memoria per i nomi…) direbbe infatti “Chi è il regista del film inglese “L’importanza di chiamarsi Ernesto” uscito nel 2003”?, il che darebbe vita ad associazioni e correlazioni differenti.

Il fatto che lo stesso obiettivo si possa esprimere in maniera verbale, anche con una formulazione complessa, e il fatto che questa formulazione decida le correlazioni con i link e i titoli presenti nella pagina è un punto di forza, perché una formulazione verbale di questo tipo è in grado di incorporare parte delle competenze e delle conoscenze dell’utente, ma può risultare in una debolezza nel momento in cui la formulazione verbale non sia abbastanza precisa, tanto da dare vita a correlazioni e valutazioni sbagliate.

Entrambi i modelli sono poi ancora carenti nella considerazione di altre variabili, come quelle visuali, e per tipi di compiti non basati sulla ricerca di informazioni, ma hanno il merito di porre l’attenzione degli analisti e dei progettisti sull’importanza determinante dei fattori lessicali e semantici nella progettazione di siti. Ormai è chiara una cosa (che non lo era affatto quando l’usabilità si occupava solo di software): la scelta delle etichette verbali è una delle chiavi della facilità d’uso dei siti.

Queste etichette, questi termini andrebbero sempre testati e andrebbe sempre ponderata con attenzione la possibilità che alcuni siano troppo simili, che si confondano fra di loro, o che siano poco significativi per l’utente in rapporto al link di destinazione. Il fatto che si studino strumenti in grado di dare delle stime di queste somiglianze o di questa significatività è una prospettiva senza dubbio intrigante.

Nota: una prima versione di questo articolo è apparsa a marzo 2005 sulla rivista “Internet Pro”. Questa versione è aggiornata e leggermente modificata.

Articoli correlati:

torna su Torna su