Home » Articoli » Dati oggettivi e soggettivi e valutazioni manuali di accessibilità
31/05/2004
[di Maurizio Boscarol]
Per affrontare la valutazioni di accessibilità di un sito è necessario chiarire alcuni concetti circa la natura dei dati e dei loro modi di raccolta, per evitare di riferirsi in maniera impropria ai diversi metodi di analisi e di trattare i dati con strumenti statistici o concettuali impropri.
Le distinzioni rilevanti sono 3:
La distinzione fra dati oggettivi e soggettivi può essere così riassunta:
Un alto grado di interosservabilità non significa un grado assoluto: infatti le caratteristiche dell'osservatore contano, eccome: ad esempio un cieco non può osservare un colore, che invece è interosservabile per vedenti non daltonici, ed è al contempo misurabile sulla base di strumenti come i colorimetri. Il fatto che daltonici o ciechi non siano in grado di confermare l'osservazione del colore, non significa che il dato (la luce riflessa dalla superfice in questione) non sia oggettivo, ma che non è univoca la sua percezione. Il che non rende il dato meno oggettivo. Semplicemente, come tutti i dati, la sua percezione dipende dalle caratteristiche dell'osservatore, e di queste bisogna tener conto nelle analisi. Il che apre una parentesi filosofica e metodologica che è fuori dagli scopi del presente articolo.
Su dati quantitativi e qualitativi non è lecito condurre lo stesso tipo di elaborazioni statistiche e di trattamenti. Una panoramica delle operazioni che è possibile eseguire su questi dati ci obbligherebbe a parlare di scale di misura, argomento che è fuori dagli scopi di questo articolo ma che è reperibile in qualunque manuale di tecniche di analisi dei dati.
Spesso si sovrappongono i dati oggettivi con i dati quantitativi, e i dati soggettivi con i dati qualitativi, ma tale sovrapposizione è errata. Un dato può benissimo, infatti, essere oggettivo e quantitativo, o ugualmente oggettivo, ma qualitativo. Esistono tutti i tipi di incroci fra queste due categorie, come elenchiamo qui sotto:
Chiarita la differenza fra dati oggettivi e soggettivi e fra dati quantitativi e qualitativi, e i rapporti fra le due categorie, passiamo a considerare la maniera in cui i dati possono essere raccolti. In relazione ai giudizi su un sito, possiamo distinguere fra dati forniti da strumenti automatici e dati forniti da valutazioni manuali, o da giudizi umani. La terminologia qui non è univoca, ma è bene chiarirsi sul concetto.
Queste brevi distinzioni, lungi dall'essere solo teoria, entrano in gioco nel momento in cui dobbiamo iniziare una valutazione secondo i chekpoint delle linee guida del w3c per l'accessibilità, versione 1.0.
L'aderenza o meno di un sito ai criteri di accessibiiltà si decide in pratica proprio in riferimento ai check-point, che sono organizzati in priorità A, AA, AAA. Per ogni checkpoint è sono previste tre possibili condizioni: Sì, No, Non applicabile. Queste valutazioni sui checkpoint di che tipo sono? Manuali o automatiche? Soggettive o oggettive? Quantitative o qualitative?
Quel che senza dubbio possiamo dire è che tutte queste valutazioni sui check point sono di tipo qualitativo, per il modo in cui sono formulati. Un check point non potrà mai, infatti, essere rispettato "in parte": non è previsto. Se si applica, allora può solo essere rispettato o violato. La valutazione è qualitativa, di tipo si/no. Il check-point funge da criterio qualitativo.
Questo modo di valutare l'accessibilità ha i suoi limiti. Ad esempio, una pagina che è costruita secondo tutti i crismi dell'accessibilità, ma in cui ci si è dimenticati di inserire un alt text, viola il corrispondente check-point (1.1) esattamente come una pagina costruita con tutte le immagini senza alt. È ingiusto? Certamente sì, e questo vale anche per tutti gli altri criteri. È indubbio che una dimenticanza non sia equivalente a non aver nemmeno provato a rendere accessibili le immagini.
Ma se per ogni check-point dovessimo stabilite un grado di soddisfacimento (facendo diventare la valutazione quantitativa) avremmo, sì, dati più precisi, ma anche valutazioni molto più complesse, al limite dell'impraticabilità. Che senso avrebbe dire "questa pagina rispetta il check point all'80%", perché magari 8 immagini su 10 hanno un corretto alt text, e due non ce l'hanno? L'obiettivo è giungere ad una piena accessibilità, dunque il check point non risulta soddisfatto.
Abbiamo parlato degli equivalenti testuali per le immagini (in realtà per ogni elemento che lo richiede...). Il criterio è di tipo soggettivo, e la valutazione manuale. Richiede infatti una valutazione esperta che consideri, sulla base di considerazioni complesse, se l'equivalente testuale è effettivamente equivalente al contenuto dell'immagine. Se in alcuni casi la valutazione può essere uniformata da un criterio chiaro, ci sono casi in cui non è facile distinguere quando un testo è equivalente alla funzione (ad esempio nei grafici, o in alcune immagini esplicative, o esemplificative). Entrano in gioco criteri di comprensibilità, e il discorso si complica di nuovo. Senza considerare che l'alt, benché sempre richiesto per alcuni elementi, non è l'unico modo che abbiamo a disposizione per fornire un equivalente testuale. E dobbiamo valutare quali altri metodi possano essere appropriati alla situazione.
Nel caso del check-point 1.1, abbiamo dunque una valutazione soggettiva e manuale (che può però essere coadiuvata da un software che ci aiuti a cercare gli elementi su cui verificare l'alt) su un dato di tipo qualitativo.
Il check-point 2.1 recita: "Assicurarsi che tutte le informazioni veicolate con il colore siano anche disponibili senza il colore, ad esempio attraverso il contesto o il markup"
Sebbene questa possa sembrare una regola arbitraria, essa è invece oggettiva. Anzitutto bisogna verificare: ci sono informazioni veicolate attraverso il colore? Quelle informazioni sono veicolate anche attraverso un testo o il markup? Questo è sempre verificabile (anche se il significato delle informazioni necessita di una valutazione umana). Il check-point è oggettivo e manuale, perché non si può decidere in maniera automatica. Difficilmente un tool automatico potrà anche essere usato per identificare luoghi di informazione veicolati con il colore. Se interpretiamo in maniera chiara il concetto di "informazione", non dovrebbe esistere nessuna situazione in cui l'applicazione del check-point sia dubbia.
Il check-point 4.1 dice: "Identificare chiaramente i cambiamenti nel linguaggio naturale del testo nel documento e nei testi equivalenti (ad esempio nelle didascalie)."
Qui i problemi sono molteplici. Bisogna identificare in maniera univoca a quali testi si applica la regola. Ad esempio, gli alt text sono interessati? Come vanno trattati? Se si identifica in maniera univoca il testo interessato, bisogna poi identificare quando occorrono i cambiamenti del linguaggio naturale. Quali parole si possono considerare straniere fra quelle che sono ormai entrate in uso comune?
A questi problemi si aggiungono i problemi di implementazione pratica di questa regola. Infatti, se identifichiamo ogni cambio di linguaggio, alcuni screen reader, purtroppo anche diffusi come Jaws, devono cambiare motore di rendering vocale, il che comporta un improvviso rallentamento del corretto funzionamento, per leggere poche parole e poi cambiar di nuovo rendering vocale. Diversi non vedenti hanno espresso il desiderio di non vedere rispettata questa regola, perché crea loro molto disagio.
Quest'ultima considerazione ci porta verso un territorio della valutazione che non abbiamo fin qui considerato. Si tratta di un'ulteriore articolazione delle valutazioni manuali.
Riassumendo, infatti, le valutazioni manuali possono essere di due tipi:
Il primo tipo di valutazione è quella di cui abbiamo parlato di fatto fin qui quando abbiamo parlato di valutazioni manuali, o di human check.
Le seconde sono invece osservazioni di utenti reali monitorate da esperti, in tutto e per tutto simili ai test di usabilità. In un'ottica di accessibilità possono avere molteplici ruoli:
Si tratta di casi differenti. Il primo caso è in tutto equivalente ad un test di usabilità, ma può essere condotto per valutare complessivamente il sito e per compararne le prestazioni fra gruppi differenti. Ad esempio, come lo usano ciechi e vedenti. O ciechi, vedenti e ipovedenti (semplificando molto).
Nel secondo caso, il risultato può anche rivelare l'inadeguatezza del check-point: il cambio di linguaggio, quando rispettato, crea problemi agli utenti. Questo devrebbe portare al ripensamento del criterio sotteso dal check-point.
Nel terzo caso il test serve a decidere se un check-point è effettivamente rispettato. Dunque la valutazione del check-point in quel caso viene demandata non più solo ad un valutatore, ma ad un valutatore che osserva il comportamento di soggetti che sono utenti interessati.
Le valutazioni manuali dunque possono essere di diversi tipi, e a volte possono anche servire a dimostrare la scorrettezza del check-point. I test con utenti anche in questo caso si rivelano degli strumenti in grado di aumentare la conoscenza, cioè sono strumenti evolutivi: in quel caso bisogna attivare una procedura di segnalazione che porti ad una discussione negli ambiti competenti (wcag-wg, governo), che la dovrebbero pertanto prevedere (il w3c ad esempio lo fa, consentendo la discussione in liste che sono anche rese pubbliche).
Quando si valuta l'accessibilità secondo queste modalità (requisiti, criteri, check point di tipo qualitativo), gli errori possono verificarsi in diversi momenti:
In definitiva, abbiamo visto che:
Fonti di errore sono:
Altri rischi sono costituiti dal fatto che i criteri siano troppo severi su aspetti marginali, e poco severi su aspetti importanti nel mondo reale. Questo conferma che ci dev'essere un continuo monitoraggio e una revisione dei criteri. I quali non devono perciò essere calati dall'alto, o rifarsi a norme che magari hanno poco a vedere con le problematiche dell'accessibilità, ma verificati nel mondo reale.
Dobbiamo anche considerare che il numero dei criteri rispettati può essere sommato, e si può ad esempio trarre un numero o una percentuale di criteri soddisfatti sul totale che si applica al nostro caso. Si tratta però di una stima rozza. Alcuni criteri sono più importanti di altri, e una stima numerica di tipo quantitativo non ne rende conto. Bene ha fatto il WAI a decidere di non contare ma di categorizzare i check-point dividendoli in tre categorie di importanza. In ogni categoria tutti devono essere rispettati per poter dichiarare la conformità.
Un'altra categorizzazione sarebbe possibile, e forse in alcuni casi utile: quella per tipologia di utenza servita.
Sarebbe così possibile almeno stabilire non se un sito è accessibile o meno, ma per quale categoria di utenti è accessibile o meno. Ad esempio:
In questo modo un sito potrebbe decidere quali categorie di utenti sono più importanti rispetto al costo di assolvimento degli obblighi di accessibilità, e potrebbe esibire una dichiarazione articolata, invece del bollino. Il rischio di una scelta di questo tipo è naturalmente quella di privilegiare alcuni utenti e di discriminarne altri in maniera arbitraria o, peggio, sulla base delle risorse economiche necessarie ad ottenere la conformità. Così le pratiche più economiche verrebbero rispettate a prescindere dalla percentuale di utenti interessati, le altre no.
Questa classificazione, però, può esser utile in fase di
progettazione del sito e di autovalutazione, perché semplifica
e categorizza i problemi. Aiuta ad identificare scenari di uso. E' possibile
così non chiedersi genericamente "il mio sito è accessibile?",
ma piuttosto "i ciechi hanno difficoltà ad usare il mio sito?
E quali?". E poi: "Gli ipovedenti hanno difficoltà ad
usare il mio sito? Quali?", e così via per ogni categoria.
Questo sistema ha il merito di rimanere focalizzato sulle problematiche
di utenti specifici, piuttosto che su criteri astratti, e consente di
orientare la progettazione alla risoluzione dei problemi più comuni,
rendendo più probabile il superamento delle successive valutazioni.
Tag: accessibilità, metodo, valutazioni
Circa una mail al mese (ma spesso meno) con gli aggiornamenti più significativi.
Precedente:
« Dare rilievo ai prodotti nei siti aziendali
Successivo:
Cos'è la legge di Fitts »