Bundling some things I posted elsewhere, exploring

1 Comment

Feedback on a text via screencasting? is the first example illustrating the Video For All project, part of the European Commission’s Lifelong Learning program. It explains how screen capture software can be used to provide feedback on a text via screencasting.

The embedded illustrating video is indeed pleasant …
… if you can see and hear. However, if you are blind, you won’t know what the commenter is talking about when he uses deictic words (like “here”), and if you are deaf, you won’t know what he says, because the video is not captioned: i.e. this way of providing feedback is not consistent with the EC’s promotion of accessibility, let alone with educational commonsense.

Moreover, when even a hearing and seeing student wants to integrate the audio feedback in his/her text, s/he’ll have to keep switching between the video file and the original textual file, and that’s time-consuming, especially if you can’t use your hands and have to use voice commands.

What a blind person would perceive

Yeah, I just want to provide you with a little bit of feedback on your essay, and the first thing I want to point out is, if we come down to here, I was noticing that you were talking about –I think you’re not describing very clearly, exactly what screen capture does, and I think its very important that we explain that if you highlight anything, if you write anything, if you move your cursor on the screen, on the student’s written work,then that comes out in the essay: because I don’t think you’re making that point very clearly, here. So I think you might need to re-think that point. Another little point I just want to bring up is here: you used the word “live”. Now, I think “live” is not really the right word, I think that you need to explain it’s not a live recording, because obviously, the student is playing it back after the teacher has made the recording, but what it is more is a conference, it’s very similar to conferencing in a way that it kind of feels like the teacher is sitting next to you,going through your work and explaining some of the mistakes. So, maybe I think, here it’s the wrong choice of word and you might need to think about that as well. I think, one of the things here is you’ve pointed out different screen capture tools, and it might be a good idea that when you point out these tools, to talk about which tools are free and which tools are paid, because JING is a free tool, but Camtasia certainly will cost teachers a hundred and — I think it’s about 170, 180 dollars to buy. So I think it would be useful to provide that information in your essay.

What a deaf person would perceive

Abstract part of an essay entitled “A revolutionary way to provide feedback”. The cursor moves around randomly. The text scrolls down, then stops. The cursor highlights Every move you make on the screen, every web page you open, picture you view etc is simply recorded as a video in blue. The highlight color gets changed to yellow. The text scrolls down further, then stops. The word “live” is highlighted first in blue, then in yellow. The text scrolls down further, then stops. The words JNG, Screenr, Camstudio and Camtasia are highlighted first in blue, then in yellow.

How can these barriers be removed?

Captioning and audio description

It may seem paradoxical at first to illustrate a project called Video For All with a use of video that excludes deaf and blind people, and is anyway unwieldy to apply to the textual object of the video, particularly for people with motor disabilities.

True, the video result could be made accessible to all by integrating an audio description of the visual elements, and captions for the audio comment.

However, while captioning videos can be done very easily with freely available desktop and online tools (I’ve done it here with the online tool for the video of the example), integrating an audio description is more tricky: see the “Now, on to Audio Descriptions” part in Greg Kraus’ HTML 5 Video, Text Tracks, and Audio Descriptions Made Easy (or at least easier) (NC State University IT Accessibility Blog, June 14, 2011). It’s not only a matter of tech difficulty and cost, but also of time needed to select which visual elements need descriptions, and to produce audio descriptions that will fit within the audio of the video.

Granted, the need for a separate audio description could be avoided by already describing the relevant visual elements in the comment itself. Yet even so, applying what is said in the video to the text would remain awkward.

Feedback both via video AND in the text

This is the neatest and easiest solution.

Once you have captioned a feedback video where the audio is self-standing – and you really MUST do that lest you exclude people –  the captions produce a transcript that can be copied from.

Thus, you can then go back to the written file, remove the cosmetic highlights you made during the video, and use the “Comments” tool of your text editing software/application – as I have done in this Google doc, where I first transcribed the text that appears in the video example discussed here. I actually added a first comment that says: “for a video feedback, see ” 😉







Connected Course – so glad for it

I found out about the Connected Course taking place at via Paul-Olivier Dehaye’s own introduction post for it. And I discovered his blog via his @podehaye twitter account – which I’m following because when I read about his having hidden his Coursera  Teaching goes massive: New skills required course, I thought it was such a brilliantly economic way to incite the students to apply what he had been advocating in his videos for that course.

I signed up for the Connected Course because I’ve been interested in the connective learning approach since Stephen Downes lead a discussion about a document he entitled “Learning Networks and Connective Knowledge”  in the Instructional Technology mailing list in 2006, and also because I enjoyed and learned a lot from the connective workshop/MOOC Laboratorio di Tecnologie Internet per la Scuola #ltis13 lead by Andreas Formiconi for Italian University Line last year.

Something fun happened right at the end of #ltis 13 in June 2013: one of the participants, Fabrizio Bartoli, had reblogged a post of Vance Stevens in his learning2gether blog, and Vance Stevens then invited some of us to present  #ltis13 in English there: see Fabrizio Bartoli, Lucia Bartolotti organize a discussion of the cMOOC ltis13.

But perhaps the most important thing about #ltis13 is that it continued after its administrative end, morphing into a permanent workshop, #loptis, with Andreas Formiconi’s blog at its hub. So in a way, my signing up for this Connected Course is part of my participation in the #loptis workshop – and vice-versa 😀

As to who I am: a former teacher of French and English as foreign languages, presently a pro translator and an accessibility advocate. Oh, and given my misleading first name: I’m female.


Invito a presentare Amara agli insegnanti di learning 2gether #loptis

Ciao a tutti e in particolare a voi che avete utilizzato Amara per sottotitolare nel contesto di #ltis13, #linf12 o in altri contesti.

In seguito alla presentazione del cMOOC #ltis13 in un incontro organizzato dalla rete di insegnanti learning 2gether , su invito di Vance Stevens- vedi Fabrizio Bartoli, Lucia Bartolotti organize a discussion of the cMOOC ltis13 – abbiamo sottotitolato in inglese la registrazione di quell’incontro in (pagina di lavoro sui ST inglesi: ).

Però siccome i sottotitoli sì funzionano, ma hanno tuttora diversi passi incerti, abbiamo deciso di chiedere agli insegnanti learning 2gether di darci una mano per risolverli. Quando ho scritto a Vance Stevens, lui ha risposto proponendomi di presentare  prima la sottotitolazione con  Amara a un altro incontro learning 2gether, domenica o lunedì. Siccome lunedì non posso, ho accettato per domenica. Non so ancora l’ora esatta, né se su Elluminate o in un hangout di Google, però aggiungerò queste informazioni appena le avrò.

Però preferirei non fare questa presentazione da sola, perché la caratteristica principale di Amara è la possibilità di collaborare, e perché nelle esperienze #linf12 e #ltis13 abbiamo sfruttato questa collaboratività in modo particolarmente efficace, imparando gli uni dagli altri.

Più tardi stasera  aggiungerò a questo post un link a un pad piratepad per preparare una piccola introduzione  alla sottotitolazione con Amara: anche questa sarebbe bello scriverla in più.

[Aggiornamento, 8 luglio 2013 sera]: il pad piratepad è .
Per ora vi ho copiato la descrizione dell’incontro su Amara che  Vance Stevens ha già scritto in dove potrò inserire eventuali modifiche che faremo nella copia in [/Aggiornamento]



Attività aperte #ltis13 -> #loptis13 (copia)

Nota: ho già messo il testo che segue in , ma siccome le pagine interne della rete di insegnanti possono essere viste solo dagli iscritti, lo copio qui sotto.



#ltis13 – Laboratorio di Tecnologie Informatiche per la Scuola – è un cMOOC (corso di massa, online e aperto con approccio connetivista) della Italian University Line, coordinato da Andreas Formiconi, che si è svolto da inizio aprile al 12 giugno 2013.

Il cMOOC era una specie di villaggio online, secondo la metafora di Andreas, con i nostri blog come case, e quello di Andreas a mo’ di casa del capo Abraracourcix – o piuttosto del druido Panoramix.

Le strade tra le case erano e sono i feed RSS dei blog, che Andreas radunava in un file OPML (spiegato in e scaricabile dall’omonima pagina del suo blog) che si può caricare in un lettore di feed per ottenere una mappa di quel che avviene in ciascun blog in tempo reale.

Dopo un po’, i nostri scambi  hanno prodotto  un tale mucchio di informazioni e di idee di progetti che era difficile tenerne traccia. Allora Andreas ci ha proposto di radunarle tematicamente in, un gruppo aperto di Diigo, un sito per condividere, etichettare (“tag”) e discutere segnalibri. I nostri tag/etichette possono sembrare un po’ tanti, però vedi Lo strano modo -> #ltis13 <- di trovare le cose e Taggo quindi sono – #ltis13: i tag non sono categorie gerarchiche tipo in un catalogo per materia, ma appunto, etichette. Quindi più ce ne sono, più la loro lista sembra demenziale – ma più diventa facile trovare le cose combinandoli.

Poi per collaborare su progetti precisi, abbiamo anche usato dei piccoli documenti fatti su PiratePad, ad es.

Cioè abbiamo fatto tante cose in quei due mesi, e con soltanto quattro strumenti comuni, però esplorati adoperandoli assieme:

  1. i blog
  2. i feed RSS dei blog per trovarne gli aggiornamenti
  3. Diigo per la sistematizzazione dei contenuti prodotti
  4. PiratePad per collaborazioni “al volo”.

Da #ltis13 a #loptis

Come detto all’inizio, l’esperienza #ltis13 si è conclusa il 12 giugno – però soltanto per gli amministratori della IUL. I partecipanti che avevano già iniziato o concepito progetti nell’ambiente #ltis13 mica si fermavano per una bazzecola del genere, comunque. E anche Andreas stesso aveva ancora tante attività in serbo. Perciò quando ha annunciato il 6 giugno “Il percorso continua,” eravamo tutti felici.

Da qui #loptis che – come spiega Andreas in Invito a parlare del cMOOC (in inglese…) e transizione – sta per “Laboratorio Online Permanente di Tecnologie Internet per la Scuola”.

Per quell’invito nel titolo del post di Andreas e la serendipità che l’ha suscitato, lascio che sia Lucia a raccontarlo, visto che anche lei è membro di la ScheF – e forse Fabrizio se nel frattempo si è unito a noi.

Ma tornando a questo Laboratorio Online Permanente di Tecnologie Internet per la Scuola: la struttura e gli strumenti ci sono già (gli stessi di #ltis13). Perciò siete tutti cordialmente invitati a venire esplorare quel che c’è già, a fare domande, per poi decidere se vi volete unire a certe attività in corso o in progetto, e/o proporne altre.

Leave a comment

Sottotitolazione: testiamo l’incombente nuovo “editor” di Amara – seguito #ltis13

Tra i rivoli che scorrono da #ltis13: er chi di voi utilizza Amara per sottotitolare, traduco qui il  post Let’s beta-test the imminent new subtitle editor before it is released che ho messo sul forum d’aiuto di Amara:

Testiamo l’incombente nuovo “editor” di Amara prima che venga implementato

Salve, compagni utenti di Amara

In un messaggio del 6 giugno 2013  alla lista di discussione “Amara – Deaf & Hard of Hearing”, Dean Jansen aveva scritto:

“Stiamo tuttora lavorando al nuovo modello di “editor”/dati (e abbiamo fatti progressi nella modalità timeline), che potete esaminare qui (aprite un account, modificate o create sottotitoli, poinel menù laterale dell'”editor” tradizionale, cliccate sul link per far partire l'”editor” di sottotitoli in beta. *Nota: dovete aver salvato i sottotitoli ed averli interamente sincronizzati per passare a questa demo*) Prevediamo di implementarlo la settimana prossima o giù di lì”

E avevo risposto suggerendo che lo staff di Amara organizzasse prima un test beta. Nessua risposta finora. Però poiché il nuovo “editor” non è ancora stato rilasciato, utilizziamo il link e le indicazioni dati da Dean Jansen per fare il nostro proprio beta-test.

Suggerisco che le domande sul funzionamento dell’editor ventano aggiunte in commenti a questa discussione [cioè qui].

Invece per segnalare possibili bug e problemi ho fatto un modulo Google Drive, le cui risposte finiscono in un foglio di calcolo  che può essere visualizzato, scaricato e commentato da chiunque abbia il link (non è necessario il login). In questo modo anche gli sviluppatori di Amara lo potranno scaricare, ad es. come file .csv, e riutilizzarne i dati in qualsiasi programma di beta-testing stiano adoperando attualmente da soli.

È importante che noi reali sottotitolatori facciamo beta test delle innovazioni apportate al software di Amara perché gli sviluppatori, non essendo sottotitolatori, non sono in rado di valutare accuratamente l’impatto di certi cambiamenti che fanno: vedi la discussione Team moderation: let’s learn together from the Friday 13 team ((cioè: “Moderazione degli team: impariamo assieme dal team Friday 13” [1])

[1] Discussione sul forum d’aiuto a proposito dell’imposizione per 4 settimane a giugno 2012 della moderazione dei sottotitoli ai team di Amara che avevano specificato di non volerla nei parametri, risultata in un mucchio di problemi e di bug che avevano seriamente rallentato la sottotitolazione, malgrado il fatto – scoperto a posteriori – che gli sviluppatori avessero testato questa moderazione imposta in nel team “Friaday 13” della loro piattaforma sin da gennaio 2012: erano già emersi tutti i bug allora, però siccome loro usavano sottotitoli tipo 1,2,3,4,5 o importavano sottotitoli già fatti invece di sottotitolare realmente, non avevano capito il caos che questa moderazione poteva causare.]

Ultima cosa per chi non sa l’inglese: potete benissimo scrivere in italiano sia nel modulo sia nei commenti al post sul forum. Un po’ di esposizione all’italiano sarà utilissima allo staff che ha cambiato il nome della sua applicazione da Universal Subtitles in Amara 😀 (poi se necessario, tradurremo)

1 Comment

#ltis13 – la mia esperienza finora

Quando la IUL ha annunciato il Massive Open Online Course connettivista (cMOOC) “Laboratorio di  tecnologie internet per la scuola, #ltis13, organizzato da Andreas Formiconi, avevo già seguito un paio di altri suoi corsi online, però da cyberturista, senza iscrivermi. Questa volta invece mi sono iscritta: perché era un primo MOOC italiano, e perché, in base a quei precedenti corsi, riprometteva di essere interessante vedere come Andreas Formiconi avrebbe applicato lo stesso approccio connettivista con un gruppo molto più numeroso.

Quel che mi ha sorpresa all’inizio è stato che non soltanto siamo in tanti a parteciparvi, ma le nostre previe formazioni ed esperienze nel campo di quelle tecnologie internet erano molto diverse.  Anche i nostri atteggiamenti verso di esse. Perciò mi chiedevo come poteva riuscire l’amalgama tra tutti questi elementi in un progetto comune.

Disponibilità allo scambio e alla collaborazione

Però una caratteristica  molto forte comune ai partecipanti è emersa immediatamente nei tanti commenti ai primi post di Andreas: la volontà e capacità di interagire. Non soltanto di reagire al “post del prof”, ma di interagire tra noi. I commenti dei blog sono fatti per questo, ma – nella mia esperienza almeno – non è così frequente che avvenga. Certo, era stato così anche negli altri corsi di Andreas, ma in quelli non eravamo tanti. Però può darsi che questa interazione alta in #ltis13 sia stata facilitata dalla presenza di diversi altri che come me, avevano seguito quei corsi, in particolare #linf12. Cioè in un certo modo, abbiamo fatto da “madri” (nel senso del pane) all’interazione in #ltis13.

Ma ovviamente, un fattore molto importante è il modo in cui Andreas imposta i suoi post, che incita al dibattito costruttivo, sconcertandoci. In un commento al blog di un partecipante che aveva iniziato dopo,  avevo riassunto un po’ brutalmente i primi post #ltis13 come “disarcionamento maieutico”.

Pochi strumenti semplici e approccio formativo dei problemi

Inoltre, Andreas non da mai per scontate conoscenze e competenze previe. Da qui, ad es.,  il primo compito di farci tenere un  diario sul computer per diversi giorni – cosa che tutti sapevamo già fare – prima di chiederci di aprire un blog. E la scelta di farci utilizzare e combinare poi pochi strumenti collaborativi semplici,  dandoci però mezzi e metodo per capirne la struttura. E per non spaventarci quando qualche modo di adoperarli  andava storto, ma di perseverare esplorando  alternative. In effetti, lui ci ha dato l’esempio di quell’arricchimento a partire di un problema nei suoi tentativi di post a partire dal telefonino: una foto, un podcast audio poi sistemati dal computer, spiegando nei post e nei commenti cos’era successo.

E il risultato di questo approccio, combinato con la disponibilità iniziale dei partecipanti a comunicare per collaborare, è stato impressionante.

Esempi di problemi

Ho partecipato a due attività con strumenti online imparentati strutturalmente a quelli presentati da Andreas: la traduzione collaborativa in italiano di una FAQ di Diigo (lo strumento che usiamo per condividere i nostri segnalibri) con il Google Translator Toolkit, e la sottotitolazione con Amara. Gli altri partecipanti scoprivano questi strumenti, io li avevo già utilizzati prima. In tutti e due  i casi, ci siamo imbattuti quasi subito in bug che causavano grossi problemi:

Traduzione collaborativa

Nel caso della traduzione collaborativa, normalmente quando si fornisce al Google Translator Toolkit un testo da tradurre, il software lo suddivide frase per frase e mette ciascuna frase in una casella nella colonna di sinistra – e mette in caselle corrispondenti nella colonna di destra la traduzione automatica di Google della frase, dove può essere modificata (o cancellata del tutto). Invece nel nostro primo tentativo, c’erano molte più suddivisioni, quasi tutte arbitrarie. Risulatato: un’interfaccia molto meno comoda di un editore di testo online, tipo Piratepad o un doc Google Drive che tutti conoscevamo già.

Però non abbiamo rinunciato:  una volta identificata la causa (una fesseria: il testo originale di Diigo aveva tanti doppi spazi inutili tra parole che il software del toolkit interpretava come fini di frasi) e rimediatavi, abbiamo potuto usare il toolkit normalmente. Abbiamo iniziato un rapporto su questa esperienza in un pad di PiratePad. La cosa che mi ha più impressionata è stata l’uso efficace e veloce della funzione “commenti” del toolkit per risolvere assieme problemi lessicali.


Per quanto riguarda la sottotitolazione con Amara, il problema è insorto in una traduzione di sottotitoli. Un po’ come nel toolkit, sopra, il software di Amara propone ciascun sottotitolo originale in una casella, con sotto un’altra casella dove tradurlo. Ogni volta che si salva per interrompere il lavoro, viene creata una revisione datata che si può in teoria ripristinare in caso di problemi troppo numerosi per essere comodamente risolti sottotitolo per sottotitolo.

Però ogni tanto, se si aggiorna una serie di sottotitoli caricando un file, o se si fa un ripristino del genere, colpisce un bug più volte riportato da marzo 2012: le altre traduzioni in corso di sottotitoli per lo stesso video vengono sostituite da un file “caricato da utente in pensione” (uploaded by retired user) e il contenuto delle loro revisioni precedenti viene cancellato. Se si prova a modificare queste traduzioni, non c’è più quell’interfaccia con le due caselle per ogni sottotitolo, ma soltanto quella per creare sottotitoli dal video.

Ed è appunto successo con un video di cui Monica Terenghi aveva appena iniziato a tradurre i sottotitoli in italiano, quando qualcuno ha provato di aggiornarne i sottotitoli portoghesi (brasiliani) tramite caricamento: niente più interfaccia di traduzione né revisioni, solo la possibilità di aggiungere nuovi sottotitoli in base al video per tutte le traduzioni in corso. Nelle mie previe esperienze di questo bug, questo causa di solito l’abbandono di traduzioni in corso, anche da parte di utenti provetti di Amara,  perché è molto più difficile tradurre direttamente dal video.

Invece Monica, pur non capendo quel che era successo, ha subito trovato un’alternativa: ha aperto i sottotitoli originali in un’altra scheda del browser e li ha tradotti da lì nella pagina dei sottotitoli italiani. L’uovo di Colombo, insomma.

#ltis13 continua

Forse #ltis13 si concluderà il 12 giugno dal punto di vista amministrativo della IUL, però continua. Quella padronanza degli strumenti adoperati che consente ai partecipanti di esplorarne altri e di non perdersi d’animo davanti a problemi tecnici ma di cercare e trovare soluzioni non è ancora stata raggiunta da tutti gli iscritti. Alcuni sono rimasti indietro per cause varie completamente legittime, in primis a causa dei loro impegni di lavoro. L’impostazione di #ltis13 consente loro di proseguire al proprio ritmo, con una rete di partecipanti pronti ad aiutarli in questo.

Inoltre l’effetto di #ltis13 non si limiterà ai suoi partecipanti, ma loro saranno in grado di trasmettere le competenze acquisite  a colleghi che non hanno partecipato a #ltis13 con i quali vorranno creare progetti specifici: competenze nell’uso di quegli strumenti che serviranno a quei progetti, ma anche la sicurezza nell’esplorarne altri e nell’affrontare eventuali bug che si presenteranno.

PS sulla forma

All’inizio volevo scrivere questo post come con una macchina da scrivere, senza link e senza formattazione, così da renderlo leggibile a chi non ha dimestichezza con gli strumenti Web 2.0. Poi era un buon esercizio: tendo a fare troppi link, scusa facile per non esplicitare il ragionamento.  Però una spataffiata così lunga senza titoli intermedi sarebbe stata davvero indigesta, e comunque questi si possono fare con i software su computer da decenni, allora ne ho aggiunto. Poi forse aggiungerò anche qualche link dopo, lo stesso.


Sottotitoli: attenti al bug di Amara! #ltis13

Ieri tutti i sottotitoli in corso a partire dalla pagina sono stati colpiti da un bug di Amara, ivi compresi i sottotitoli italiani ai quali Monica Terenghi stava lavorando.

Come ho scritto nel commento datato June 3, 2013 at 1:00 am al post “Sottotitoliamo insieme? #ltis13” questo bug colpisce a volte, ma non sempre, quando qualcuno aggiorna un set di sottotitoli tramite un upload di sottotitoli fatti altrove, oppure quando ripristina una versione precedente di un set di sottotitoli.  Il bug affetta i sottotitoli in corso e:

  1. li sostituisce con una versione che appare come “uploaded by retired user” nella lista delle revisioni dei sottotitoli (nel caso dei sottotitoli italiani di Monica, si tratta della Revision 2 ); di conseguenza, non è più possibile utilizzare l’interfaccia di traduzione con una casella dove tradurre sotto ogni sottotitolo: la sola possibilità – in Amara – è di tradurre direttamente dal video.
  2. cancella il contenuto delle revisioni precedenti, impedendo così di ripristinarle o almeno di scaricarle.

Congratulazioni a Monica che pur avendo appena cominciato a sottotitolare, non si è persa d’animo e ha semplicemente continuato a tradurre nelle difficili condizioni descritte in 1.

Però mi dispiace molto: siccome da un po’ di tempo, il bug non aveva colpito, credevo che gli sviluppatori di Amara lo avessero finalmente eliminato. In effetti, è almeno dal 22 marzo 2012, quando Amara si chiamava ancora Universal Subtitles, che è stato ripetutamente segnalato loro da utenti, persino nel caso di un video per la cui sottotitolazione “crowdsourced” Amara aveva un contratto con le Nazioni Unite: vedi Critical issue with uploads and rollbacks: software deletes/mangles subtitles and revisions.

Avessi saputo che invece il bug era ancora attivo, avrei proposto un’altro strumento online di sottotitolazione – anche se Amara rimane per altri versi lo strumento più facile da imparare a utilizzare: questa facilità non compensa casini di questo genere.

Ma gli sviluppatori sviluppano, non sottotitolano. Ed è probabilmente più stimolante per loro  elaborare gimmick dall’utilità dubbia (vedi Scrap the team dashboard page)  che non eliminare un mero bug, quali che ne siano le conseguenze devastanti per la sottotitolazione.

Come procedere?

Per le sottotitolazioni già in corso su Amara,

  • nel caso di una traduzione di sottotitoli: scaricate i vostri sottotitoli tradotti  sul computer ogni volta che fate “Save and Exit”, come file TXT e anche, se avete quasi finito, come file SBV o SRT, e aggiungete al nome del file il numero della revisione: sarà possibile riutilizzare questi file su un’altra piattaforma di sottotitolazione, oppure con il Google Translator Toolkit.
  • nel caso di una prima sottotitolazione nella lingua del video: se ci sono già traduzioni in corso, non fate aggiornamenti via upload e non ripristinate una versione anteriore dei sottotitoli.

Per nuovi video che desiderate sottotitolare o di cui desiderate tradurre sottotitoli esistenti, indicateli in un commento a questo post, e decideremo assieme come procedere.


Sottotitoliamo assieme? – #ltis13

Veramente, con le allusioni all’uso che avevo fatto dell’applicazione web di sottotitolazione Amara per trascrivere i post audio di Andreas, un po’ intendevo vedere se ci sarebbe interesse per un’attività di sottotitolazione collaborativa.

Da una parte, sottotitolare video collaborativamente è facile e li rende molto più fruibili, non solo dai sordi – questo è ovvio – ma da tutti, e potrebbe anche essere integrato in attività di apprendimento. Ma dall’altra, #ltis13 è un laboratorio molto impegnativo, in un momento dell’anno scolastico dove i docenti hanno già tantissimi impegni.

Però alcuni di voi si sono già lanciati da soli – vedi Tutorial Prezi con sottotitoli di Anna Cilia – ed altri sembrano interessati: Luisella ha proposto di sottotitolare un tutorial video in inglese su Diigo.  E c’è il precedente “#linf12” quando Roberta, Laura e Flavia, che non avevano mai  sottotitolato prima, hanno sottotitolato i tre video in Una piccola introduzione alla nuvola – #linf12 con Amara, usando ciascuna l’applicazione a modo suo, in pochissimo tempo. Per quell’attività mi ero limitata a buttare qualche indicazione in italiano sulle funzioni basilari di Amara in : e questo pad si potrebbe riutilizzare.

Cosa sottotitolare?

Quel che volete. Ho iniziato una lista in che rispecchia i post / commenti taggati “video-tutorial” nel gruppo Diigo ltis 13 – cioè . Per ciascun segnalibro, ho anche aggiunto in un commento l’URL della/e pagina/e Amara (ma vedi sotto, “Con che cosa sottotitolare?”) dove si può sottotitolare i/l video incluso/i nella cosa “segnalibrata”.

Se decidete di sottotitolare un altro video, aggiungetelo per favore in oppure nei commenti a questo post , indicando anche l’URL della pagina di sottotitolazione collaborativa,.

Come sottotitolare?

Ci sono due tipi di sottotitoli:

  1. incisi nel video stesso tramite software desktop di video editing, cioè “open captions”
  2. scritti come testo con indicazioni temporali – “time codes” – che li sincronizzano con il video, cioè “closed captions” [1]

I sottotitoli “open captions” non possono essere creati collaborativamente, quindi propongo di creare sottotitoli “closed captions”

Con che cosa sottotitolare?

I sottotitoli closed captions non necessitano software particolari: ci sono geek meticolosi che li scrivono con un qualsiasi editor di testo. Quindi in teoria, si potrebbero anche fare con PiratePad o NotePad++.  Però così è facile sbagliare qualcosa nei codici temporali. Ci sono tre applicazioni web che facilitano questa sottotitolazione  “closed captions” collaborativa, con le quali ho abbastanza dimestichezza per sentirmi in grado di dare una mano, se necessario:

  • Amara (già menzionata): interamente collaborativa – senza limite di lunghezza – richiede login
  • DotSUB: collaborativa per tradurre sottotitoli originali già fatti ma sottotitolazione originale – solo per video < 25 minuti –  richiede login
  • Subtitle Horse: interamente collaborativa – senza limite di lunghezza – non richiede login ma si può salvare il lavoro sul server soltanto per 4 giorni.

Per ora, come detto sopra, nella lista in , ho aggiunto gli URL delle pagine Amara dove si può fare la sottotitolazione perché era più semplice fare così, e anche per via della previa esperienza positiva con Amara durante #linf12, che ha prodotto , che è  una specie di tutorial in italiano su Amara. Ma se volete provare un’altra modalità,  basta che indichiate dove si può collaborare alla sottotitolazione.

Creazione di  account Amara: due caveat

Se scegliete di adoperare Amara,  state attenti a due cose nel crearvi un account:

1. Nella pagina Sign In / Sign Up,  cliccate  su “Don’t have one?” e utilizzate il dialogo che si apre. Non utilizzate la possibilità di creare l’account Amara attraverso varie altre applicazioni web: meglio tenere le cose separate, e inoltre, ci sono problemi con gli account creati attraverso un’altra applicazione: vedi Asking For Email Verification – Again? sul forum d’aiuto di Amara.

2.  In cima a tutte le pagine  Amara appare un annuncio:

Cattura di schermo dell'offerta di connessione tra il proprio account YouTube e sottotitoli fatti con Amara - la traduzione del contenuto verbale segue l'immagine

Traduzione delle parti scritte: “YouTube ™ – Hai un account YouTube? – Novità: Attiva sottotitoli tradotti ed originali nel tuo canale YouTube! – Connetti con YouTube – No, grazie.”

RIFIUTATE QUESTA OFFERTA  cliccando su “No, thanks” – a meno di sapere molto bene l’inglese, di aver tempo per leggervi accuratamente la documentazione e la formula di autorizzazione, e di decidere in cognizione di causa che volete autorizzare Amara a gestire completamente il vostro account YouTube, in particolare a schiaffare nella descrizione dei vostri video ouTube un link a una pagina di sottotitolazione che consentirà a vandali e spammer di aggiungere roba volgare o altrimenti inappropriata in “sottotitoli” ad essi, senza alcuna possibilità per voi di moderare la pubblicazione di questi sottotitoli.

Da dicembre 2012, quando questa possibilità è stata offerta, ci sono state richieste di cancellazione per letteralmente migliaia di pagine di sottotitolazione create dal software a causa di questa sincronizzazione tra account YouTube e sottotitoli Amara. Al 1° aprile i gestori di Amara, che non adempivano a queste richieste da fine febbraio, hanno annunciato che d’ora in poi la cancellazione di tali pagine potrebbe soltanto essere richiesta attraverso una denuncia per violazione di copyright di tipo “DMCA takedown request”: una procedura tortuosa e assurda nel caso di pagine create da questa sincronizzazione tra il proprio account YouTube e sottotitolazioni Amara: vedi la FAQ What are the notice and takedown procedures for web sites? del sito Chilling Effects.

Ciononostante Amara rimane probabilmente l’applicazione web più comoda per sottotitolare collaborativamente, a patto di non autorizzarla ad impicciarsi dei vostri account di social networking o YouTube,

Perché sottotitolare?

Ci sono vari motivi per i quali conviene sottotitolare i video. In generale:

  • La sottotitolazione rende il contenuto audio del video accessibile ai sordi, e i materiali adottati a scuola devono essere accessibili a tutti
  • La sottotitolazione facilita il reperimento di un dato passo in un video, quindi i video sottotitolati sono più comodi per lo studio.

Per quanto riguarda la sottotitolazione “closed captions”, poiché è prodotta da un file di testo sincronizzato col video, quel file di testo:

  • può essere riutilizzato con altre copie dello stesso video
  • può generare una trascrizione interattiva dove si può cliccare su un sottotitolo per far partire il video da quel punto, come avviene ad es. su YouTube
  • può anche generare una trascrizione continuata senza indicazioni temporali – vedi quella in Tutorial Prezi con sottotitoli di Anna Cilia

Inoltre, la sottotitolazione “closed captions” può essere dirottata per fare altre cose con un video:

  • aggiungere semplici annotazioni, anche  in vista di un editing del video (se Andreas è d’accordo, potremmo provare ad es. a preparare così la suddivisione del video della sua presentazione a Didamattica in più pezzi brevi)
  • preparare lo script di una descrizione audio dei contenuti visivi di un video che sono necessari alla comprensione, per persone cieche: anche questo è uno dei requisiti di accessibilità per i materiali utilizzati a scuola, ed è un utile esercizio linguistico che si potrebbe fare con gli allievi [2].
  • ecc.

Sottotitolazione “a karaoke” per/da allievi con difficoltà di lettura?

La sottotitolazione “a karaoke” delle canzoni di Bollywood viene utilizzata dalle TV indiane per migliorare l’alfabetizzazione, come risultato del progetto PlanetRead di Brij Khotari. Questo ha ispirato Greg McCall l’idea di far creare questi sottotitoli a karaoke dai suoi allievi che hanno difficoltà di lettura: vedi il suo sito Bouncing Ball Project – e i loro lavori nel suo canale YouTube, ad esempio l’ultimo,  Same-Language-Subtitling Macbeth Witches – Round about the cauldron go:

Bello, però non ci sono applicazioni Web per la sottotitolazione “a karaoke” collaborativa. Greg e i suoi allievi utilizzano il software desktop  karafun, che non è più disponibile come editor. Tuttavia esiste tuttora un altro software, TunePrompter, le cui versioni per Mac e per Windows possono essere scaricate da . E siccome anche i sottotitoli a karaoke sono prodotti da un file di testo sincronizzato, ma con codifica diversa da quelli “closed captions”, si potrebbe provare ad utilizzare un editore di testo online per collaborarvi.

(forse continua)

[1] La sottotitolazione “closed captions” fa parte dell’affascinante tribù  delle cose basate su XML: vedi il post OPML-XML-HTML-aggregatori-tagging – #ltis13 di Andreas

[2] In, nel 2011,  avevo descritto un esperimento di dirottamento di Amara per scriptare una descrizione audio del video  Autismo. Manuale operativo per docenti e genitori, di Lidia Cattelan,  con risultanti file audio e trascrizione. Però sembra che siamo molto vicini alla possibilità di aggiungere queste descrizioni di contenuti visivi come un’altra pista tipo “closed captions” ai video, che il browser “leggerà ad alta voce”, con possibilità di fermare il video mentre lo legge.


Generare un rapporto Diigo – #ltis13

Come spiega Andreas in uno dei tutorial su Diigo in , quando si guarda una pagina Diigo in modalità “Best for Edit or Manage” (meglio per modificare o gestire), ci sono caselline  accanto ai link che consentono di selezionarli e di sottoporre quelli selezionati a diverse azioni elencate nella lista a tendina “More actions…” in cima:

  • Delete (Cancellare)
  • Send to (Spedire a)
  • Generate report (Generare un rapporto – vedi sotto)
  • Revise tags (Rivedere i tag – controllare che sia attivata l’opzione add tags [aggiungere tags] e non quella replace tags [sostituire i tag])

Se si sceglie “Generate a report” (generare un rapporto), il rapporto sui segnalibri selezionati si apre una pagina popup, che si può modificare, selezionare e copiare – e quindi incollare altrove. Il rapporto include anche i commenti ai segnalibri ma non gli autori dei segnalibri né dei commenti, purtroppo. Però questo dati si potrebbero aggiungere a mano.

Problema: nei gruppi Diigo, sembra che la visualizzazione con caselline sia offerta solo ai moderatori – e me ne sono accorta soltanto dopo aver generato gli esempi che seguono. Stupido, però la soluzione per i non moderatori sarebbe di aggiungere i segnalibri che si vogliono includere in un rapporto nella propria “Library” (biblioteca), e di fare il rapporto da lì.

Esempi di rapporti allo stato brado, generati il 24 maggio 2013 tra le 11:00 e le 11:40:

Continue reading