Tra i lavori che facciamo, l'onsite data management ai festival è quello in cui non puoi tornare indietro. Quando 60.000 persone ballano in un campo, non c'è seconda chance per i contenuti. La pipeline che gestisce foto e video deve funzionare per tutti i tre giorni, alle 4 di notte come a mezzogiorno, sotto pioggia e con gli alimentatori che vanno e vengono.
Lo scenario reale
Un festival da 100.000+ persone con 30 fotografi e 10 videomaker accreditati genera tipicamente 3-5 TB di materiale al giorno. I clienti del materiale sono almeno tre: il social team (deve postare in tempo reale), gli artisti (vogliono i loro contenuti subito dopo il live), il main archive (per l'aftermovie e per gli sponsor).
Senza pipeline, succede questo: schede SD perse, file riversati su un disco singolo che si rompe, social team che aspetta ore, artisti che scrivono al management lamentandosi di non avere ancora le foto.
L'architettura che usiamo
Ingest station
Workstation Linux dedicate con lettori USB-C/SD/CFexpress, una per gruppo di operatori. Ogni scheda viene copiata con verifica checksum (xxhash o blake3) su due destinazioni in parallelo: NAS principale + DAS locale dell'operatore.
Storage tiers
- DAS sulle workstation per editing veloce (Thunderbolt, NVMe).
- NAS Synology o Ugreen in RAID 6 come working storage, accessibile da tutto il backstage via 10 GbE.
- SAN centrale per i progetti di video editing e per il rendering condiviso.
- Backup notturno verso una location offsite (datacenter o server cliente).
Rete
Backbone 10 GbE su Ubiquiti UniFi, VLAN dedicate per ingest, editing, social, ospiti. Niente Wi-Fi per i flussi pesanti — solo cavo. Switch ridondati nei nodi critici.
Power
Ogni nodo critico è su UPS Eaton con autonomia sufficiente per spegnere ordinato. Una caduta di rete elettrica improvvisa, su un NAS che sta scrivendo, può corrompere un volume.
I tre momenti in cui tutto può rompersi
1. La prima ora
Il primo afflusso di schede arriva tutto insieme. Se le ingest station non sono pre-configurate e gli operatori non hanno un protocollo chiaro, si crea coda. La nostra contromisura: etichette sui dispositivi, script di copia automatica all'inserimento della scheda, pre-test della pipeline giorni prima.
2. Il picco di pubblicazione social
Tra il main act e il successivo, il social team pubblica un volume di contenuti enorme. Il nostro NAS deve sostenere la lettura concorrente di 4-6 editor + il social manager che esporta. Se la rete non è dimensionata si crea una coda silenziosa.
3. La fine del festival
Quando tutto sta finendo, l'attenzione cala. È il momento in cui si rompono le cose. Il backup finale e la verifica integrità dell'archivio devono essere parte del piano, non un "ce ne occupiamo lunedì".
Cosa portiamo a casa ogni anno
Ogni edizione abbiamo un retrospettivo: cosa ha funzionato, cosa no, dove abbiamo perso tempo. La pipeline che usiamo oggi è il risultato di sei stagioni di iterazioni. Non è ancora perfetta — non lo sarà mai. Ma è abbastanza solida che, quando il regista chiede l'aftermovie, sappiamo già dove guardare.