← Tutti gli articoli

Onsite data management ai festival: cosa è, perché serve

18 June 20243 min di lettura

Decine di fotografi, ore di video da ingestare, social team che pubblicano in tempo reale. Come si tiene in piedi la pipeline di un grande festival senza perdere un fotogramma.

Tra i lavori che facciamo, l'onsite data management ai festival è quello in cui non puoi tornare indietro. Quando 60.000 persone ballano in un campo, non c'è seconda chance per i contenuti. La pipeline che gestisce foto e video deve funzionare per tutti i tre giorni, alle 4 di notte come a mezzogiorno, sotto pioggia e con gli alimentatori che vanno e vengono.

Lo scenario reale

Un festival da 100.000+ persone con 30 fotografi e 10 videomaker accreditati genera tipicamente 3-5 TB di materiale al giorno. I clienti del materiale sono almeno tre: il social team (deve postare in tempo reale), gli artisti (vogliono i loro contenuti subito dopo il live), il main archive (per l'aftermovie e per gli sponsor).

Senza pipeline, succede questo: schede SD perse, file riversati su un disco singolo che si rompe, social team che aspetta ore, artisti che scrivono al management lamentandosi di non avere ancora le foto.

L'architettura che usiamo

Ingest station

Workstation Linux dedicate con lettori USB-C/SD/CFexpress, una per gruppo di operatori. Ogni scheda viene copiata con verifica checksum (xxhash o blake3) su due destinazioni in parallelo: NAS principale + DAS locale dell'operatore.

Storage tiers

  • DAS sulle workstation per editing veloce (Thunderbolt, NVMe).
  • NAS Synology o Ugreen in RAID 6 come working storage, accessibile da tutto il backstage via 10 GbE.
  • SAN centrale per i progetti di video editing e per il rendering condiviso.
  • Backup notturno verso una location offsite (datacenter o server cliente).

Rete

Backbone 10 GbE su Ubiquiti UniFi, VLAN dedicate per ingest, editing, social, ospiti. Niente Wi-Fi per i flussi pesanti — solo cavo. Switch ridondati nei nodi critici.

Power

Ogni nodo critico è su UPS Eaton con autonomia sufficiente per spegnere ordinato. Una caduta di rete elettrica improvvisa, su un NAS che sta scrivendo, può corrompere un volume.

I tre momenti in cui tutto può rompersi

1. La prima ora

Il primo afflusso di schede arriva tutto insieme. Se le ingest station non sono pre-configurate e gli operatori non hanno un protocollo chiaro, si crea coda. La nostra contromisura: etichette sui dispositivi, script di copia automatica all'inserimento della scheda, pre-test della pipeline giorni prima.

2. Il picco di pubblicazione social

Tra il main act e il successivo, il social team pubblica un volume di contenuti enorme. Il nostro NAS deve sostenere la lettura concorrente di 4-6 editor + il social manager che esporta. Se la rete non è dimensionata si crea una coda silenziosa.

3. La fine del festival

Quando tutto sta finendo, l'attenzione cala. È il momento in cui si rompono le cose. Il backup finale e la verifica integrità dell'archivio devono essere parte del piano, non un "ce ne occupiamo lunedì".

Cosa portiamo a casa ogni anno

Ogni edizione abbiamo un retrospettivo: cosa ha funzionato, cosa no, dove abbiamo perso tempo. La pipeline che usiamo oggi è il risultato di sei stagioni di iterazioni. Non è ancora perfetta — non lo sarà mai. Ma è abbastanza solida che, quando il regista chiede l'aftermovie, sappiamo già dove guardare.