Da fine 2024 il video generato da AI è uscito dalla fase "wow demo". Sora di OpenAI, Veo di Google, Runway: ora producono clip da 5-30 secondi utilizzabili in marketing, formazione, prototipi. Cosa è serio per le aziende?
I tre player
- Sora (OpenAI): qualità altissima su scene cinematografiche. Limitato: max 20 secondi, costi alti, accesso ancora a tier elevato.
- Veo (Google, via Gemini): qualità ottima, audio sincronizzato, integrato in Google Workspace per i progetti aziendali.
- Runway Gen-3 Alpha: il più maturo per workflow professionali (video extension, image-to-video, motion brush). Disponibile via subscription.
Casi d'uso che funzionano oggi
- B-roll per video corporate: scene di paesaggio, persone generiche, oggetti — tutto generato. Risparmio su stock e shooting.
- Animazioni esplicative: trasformare uno screenshot in un video con movimento di camera. Per landing page e demo.
- Prototipi pubblicitari: pitch a clienti senza shooting reale. Approva il concept, poi si fa.
- Video formazione interna: mock-up di scene per corsi anti-phishing, sicurezza, soft skill.
Casi che ancora NON funzionano
- Video con persone identificabili: deepfake o consenso = problema. Anche le aziende serie evitano.
- Video con testo on-screen generato dal modello: ancora pieno di errori e glitch.
- Movimenti rapidi con fisica complessa: il modello inventa.
Costi reali
Per un nostro cliente nel B2B retail abbiamo prodotto una serie di 12 video B-roll da 8-15 secondi: ~180 € totali (Runway). Con shooting tradizionale: ~3.500 € minimo. Lavoro umano: 6 ore di prompt + selezione vs 2 giorni di troupe.
Compliance
L'AI Act richiede marcatura del contenuto generato. Pratico: aggiungi metadati e (visivamente) un disclaimer "AI-generated" sul primo frame. Per video destinati a pubblicità o information-sharing, è obbligatorio.