Essere o non essere (umani)

Cosa ci dicono le offerte di lavoro per attori da “sfruttare” per addestrare l'AI a recitare e trasmettere emozioni

Si sono moltiplicati i contractor per reclutare attori e allenare i modelli di AI. Si riaccende il dibattito che oscilla tra chi vede nuove opportunità e chi il rischio di smantellare il cinema (e il lavoro creativo)
attori cinema teatro AI
Essere o non essere, cosa succede se l'AI entra nel mondo della recitazioneasbe

Qualche tempo fa un annuncio di lavoro per attori pubblicato negli Stati Uniti ha destato non solo l’attenzione di chi era a caccia di un impiego. Nell’offerta, pubblicata online dalla piattaforma Handshake, si menziona “un progetto collaborativo di improvvisazione rivolto a una delle aziende di intelligenza artificiale più importanti del settore”, senza tuttavia specificare quale. Non si cercano sviluppatori o ingegneri informatici, ma improvvisatori, performer, persone capaci di trasmettere emozioni in modo credibile. Non davanti a un pubblico, però, ma a un sistema di intelligenza artificiale. L’offerta è stata pubblicata da Handshake, che negli ultimi mesi si è trasformata da servizio digitale per l’incontro tra domanda e offerta di lavoro ad uno dei tanti snodi globali del mercato dei dati per l’AI.

Cosa prevedeva l'offerta di lavoro di Handshake per attori

Il contenuto dell'inserzione è descritto in modo trasparente: “partecipare a sessioni di improvvisazione in videochiamata, senza copione, a partire da scenari minimi, sostenendo un personaggio e reagendo in modo coerente”. I partecipanti vengono abbinati ad altri performer e lasciati liberi di costruire la scena, con l’obiettivo dichiarato di “testare i limiti” dei modelli linguistici più avanzati. Non c’è prodotto finale, né pubblico. Quello che conta è la qualità dell’interazione: la naturalezza delle pause, le esitazioni, le variazioni di tono. Tutto viene raccolto, scomposto e trasformato in dato.

Il compenso medio è di circa 74 dollari all’ora, con una promessa di flessibilità che, secondo diverse testimonianze riportate da The Verge, tende a scontrarsi con la realtà di task intermittenti e competitivi. Ma il punto non è tanto la singola offerta, quanto il contesto in cui si inserisce. In meno di un anno, Handshake si è convertita da piattaforma tradizionale a struttura per la raccolta e trasmissione di dati umani per il training dell’intelligenza artificiale, cioè quel processo attraverso cui un algoritmo impara a prendere decisioni o generare contenuti, analizzando enormi quantità di informazioni. E non è la sola. Da tempo aziende come Mercor e Scale AI stanno costruendo un mercato sempre più redditizio attorno al data labeling: stando alle stime di Sacra, che monitora le performance delle società non quotate, Handshake avrebbe raggiunto circa 280 milioni di dollari di ricavi annuali.

Scale AI avrebbe toccato quota 1,5 miliardi nel 2024, mentre Mercor sarebbe passata da 1 a 50 milioni in un solo anno. La considerazione che se ne trae, per la verità già ampiamente argomentata da molti osservatori del settore, è che il servizio di training per l’AI offerto alle grandi aziende tecnologiche non sia più di un'attività ancillare, ma una vera e propria filiera industriale in cui il lavoro umano diventa materia prima.

Ma perché e come le aziende stanno cambiando il modo in cui “nutrono” i propri modelli? “Alle AI servono dati continuamente, ma quelli che hanno ‘mangiato’ fino ad ora non sono più sufficienti”, spiega Francesco D’Isa, filosofo e artista visivo.

La domanda si sta segmentando e raffinando: cercano di colmare lacune nelle espressioni e nelle sfumature emotive”. Per anni, i modelli sono stati nutriti soprattutto con contenuti provenienti da piattaforme come YouTube o TikTok: “Parliamo di enormi quantità di dati veicolati attraverso l’immagine, ma raramente progettati per restituire coerenza emotiva o profondità interpretativa”, continua D’Isa. Oggi, con l’espansione dei modelli multimodali e vocali, il problema non è più solo generare testo o immagini, ma simulare interazioni credibili. E per farlo, servono esseri umani che sappiano cosa significa essere credibili.

La crisi del cinema “ha creato un mercato” per le AI

Se la materia prima sono le emozioni, chi le produce diventa la forza lavoro per fornire quella materia. È qui che il mondo della recitazione entra in contatto diretto con l’AI. Per molti attori – soprattutto agli inizi o non appartenenti alla ristretta “bolla” delle celebrità dell’industria – queste offerte rappresentano un’opportunità concreta già da qualche anno.

Nel 2023, nel bel mezzo dello sciopero degli sceneggiatori dell'industria cinematografica di Hollywood contro l’AI, un articolo pubblicato su Mit Technology Review, raccontava la storia di un attore di 28 anni che aveva accettato di presentarsi in uno studio hollywoodiano, deserto ad eccezione di pochi addetti ai lavori, per mettere in scena alcune performance di fronte a tre videocamere, sotto l’occhio di un direttore e un produttore. Tutti e tre erano stati ingaggiati da Realeyes, azienda britannica operante su più fronti legati all’intelligenza artificiale, dalla verifica alla cosiddetta Emotion AI, un sottoinsieme che si occupa di implementare le interazioni uomo-macchina, rendendole più empatiche e personalizzate. Per farlo, c’è bisogno innanzitutto di scannerizzare espressioni facciali, movenze e posture e, per farlo, c’è bisogno di estrarle da chi sa riprodurle.

Si guadagna di più a nutrire l'AI che a recitare davvero?

Secondo l’articolo, per lui la paga si aggirava sui 150-200 dollari all’ora, per un contratto minimo di 2 ore. Negli Stati Uniti, dove le tariffe per attori secondari sono regolate secondo il Background Actors Digest del sindacato SAG-AFTRA, reso famoso all’estero dalle proteste di Hollywood di quegli anni, la paga è di al massimo 175 dollari a giornata per una giornata di circa 8, quindi poco più di 20 dollari allora. Non è dunque difficile comprendere perché, già ore in quegli anni, lavorare per il training dell’intelligenza artificiale abbia rappresentato per gli attori in erba, comparse o impegnati in piccoli produzioni, più un’opportunità che una minaccia. “Il mercato c’è perché, considerando la crisi del cinema e della recitazione, non è pagato male”, osserva D’Isa. “Non servono livelli hollywoodiani: basta saper esprimere emozioni basiche in modo convincente. Per questo è percepito come un lavoro come un altro”.

Ma è proprio questa normalizzazione a sollevare le questioni più complesse. Simone Arcagni, docente e studioso dei media, invita a leggere il fenomeno in una prospettiva più ampia: “C’è sicuramente una riflessione di giustizia sociale da mettere sul tavolo. Questa tecnologia sta creando un nuovo mercato, ma anche nuove forme di sfruttamento che coinvolgono settori prima esclusi, come attori e scrittori”. La maggiore trasparenza di annunci come quello di Handshake, aggiunge, arriva dopo anni in cui i modelli sono stati addestrati anche su materiali protetti da copyright o su estetiche riconoscibili senza consenso. “Si corre un po’ ai ripari usando artisti per allenare gli algoritmi, dopo averli alimentati per anni con opere senza permesso come successo nel caso dello Studio Ghibli, probabilmente il più clamoroso”. In questo passaggio, la performance cambia natura. Non è più necessariamente destinata a un pubblico, ma a un sistema. Non produce un’opera, ma contribuisce a costruire un modello. È una trasformazione che ricorda da vicino quella già avvenuta in altri segmenti del lavoro digitale, dove attività apparentemente creative vengono scomposte in micro-task e integrate in catene del lavoro industriali. Con una differenza: qui l’oggetto del lavoro è l’umano stesso, nelle sue sfumature più sottili.

Negli ultimi anni, l’incontro tra le innovazioni dell’AI e il mondo cinema ha portato a svariati momenti di frizione. I già citati scioperi di Hollywood del 2023 hanno portato ad accordi che per la prima volta regolano l’uso dell’AI, includendo il consenso obbligatorio per la scansione digitale degli attori, compensi per il riutilizzo delle loro immagini, limiti all’impiego di script generati automaticamente. Parallelamente, il settore ha continuato a concentrarsi. Operazioni come l’integrazione sempre più verticale tra produzione e distribuzione nelle grandi piattaforme – con pochi gruppi in grado di finanziare, realizzare e distribuire contenuti su scala globale – hanno ridotto ulteriormente lo spazio per modelli indipendenti, mentre i costi medi delle produzioni ad alto budget continuano a crescere.

Un'opportunità che rischia di svanire di fronte alle concentrazioni economiche

È dentro questa doppia dinamica – regolazione parziale e concentrazione industriale – che prende forma il discorso sulla democratizzazione delle produzioni. Da un lato, l’AI promette di abbattere barriere storiche: strumenti di generazione video, ambienti virtuali e modelli capaci di supportare scrittura e pre-produzione stanno già permettendo a piccoli studi e creator di avvicinarsi a standard visivi prima riservati alle major. Per chi ha meno fondi, rappresentano un’opportunità concreta: permettono di raggiungere risultati di alto livello senza investimenti esorbitanti”, osserva Francesco D’Isa. È una promessa che trova riscontro anche nel crescente interesse di scuole di cinema e circuiti indipendenti, dove queste tecnologie vengono viste come un possibile riequilibrio rispetto alle asimmetrie di budget.

Dall’altro lato, però, i segnali che arrivano dall’industria suggeriscono una traiettoria più ambigua. “Si è parlato di democratizzazione anche con internet e i social, ma abbiamo visto soprattutto concentrazione e abbassamento della qualità”, ricorda Simone Arcagni.

L’AI rischia di seguire lo stesso percorso: strumenti apparentemente accessibili che, in realtà, dipendono da infrastrutture costose, grandi dataset e piattaforme centralizzate. Anche nel cinema, dove l’intelligenza artificiale è ormai integrata in ogni fase, dagli effetti visivi alla post-produzione, il vantaggio competitivo resta nelle mani di chi controlla questi asset. Non è un caso che le principali innovazioni arrivano da aziende tecnologiche o da studi con risorse tali da poter assorbire i costi di sviluppo.

Come sottolinea Arcagni, “una tecnologia diventa davvero dirompente solo quando impone nuovi canoni estetici, aggiungendo al potenziale di trasformazione economica quello artistico. Finché l’AI verrà utilizzata per ottimizzare ciò che già esiste, riducendo tempi e costi ma replicando formati e linguaggi consolidati, la sua promessa resterà incompleta.