Andersons vinkel
Brug af AI til at forudsige en blockbuster-film

Selvom film og tv ofte ses som kreative og åbne brancher, har de længe været risikofyldte. Høje produktionsomkostninger (der måske snart mister den kompenserende fordel af billigere udenlandske lokaliteter, i hvert fald for US-projekter) og en fragmenteret produktionslandskab gør det svært for uafhængige selskaber at absorbere et betydeligt tab.
Derfor har branchen i løbet af det sidste årti taget en stigende interesse i, om maskinlæring kan detektere tendenser eller mønstre i, hvordan publikum reagerer på foreslåede film- og tv-projekter.
De vigtigste datakilder er stadig Nielsen-systemet (der tilbyder skala, selvom dets rødder ligger i tv og reklame) og prøvebaserede metoder som fokusgrupper, der handler skala for kuraterede demografier. Denne sidstnævnte kategori inkluderer også scorekort-tilbagemeldinger fra gratis filmforhåndsvisninger – men på det tidspunkt er størstedelen af en produktionens budget allerede brugt.
‘Big Hit’-teorien/Teorierne
Initialt udnyttede ML-systemer traditionelle analysemetoder som lineær regression, K-Nearest Neighbors, Stochastic Gradient Descent, Decision Tree og skove, og Neural Networks, som regel i forskellige kombinationer nærmere i stil med præ-AI statistisk analyse, såsom en 2019 University of Central Florida initiativ til at forudsige succesfulde tv-serier baseret på kombinationer af skuespillere og forfattere (blandt andre faktorer):

En 2018-studie vurderede episodernes præstation baseret på kombinationer af karakterer og/eller forfatter (de fleste episoder blev skrevet af mere end en person). Kilde: https://arxiv.org/pdf/1910.12589
Den mest relevante relaterede arbejde, i hvert fald det, der er udrullet i det vilde (omend ofte kritiseret), er på området for recommender-systemer:

En typisk videoanbefalingspipeline. Videoer i kataloget er indekseret ved hjælp af funktioner, der kan være manuelt annoterede eller automatisk udtrukne. Anbefalinger genereres i to stadier ved først at vælge kandidatvideoer og derefter rangere dem i henhold til en brugerprofil, der er afledt af visningspræferencer. Kilde: https://www.frontiersin.org/journals/big-data/articles/10.3389/fdata.2023.1281614/full
Men disse typer af tilgange analyserer projekter, der allerede er succesfulde. I tilfældet af prospektive nye serier eller film er det ikke klart, hvilken type grundsandhed, der vil være mest anvendelig – ikke mindst fordi ændringer i offentlighedens smag, kombineret med forbedringer og udvidelser af datakilder, betyder, at der sjældent er til rådighed konsistent data over flere årtier.
Dette er et eksempel på cold start-problemet, hvor anbefalingssystemer skal evaluere kandidater uden nogen tidligere interaktionsdata. I sådanne tilfælde bryder traditionel collaborative filtering sammen, fordi det afhænger af mønstre i brugeradfærd (såsom visning, vurdering eller deling) for at generere forudsigelser. Problemet er, at i tilfældet af de fleste nye film eller serier er der endnu ikke nok brugerfeedback til at støtte disse metoder.
Comcast Forudsiger
En ny artikel fra Comcast Technology AI i samarbejde med George Washington University foreslår en løsning på dette problem ved at fremkalde et sprogmodel med struktureret metadata om ikke-udgivne film.
Inddataene inkluderer cast, genre, synopsis, indholdsrating, stemning og priser, med modellen returnerer en rangeret liste over sandsynlige fremtidige hits.
Forfatterne bruger modellens output som en erstatning for publikumsinteresse, når der ikke er til rådighed nogen engagementsdata, i håb om at undgå tidlig bias mod titler, der allerede er velkendte.
Den meget korte (tre-siders) artikel, med titlen Forudsiger filmhits før de sker med LLM’er, kommer fra seks forskere ved Comcast Technology AI og en fra GWU, og fastslår:
‘Vore resultater viser, at LLM’er, når de bruger film-metadata, kan udgøre en betydelig overlegen position i forhold til baseline-modellerne. Denne tilgang kan fungere som et assisteret system til multiple brugsområder, hvilket muliggør automatisk vurdering af store mængder nyt indhold, der udgives dagligt og ugentligt.
‘Ved at give tidlige indsigt før redaktionelle hold eller algoritmer har samlet tilstrækkelig interaktionsdata, kan LLM’er strømlinje den indholdsgennemgangsproces.
‘Med kontinuerlige forbedringer i LLM-effektivitet og opkomsten af anbefalingsagenter er indsigt fra dette arbejde værdifulde og tilpasningsdygtige til en bred vifte af domæner.’
Hvis tilgangen viser sig at være robust, kan den reducere branchens afhængighed af retrospektive metrikker og kraftigt promoverede titler ved at introducere en skalerbar måde at flagge lovende indhold før udgivelsen. Derved kan redaktionelle hold modtage tidlige, metadata-drevne forudsigelser af publikumsinteresse, potentelt omfordeler eksponering over en bredere vifte af nye udgivelser.










