science >> Wetenschap >  >> Elektronica

Tools voor kunstmatige intelligentie gebruiken om niveaus van geweld in films te identificeren

Krediet:CC0 Publiek Domein

Voor velen in de filmindustrie zien dat je film een ​​NC-17-rating kreeg van de Motion Picture Association of America (MPAA) is de kus des doods. Nu je film niet meer toegankelijk is voor kijkers onder de 17, u krijgt de keuze tussen beperkte kassabonnen of dure re-editing, of zelfs opnieuw opnemen, om te voldoen aan de eisen van een smakelijkere R-classificatie.

Maar wat als er een nauwkeurigere manier was om de waarschijnlijke classificatie van een film in de scriptfase te bepalen, voordat het door het dure proces van productie en postproductie gaat? Een onderzoeksteam van het Signal Analysis and Interpretation Lab (SAIL) van de Viterbi School of Engineering van het USC gebruikt machine learning om de weergave van geweld in de taal van scripts te analyseren. Het resultaat is een nieuwe tool om producenten, scenarioschrijvers en studio's bij het bepalen van de mogelijke classificatie van hun projecten.

Gepresenteerd op de 2019 Association for the Advancement of Artificial Intelligence (AAAI) Conference, de nieuwe AI-tool is ontwikkeld door Ph.D. studenten Victor Martinez, Krishna Somandepalli, Karan Singla, Anil Ramakrishna, en hun adviseur Shrikanth Narayanan, de Niki en Max Nikias leerstoel in Engineering. Dit gebeurde in samenwerking met Yalda Uhls van Common Sense Media. De studie is de eerste keer dat natuurlijke taalverwerking is gebruikt om gewelddadige taal en inhoud in filmscripts te identificeren.

De AI-tool is ontwikkeld met behulp van een dataset van 732 populaire filmscripts die door Common Sense Media waren geannoteerd voor gewelddadige inhoud. Uit deze informatie, het team bouwde een machine learning-model voor neurale netwerken waarin algoritmen elkaar kruisen, samenwerken en leren van inputgegevens (dat wil zeggen, de tekst van de scripts), om een ​​output te creëren (d.w.z. geweld ratings voor de film). De AI-tool analyseerde taal in de dialoog van scenario's en ontdekte dat de semantiek en het sentiment van de gebruikte taal een sterke indicator was van de beoordeelde gewelddadige inhoud in de voltooide films.

Narayanan en zijn team gebruiken AI al meer dan 15 jaar om mensgerichte gegevens te analyseren als onderdeel van hun computational media intelligence-onderzoek, die zich richt op de analyse van gegevens met betrekking tot film en massamedia. Ze werken regelmatig samen met partners zoals het Geena Davis Institute for Gender in Media om gegevens uit film en media te analyseren om te bepalen wat het kan onthullen over representatie.

Narayanan zei dat tekstanalyse een lange geschiedenis heeft op het creatieve gebied van het evalueren van inhoud voor haatzaaiende uitlatingen, seksistische en beledigende taal, maar het analyseren van geweld in film door de taal van het script is een complexere taak.

"Meestal wanneer mensen gewelddadige scènes in de media bestudeerden, ze zoeken naar geweerschoten, gierende auto's of crashes, iemand die vecht enzovoort. Maar taal is subtieler. Dit soort algoritmen kunnen context bekijken en bijhouden, niet alleen wat specifieke woorden en woordkeuzes betekenen. We bekijken het vanuit een overkoepelend oogpunt, ' zei Narayanan.

Martinez zei dat een voorbeeld van het vermogen van de AI-tool om impliciet geweld te detecteren dat de huidige technologie niet kan detecteren, een deel van de dialoog was van The Bourne Ultimatum (2007):"Ik wist dat het op deze manier zou eindigen. manier…"

Martinez zei dat deze regel door de AI-tool als gewelddadig werd gemarkeerd, ook al heeft het geen expliciete taalmarkeringen voor geweld.

"In tegenstelling tot de manier waarop de MPAA beoordeelt, onze modellen kijken naar de daadwerkelijke inhoud van de film, en de context waarin de dialoog wordt gezegd, om een ​​voorspelling te doen over hoe gewelddadig die film is, ', zei Martínez.

Somandepalli zei dat het onderzoeksteam de tool nu gebruikt om te analyseren hoe scenario's geweld gebruiken in afbeeldingen van slachtoffers en daders, en de demografie van die personages.

Dergelijke bevindingen zouden een belangrijke rol kunnen spelen in een post #MeToo Hollywood, met bezorgdheid over de vertegenwoordiging van vrouwen en het in stand houden van negatieve stereotypen, en een hernieuwde focus op sterke vrouwelijke personages met keuzevrijheid.

Het team verwacht dat dit uiteindelijk een tool zal zijn die kan worden geïntegreerd in software voor het schrijven van scenario's. De meeste programma's voor het schrijven van scenario's, zoals Final Draft of WriterDuet, zijn al in staat om rapporten te maken waarin de verhouding van de karakterdialoog per geslacht wordt weergegeven. Deze tool zou inhoudsanalyse mogelijk maken in termen van de aard van gewelddadige taal die door een personage wordt gebruikt, laten zien welke personages de daders zijn en welke de slachtoffers.

"Vaak kunnen er onbewuste patronen en vooroordelen in het script aanwezig zijn die de schrijver misschien niet van plan is, en een tool als deze zal helpen om het bewustzijn daarvan te vergroten", zei Narayanan.

De studie "Violence Rating Prediction from Movie Scripts" is gepubliceerd in de Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence.