science >> Wetenschap >  >> Elektronica

Hoe waardengedreven kunstmatige intelligentie de manier waarop we communiceren kan hervormen

Krediet:Yale University Press

Mike Ananny heeft vanmorgen zijn hond uitgelaten. Hij deed dat zonder enige verwachting van privacy.

"Ik weet dat ik werd blootgesteld aan een breed scala aan camera's, of het nu gaat om Ring-deurbellen, auto's die langsrijden of zelfs stadsverkeerscamera's", zei hij. "Ik heb er niet voor gekozen om deel te nemen aan deze hele reeks videobewakingssystemen. Ik heb gewoon mijn hond uitgelaten."

Ananny begrijpt dat, waar hij ook gaat, gegevens over hem worden verzameld, geanalyseerd en te gelde worden gemaakt door kunstmatige intelligentie (AI).

Kate Crawford reed met een busje diep het dorre landschap van Nevada in om de verdampende pekelvijvers van de Silver Peak Lithium Mine goed te bekijken.

Die desolate zwaden vloeistof zijn niet alleen de grootste Amerikaanse bron van lithium - het metaal dat essentieel is voor de batterijen die alles van stroom voorzien, van laptops tot mobiele apparaten tot elektrische auto's - ze zijn ook een levendige herinnering aan de impact die AI heeft op de materiële wereld .

"Metaforen die mensen gebruiken om over AI te praten, zoals 'de cloud', impliceren iets zwevends en abstracts," zei Crawford. "Maar grootschalige berekeningen hebben een enorme ecologische voetafdruk en een enorme impact op het milieu."

Crawford weet dat 's werelds systemen voor energie, mijnbouw, arbeid en politieke macht worden herschreven door de behoeften van AI.

Toen de COVID-19-pandemie begon, wist Ashley Alvarado dat de luisteraars van haar station bang en verward waren.

Bij KPCC-FM en LAist heeft Alvarado verschillende communicatiemiddelen gebruikt om met het publiek in contact te komen, maar de omvang van de opmerkingen, vragen en tips die het station ontving, vereiste een oplossing die grote hoeveelheden gegevens snel kon verwerken.

"Met COVID was er aan het begin van de pandemie zo veel behoefte aan informatie dat we voor Angelenos het meest menselijk konden zijn door gebruik te maken van AI", zei Alvarado.

Bekend onder vele namen - algoritmen, bots, big data, natuurlijke taalverwerking, machine learning, intelligente agenten - technologieën die onder de brede definitie van AI vallen, hervormen niet alleen de wereld van communicatie, maar de wereld als geheel. In het hele USC Annenberg onderzoeken docenten, studenten en alumni zowel het enorme potentieel als de vaak minder voor de hand liggende valkuilen van deze technologieën.

"Annenberg is uniek gepositioneerd om dit gesprek te leiden, omdat dit sociaal-technische en communicatieproblemen zijn", zei Ananny. "Ik wil niet dat onze antwoorden op deze vragen alleen technisch zijn. Ik wil een antwoord dat diep historisch is en geworteld in cultureel begrip."

Zoektermen

In de populaire verbeelding kan AI van alles betekenen, van het alledaagse gemak van het kiezen van nummers op je telefoon waarvan het weet dat je ze leuk vindt of het vertellen van de beste route naar het huis van je vriend, of de belofte van big data wondermiddelen voor problemen zoals klimaatverandering of de Covid19-pandemie. Het is ook bijna onmogelijk om AI te bespreken zonder te verwijzen naar hoe vaak AI wordt gecast als de schurk van sciencefiction:het verbod op "denkmachines" in Dune van Frank Herbert, HAL 9000 in 2001:A Space Odyssey van Arthur C. Clarke, de Borg in Star Trek, Agent Smith in The Matrix.

"Ik denk dat de meeste mensen het zien als dit soort sci-fi-technologie van Terminator of Ready Player One", zegt Fred Cook, directeur van het Center for Public Relations. "In werkelijkheid is het de motor achter veel van de dingen die mensen, vooral in de PR-industrie, al gebruiken in hun dagelijkse werk."

Om schromelijk te simplificeren:het meeste van wat algemeen wordt beschouwd als AI komt neer op de interactie van algoritmen - wiskundige functies - die berekeningen maken op basis van enorme hoeveelheden gegevens.

"Algoritmen zijn de instructies en regels die computergebruik beheersen", zegt Marlon Twyman II, die onderzoekt hoe technologie de interacties van individuen en teams op de werkplek vormgeeft. "Kunstmatige intelligentie moet algoritmen hebben die ten grondslag liggen aan de beslissingen en afspraken die het maakt."

Twyman haalt het voorbeeld van beeldherkenning aan:AI die probeert te detecteren of een foto van een kat een kat of een hond is. Hoe meer voorbeelden de algoritmen te zien krijgen, hoe meer gegevens, hoe beter ze in staat zijn om deze vaststellingen te doen.

"Kunstmatige intelligentie is wanneer computers beginnen te reageren op inputs waar ze niet per se op waren getraind - of waaraan ze niet waren blootgesteld - toen ze werden geprogrammeerd", zegt Twyman, assistent-professor communicatie.

"Waar we mee te maken hebben, is gewoon wiskunde", zei Ignacio Cruz, die zijn Ph.D. in communicatie in 2021 en doceert nu aan de Northwestern University. Hij benadrukt dat het, ondanks de mogelijkheden van AI om trends en patronen te herkennen, niet zo mysterieus is. Technologie die, zo niet sentimenteel, dan tenminste een onafhankelijk bureau heeft - of wat Cruz 'agentische kwaliteiten' noemt - is voorlopig grotendeels het sci-fi-gedoe.

"Algoritmen werken niet zoals het menselijk brein werkt", merkte Lynn Miller, hoogleraar communicatie, op. "AI is eigenlijk gewoon een voorspellingsmachine."

Dergelijke machines zorgen voor opmerkelijke technologische prestaties in de gezondheidszorg, logistiek, games, entertainment, strafrecht, personeelszaken en vele andere gebieden, waaronder lokale journalistiek, op onverwachte manieren.

AI en community

KPCC-FM verwachtte niet dat ze AI zouden gebruiken om de betrokkenheid van de gemeenschap op te bouwen, maar toen de pandemie in 2020 toesloeg en ze overspoeld werden met paniekerige berichten over de lockdown, wist het leiderschap van het in Pasadena gevestigde openbare radiostation dat ze iets moesten doen om help hun luisteraars.

"Het begon met bezorgdheid", zei Alvarado. "En toen ontaardde het in een ware paniek - vragen over tekorten bij Target, of een bruiloft moest worden geannuleerd, of het illegaal was om met dierbaren samen te komen om om iemand te rouwen."

De meeste van deze vragen kwamen via een tool die het radiostation op zijn homepage had ingesloten en die gebruikmaakt van Hearken, een platform voor betrokkenheid en organisatieondersteuning. "We kregen soms 10 berichten per minuut via deze tool", zegt Alvarado, vice-president van gemeenschapsbetrokkenheid en strategische initiatieven voor KPCC-FM en LAist. "We moesten creatief nadenken over hoe we konden voorzien in de informatiebehoeften van duizenden en duizenden mensen."

Ze sprak met Paul Cheung, toenmalig directeur journalistiek en technologie-innovatie bij de John S. en James L. Knight Foundation, die vroeg of ze had nagedacht over machine learning. 'En dat had ik niet,' zei ze grinnikend. Cheung bracht hen in contact met enkele journalisten die met AI werkten bij de online publicatie Quartz, en ze hielpen Alvarado en haar team bij het ontwikkelen van een natuurlijke taalverwerkingstool die de verzoeken die ze van luisteraars ontvingen kon analyseren.

"Met de tool konden we thema's identificeren waarop we ons moesten concentreren - niet alleen voor het beantwoorden van vragen, maar ook voor welke verhalen we zouden moeten behandelen en waar," zei Alvarado, die haar BA in 2005 behaalde met een dubbele major in gedrukte journalistiek en Spaans .

Alvarado ziet een groot potentieel voor deze technologie om input van het publiek mogelijk te maken voor patronen van andere snel bewegende nieuwsgebeurtenissen, van bosbranden tot politieke debatten. "Normaal gesproken zou je elke vraag moeten lezen zodra deze binnenkwam en hopen dat je een trend hebt waargenomen, in plaats van dat de AI aanwezig is om te zeggen:" Hier is iets dat steeds weer opduikt.'"

Sommige publicaties gebruiken AI al rechtstreeks om verhalen te schrijven, meestal eenvoudige, gemakkelijk opgemaakte stukken zoals aandelenrapporten, weerberichten en sportverhalen. Hoewel deze stukken uiteindelijk een journalist op instapniveau redden van het saaie werk, ziet Twyman een mogelijk nadeel.

"Het probleem is dat dit de mogelijkheid om te innoveren wegneemt, zelfs bij deze eenvoudige taken", zei hij. "Als we mensen blijven verwijderen van steeds complexere schrijftaken, kunnen we terechtkomen in een wereld die er heel anders uitziet."

Agenten met bureau

Soms is het voor hun veiligheid nodig om mensen uit de vergelijking te verwijderen. In haar onderzoek naar risicovolle seksuele activiteit meer dan 25 jaar geleden liep Miller tegen een zeer fundamenteel en zeer menselijk probleem aan. "Ik was geïnteresseerd in seksueel gedrag van jonge mannen die seks hebben met mannen", zei ze. "Ik heb veel kwalitatief onderzoek gedaan naar wat leidde tot deze risicomomenten, maar ik kon natuurlijk niet onder mijn bedden kruipen om erachter te komen wat er aan de hand was. Toen begon ik geïnteresseerd te raken in het creëren van virtuele omgevingen."

Miller wilde een interactief spel maken waarin proefpersonen konden beslissen of ze al dan niet risicovol seksueel gedrag zouden vertonen, maar ze werd beperkt door de technologie die ze tot haar beschikking had om gescripte situaties te creëren.

Het antwoord was een virtuele omgeving bevolkt door 'intelligente agenten', personages wiens gedrag werd bepaald door algoritmen die hun voorkeuren en doelen bepalen - met andere woorden AI - in plaats van door vaste scripts. In samenwerking met een team van computerwetenschappers en psychologen van het USC ontwikkelde Miller personages wiens gedrag representatief was voor mensen in het echte leven. Deze karakters bevolkten een virtuele wereld en konden op meer natuurlijke manieren met menselijke onderzoekssubjecten communiceren die daadwerkelijk bruikbare onderzoeksgegevens zouden opleveren over riskant seksueel gedrag zonder het risico.

"Je kunt een mens in de lus hebben die reageert op wat de intelligente agent doet, die vervolgens zijn gedrag vormt, of je kunt alle agenten laten communiceren en simulaties uitvoeren", zei Miller. Haar werk hielp niet alleen patronen van risicovol gedrag te identificeren, maar ook manieren om effectief in te grijpen en dat risico te beperken.

In haar bekroonde onderzoek van de afgelopen anderhalf jaar dat voortbouwde op die originele virtuele omgevingen, hebben Miller en haar team ook geleerd welke soorten interventies het beste werken om risico's in seksuele situaties te beperken - wat niet mogelijk zou zijn geweest zonder AI.

Haar meer recente werk is het domein van de neurowetenschap binnengedrongen en gebruikt die intelligente agenten om complexere menselijke processen te modelleren, zoals communicatiecompetentie en hoe mensen betekenis geven door sociale interactie.

"Een van de problemen met de huidige AI in het algemeen is dat het slechts tot een bepaald punt kan komen om emoties te kunnen afleiden," zei Miller. "Dat gezegd hebbende, zijn er bepaalde kansen en parameters die we in onze intelligente agenten kunnen programmeren als het gaat om sociale interactie die eigenlijk behoorlijk goed kunnen modelleren hoe echte mensen, in een zeer interactieve en flexibele omgeving, beslissingen zullen nemen."

Hoewel de toekomst van AI moeilijk te voorspellen is, zei Miller dat geavanceerde AI-onderzoekers al proberen te benutten hoe menselijke hersenen de wereld begrijpen. "Zoals bij alle innovaties, zijn er risico's die moeten worden beperkt", merkte Miller op. "Maar er zijn ook enorme mogelijkheden om interventies en therapieën te verbeteren om de communicatie en het individuele en maatschappelijke welzijn drastisch te verbeteren."

Polarisatie ontleden

Zoals Miller aangeeft, is een van de sterke punten van AI het vinden van patronen in enorme datasets. Fred Cook wilde een bijzonder controversiële dataset gebruiken - posts op sociale media over controversiële politieke kwesties - en uitzoeken of AI kon helpen de mate van polarisatie in het debat over die kwesties te meten.

Het proces begon met een onderzoek dat het Center for Public Relations uitvoerde voor zijn Global Communication Report 2021, waarin verschillende belangrijke problemen werden geïdentificeerd waarvan PR-professionals dachten dat ze het komende jaar zouden moeten aanpakken. Cook deelde die problemen met executives van het PR-bureau Golin, waar hij CEO was (en nog steeds een financieel belang heeft), en deelde ze vervolgens met het softwarebedrijf Zignal Labs.

"Gezien het enorme probleem dat het huidige niveau van polarisatie veroorzaakt voor mensen, de overheid en het bedrijfsleven, hebben we besloten een nieuwe tool te ontwikkelen die dit zou meten - en hopelijk zou helpen het te verminderen", zei Cook.

Hun aanpak is gebaseerd op de Ad Fontes-grafiek van mediabias, die mediakanalen categoriseert op basis van een links-rechts politiek spectrum op de ene as en betrouwbaarheid op de andere as. De Zignal AI-tool voert de top 10 van actuele politieke kwesties in en verwijst ernaar met sociale berichten die links bevatten naar artikelen uit publicaties die in de Ad Fontes-grafiek staan. Op basis van de positie van de publicatie in de grafiek, kent de tool een score toe die bepaalt hoe links of rechts de meeste sociale media-aandelen zijn over een bepaald onderwerp. De kloof tussen hoeveel rechtse/conservatieve artikelen over een kwestie worden gedeeld en hoeveel linkse/liberale publicaties er worden gedeeld, geeft een Polarization Index-score.

Het enorme aantal berichten dat betrokken is bij het maken van deze score - meer dan 60 miljoen - vereist dat AI het werk snel doet.

"De polarisatie-index biedt een hittekaart van welke problemen het meest controversieel zijn en de factoren die bijdragen aan hun verdeeldheid", zei Cook. "We kunnen implicaties trekken voor mensen, bedrijven en communicatoren die zich met deze onderwerpen willen bezighouden."

Cook zegt ook dat PR-professionals kritiek op AI zullen moeten blijven aanpakken op basis van zorgen over privacy, arbeid, vooroordelen en sociale rechtvaardigheid, maar voegt eraan toe dat zijn eigen ervaring heeft aangetoond dat AI ook op deze gebieden positieve effecten kan hebben.

Dat gezegd hebbende, voegde Cook eraan toe:"Elke nieuwe technologie heeft aspecten die beangstigend zijn, en AI is niet anders dan al het andere. Hoewel we AI gebruikten om echt belangrijk werk te doen aan onze polarisatie-index, kan en is AI gebruikt om desinformatie en politieke campagnes beïnvloeden via bots. Elke keer dat er een nieuwe technologie is, zal iemand deze op een schadelijke manier gebruiken."

AI jagen met AI

Als het gaat om het onderzoeken van zowel de positieve als negatieve aspecten van AI, lopen de promovendi van USC Annenberg in communicatie voorop in dat onderzoek, waarbij ze een brug slaan tussen computerwetenschappen en sociale wetenschappen om diepgaand inzicht te krijgen in zowel de technische als culturele implicaties van AI.

Promovendus Ho-Chun Herbert Chang zegt dat zijn niet-gegradueerde jaren aan het Dartmouth College vormend waren. "Dartmouth was de plaats waar de term AI in 1952 werd bedacht", merkte hij op. "Ik heb wiskunde en kwantitatieve sociale wetenschappen gestudeerd, en voor mijn senior fellowship-programma deed ik een fictieproject over kunstmatige intelligentie. Dat was het begin voor mij om AI te bekijken vanuit zowel een technische als een humanistische manier."

Naarmate zijn academische carrière vorderde, zag Chang een "kloof" tussen hoe beoefenaars en het publiek kunstmatige intelligentie zien. "Van de kant van de computerwetenschap ligt er meer nadruk op de technische aspecten van het ontwerpen van algoritmen," zei hij. "Vanuit de humanistische kant is er een focus op maatschappelijke waarden als het primaire principe in termen van het organiseren van onderzoek."

Een van de projecten waaraan Chang het afgelopen jaar werkte, toonde het potentieel van AI om menselijk gedrag te onderzoeken - en het gedrag van andere AI-systemen. In samenwerking met Emilio Ferrara, universitair hoofddocent communicatie en computerwetenschappen, wiens baanbrekende onderzoek identificeerde hoe Twitter-bots de Amerikaanse presidentiële campagne van 2016 beïnvloedden, hielp Chang voortbouwen op dat werk in de aanloop naar de verkiezingen van 2020. Met behulp van een AI-tool, de Botometer genaamd, kon het team kwantificeren hoeveel Twitter-verkeer rond complottheorieën werd gegenereerd en versterkt door bots. "De Botometer kijkt naar de tijdlijngegevens en metadata van elk Twitter-account en gebruikt machine learning om erachter te komen of een account een mens of een bot is", zei Chang.

Chang werkte ook samen met Allissa Richardson, assistent-professor journalistiek, om de beweging voor raciale rechtvaardigheid te analyseren die volgde op de moord op George Floyd door de politie van Minneapolis. "A big part of communication research is about how users participate on social platforms—mediated by algorithms—and how they use these platforms to self-organize for democratic movements," he said. "That's the kind of work I want to do. I'm engaging holistically with AI, and Annenberg is the perfect place for that research."

Ignacio Cruz focused his dissertation on the use of AI tools in workplace recruitment. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."

While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.

Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."

The desert of AI

For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.

"We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"

In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.

"Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."

Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."

Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."

Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.

"AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."

Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.

"Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.

Toward an ethical AI

As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.

While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.

"We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."

Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.

"We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."

Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.

"This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"