science >> Wetenschap >  >> Elektronica

Kunstmatige intelligentie kan nu menselijk gedrag nabootsen - binnenkort zal het gevaarlijk goed zijn

Is dit gezicht slechts een verzameling computerbits? Krediet:Michal Bednarek/Shutterstock.com

Wanneer kunstmatige-intelligentiesystemen creatief beginnen te worden, ze kunnen geweldige dingen creëren - en enge dingen. Nemen, bijvoorbeeld, een AI-programma waarmee internetgebruikers muziek kunnen componeren samen met een virtuele Johann Sebastian Bach door noten in te voeren in een programma dat Bach-achtige harmonieën genereert die bij hen passen.

Gerund door Google, de app kreeg veel lof omdat het baanbrekend en leuk was om mee te spelen. Het trok ook kritiek, en uitte bezorgdheid over de gevaren van AI.

Mijn onderzoek naar hoe opkomende technologieën het leven van mensen beïnvloeden, heeft me geleerd dat de problemen verder gaan dan de weliswaar grote bezorgdheid over de vraag of algoritmen echt muziek of kunst in het algemeen kunnen creëren. Sommige klachten leken klein, maar waren echt niet, zoals observaties dat de AI van Google de basisregels van muziekcompositie overtrad.

In feite, pogingen om computers het gedrag van echte mensen te laten nabootsen, kunnen verwarrend en mogelijk schadelijk zijn.

Imitatietechnologieën

Het programma van Google analyseerde de noten in 306 van Bachs muziekwerken, het vinden van relaties tussen de melodie en de noten die voor de harmonie zorgden. Omdat Bach strikte compositieregels volgde, het programma leerde in feite die regels, zodat het ze kon toepassen wanneer gebruikers hun eigen notities gaven.

De Bach-app zelf is nieuw, maar de onderliggende technologie is dat niet. Algoritmen die zijn getraind om patronen te herkennen en probabilistische beslissingen te nemen, bestaan ​​al heel lang. Sommige van deze algoritmen zijn zo complex dat mensen niet altijd begrijpen hoe ze beslissingen nemen of tot een bepaald resultaat leiden.

Het Google Doodle-team legt het Bach-programma uit.

AI-systemen zijn niet perfect - veel van hen vertrouwen op gegevens die niet representatief zijn voor de hele bevolking, of die worden beïnvloed door menselijke vooroordelen. Het is niet helemaal duidelijk wie wettelijk verantwoordelijk is als een AI-systeem een ​​fout maakt of een probleem veroorzaakt.

Nutsvoorzieningen, Hoewel, kunstmatige-intelligentietechnologieën worden geavanceerd genoeg om de schrijf- of spreekstijl van individuen te kunnen benaderen, en zelfs gezichtsuitdrukkingen. Dit is niet altijd slecht:een vrij eenvoudige AI gaf Stephen Hawking de mogelijkheid om efficiënter met anderen te communiceren door te voorspellen welke woorden hij het meest zou gebruiken.

Complexere programma's die menselijke stemmen nabootsen, helpen mensen met een handicap, maar kunnen ook worden gebruikt om luisteraars te misleiden. Bijvoorbeeld, de makers van Lyrebird, een stem nabootsend programma, hebben een gesimuleerd gesprek vrijgegeven tussen Barack Obama, Donald Trump en Hillary Clinton. Het klinkt misschien echt, maar die uitwisseling is nooit gebeurd.

Van goed naar slecht

In februari 2019, non-profitorganisatie OpenAI heeft een programma gemaakt dat tekst genereert die vrijwel niet te onderscheiden is van tekst die door mensen is geschreven. Het kan een toespraak "schrijven" in de stijl van John F. Kennedy, J.R.R. Tolkien in "The Lord of the Rings" of een student die een schoolopdracht schrijft over de Amerikaanse burgeroorlog.

De tekst die door de software van OpenAI wordt gegenereerd, is zo geloofwaardig dat het bedrijf ervoor heeft gekozen het programma zelf niet uit te brengen.

Vergelijkbare technologieën kunnen foto's en video's simuleren. Begin 2018, bijvoorbeeld, acteur en filmmaker Jordan Peele maakte een video waarin de voormalige Amerikaanse president Barack Obama dingen leek te zeggen die Obama nooit heeft gezegd om het publiek te waarschuwen voor de gevaren van deze technologieën.

Wees voorzichtig met welke video's je gelooft.

Begin 2019, een nep-naaktfoto van de Amerikaanse vertegenwoordiger Alexandria Ocasio-Cortez circuleerde online. Gefabriceerde video's, vaak "deepfakes" genoemd, " zullen naar verwachting in toenemende mate worden gebruikt in verkiezingscampagnes.

Leden van het Congres zijn deze kwestie begonnen te onderzoeken in de aanloop naar de verkiezingen van 2020. Het Amerikaanse ministerie van Defensie leert het publiek hoe ze gemanipuleerde video's en audio kunnen herkennen. Nieuwsorganisaties zoals Reuters beginnen journalisten op te leiden om deepfakes te herkennen.

Maar, volgens mij, een nog grotere zorg blijft:gebruikers kunnen mogelijk niet snel genoeg leren om nep-inhoud te onderscheiden naarmate AI-technologie geavanceerder wordt. Bijvoorbeeld, nu het publiek zich bewust begint te worden van deepfakes, AI wordt al gebruikt voor nog meer geavanceerde vormen van bedrog. Er zijn nu programma's die valse gezichten en valse digitale vingerafdrukken kunnen genereren, het effectief creëren van de informatie die nodig is om een ​​hele persoon te fabriceren - in ieder geval in bedrijfs- of overheidsrecords.

Machines blijven leren

Momenteel, er zitten genoeg potentiële fouten in deze technologieën om mensen de kans te geven digitale verzinsels te ontdekken. De Bach-componist van Google maakte enkele fouten die een expert kon ontdekken. Bijvoorbeeld, toen ik het probeerde, het programma stond me toe om evenwijdige kwinten in te voeren, een muziekinterval dat Bach ijverig vermeed. De app brak ook de muzikale regels van contrapunt door melodieën in de verkeerde toonsoort te harmoniseren. evenzo, Het tekstgenererende programma van OpenAI schreef af en toe zinnen als "branden onder water" die in hun context nergens op sloegen.

Terwijl ontwikkelaars aan hun creaties werken, deze fouten zullen zeldzamer worden. Effectief, AI-technologieën zullen evolueren en leren. De verbeterde prestaties kunnen veel sociale voordelen opleveren, waaronder betere gezondheidszorg, aangezien AI-programma's de medische praktijk helpen democratiseren.

Onderzoekers en bedrijven de vrijheid geven om te verkennen, om deze positieve resultaten van KI-systemen te verkrijgen, betekent het risico openen van het ontwikkelen van meer geavanceerde manieren om misleiding en andere sociale problemen te creëren. Ernstig beperken van AI-onderzoek zou die vooruitgang kunnen afremmen. Maar nuttige technologieën de ruimte geven om te groeien, kost niets - en het potentieel voor misbruik, om onnauwkeurige "Bach-achtige" muziek te maken of om miljoenen te misleiden, zal waarschijnlijk groeien op manieren waarop mensen nog niet kunnen anticiperen.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.