Wetenschap
Is dit gezicht slechts een verzameling computerbits? Krediet:Michal Bednarek/Shutterstock.com
Wanneer kunstmatige-intelligentiesystemen creatief beginnen te worden, ze kunnen geweldige dingen creëren - en enge dingen. Nemen, bijvoorbeeld, een AI-programma waarmee internetgebruikers muziek kunnen componeren samen met een virtuele Johann Sebastian Bach door noten in te voeren in een programma dat Bach-achtige harmonieën genereert die bij hen passen.
Gerund door Google, de app kreeg veel lof omdat het baanbrekend en leuk was om mee te spelen. Het trok ook kritiek, en uitte bezorgdheid over de gevaren van AI.
Mijn onderzoek naar hoe opkomende technologieën het leven van mensen beïnvloeden, heeft me geleerd dat de problemen verder gaan dan de weliswaar grote bezorgdheid over de vraag of algoritmen echt muziek of kunst in het algemeen kunnen creëren. Sommige klachten leken klein, maar waren echt niet, zoals observaties dat de AI van Google de basisregels van muziekcompositie overtrad.
In feite, pogingen om computers het gedrag van echte mensen te laten nabootsen, kunnen verwarrend en mogelijk schadelijk zijn.
Imitatietechnologieën
Het programma van Google analyseerde de noten in 306 van Bachs muziekwerken, het vinden van relaties tussen de melodie en de noten die voor de harmonie zorgden. Omdat Bach strikte compositieregels volgde, het programma leerde in feite die regels, zodat het ze kon toepassen wanneer gebruikers hun eigen notities gaven.
De Bach-app zelf is nieuw, maar de onderliggende technologie is dat niet. Algoritmen die zijn getraind om patronen te herkennen en probabilistische beslissingen te nemen, bestaan al heel lang. Sommige van deze algoritmen zijn zo complex dat mensen niet altijd begrijpen hoe ze beslissingen nemen of tot een bepaald resultaat leiden.
AI-systemen zijn niet perfect - veel van hen vertrouwen op gegevens die niet representatief zijn voor de hele bevolking, of die worden beïnvloed door menselijke vooroordelen. Het is niet helemaal duidelijk wie wettelijk verantwoordelijk is als een AI-systeem een fout maakt of een probleem veroorzaakt.
Nutsvoorzieningen, Hoewel, kunstmatige-intelligentietechnologieën worden geavanceerd genoeg om de schrijf- of spreekstijl van individuen te kunnen benaderen, en zelfs gezichtsuitdrukkingen. Dit is niet altijd slecht:een vrij eenvoudige AI gaf Stephen Hawking de mogelijkheid om efficiënter met anderen te communiceren door te voorspellen welke woorden hij het meest zou gebruiken.
Complexere programma's die menselijke stemmen nabootsen, helpen mensen met een handicap, maar kunnen ook worden gebruikt om luisteraars te misleiden. Bijvoorbeeld, de makers van Lyrebird, een stem nabootsend programma, hebben een gesimuleerd gesprek vrijgegeven tussen Barack Obama, Donald Trump en Hillary Clinton. Het klinkt misschien echt, maar die uitwisseling is nooit gebeurd.
Van goed naar slecht
In februari 2019, non-profitorganisatie OpenAI heeft een programma gemaakt dat tekst genereert die vrijwel niet te onderscheiden is van tekst die door mensen is geschreven. Het kan een toespraak "schrijven" in de stijl van John F. Kennedy, J.R.R. Tolkien in "The Lord of the Rings" of een student die een schoolopdracht schrijft over de Amerikaanse burgeroorlog.
De tekst die door de software van OpenAI wordt gegenereerd, is zo geloofwaardig dat het bedrijf ervoor heeft gekozen het programma zelf niet uit te brengen.
Vergelijkbare technologieën kunnen foto's en video's simuleren. Begin 2018, bijvoorbeeld, acteur en filmmaker Jordan Peele maakte een video waarin de voormalige Amerikaanse president Barack Obama dingen leek te zeggen die Obama nooit heeft gezegd om het publiek te waarschuwen voor de gevaren van deze technologieën.
Begin 2019, een nep-naaktfoto van de Amerikaanse vertegenwoordiger Alexandria Ocasio-Cortez circuleerde online. Gefabriceerde video's, vaak "deepfakes" genoemd, " zullen naar verwachting in toenemende mate worden gebruikt in verkiezingscampagnes.
Leden van het Congres zijn deze kwestie begonnen te onderzoeken in de aanloop naar de verkiezingen van 2020. Het Amerikaanse ministerie van Defensie leert het publiek hoe ze gemanipuleerde video's en audio kunnen herkennen. Nieuwsorganisaties zoals Reuters beginnen journalisten op te leiden om deepfakes te herkennen.
Maar, volgens mij, een nog grotere zorg blijft:gebruikers kunnen mogelijk niet snel genoeg leren om nep-inhoud te onderscheiden naarmate AI-technologie geavanceerder wordt. Bijvoorbeeld, nu het publiek zich bewust begint te worden van deepfakes, AI wordt al gebruikt voor nog meer geavanceerde vormen van bedrog. Er zijn nu programma's die valse gezichten en valse digitale vingerafdrukken kunnen genereren, het effectief creëren van de informatie die nodig is om een hele persoon te fabriceren - in ieder geval in bedrijfs- of overheidsrecords.
Machines blijven leren
Momenteel, er zitten genoeg potentiële fouten in deze technologieën om mensen de kans te geven digitale verzinsels te ontdekken. De Bach-componist van Google maakte enkele fouten die een expert kon ontdekken. Bijvoorbeeld, toen ik het probeerde, het programma stond me toe om evenwijdige kwinten in te voeren, een muziekinterval dat Bach ijverig vermeed. De app brak ook de muzikale regels van contrapunt door melodieën in de verkeerde toonsoort te harmoniseren. evenzo, Het tekstgenererende programma van OpenAI schreef af en toe zinnen als "branden onder water" die in hun context nergens op sloegen.
Terwijl ontwikkelaars aan hun creaties werken, deze fouten zullen zeldzamer worden. Effectief, AI-technologieën zullen evolueren en leren. De verbeterde prestaties kunnen veel sociale voordelen opleveren, waaronder betere gezondheidszorg, aangezien AI-programma's de medische praktijk helpen democratiseren.
Onderzoekers en bedrijven de vrijheid geven om te verkennen, om deze positieve resultaten van KI-systemen te verkrijgen, betekent het risico openen van het ontwikkelen van meer geavanceerde manieren om misleiding en andere sociale problemen te creëren. Ernstig beperken van AI-onderzoek zou die vooruitgang kunnen afremmen. Maar nuttige technologieën de ruimte geven om te groeien, kost niets - en het potentieel voor misbruik, om onnauwkeurige "Bach-achtige" muziek te maken of om miljoenen te misleiden, zal waarschijnlijk groeien op manieren waarop mensen nog niet kunnen anticiperen.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Op fosfor gebaseerde composieten als anodematerialen voor kalium-ionbatterijen
Nieuwe, op chips gebaseerde tool voor genexpressie analyseert RNA snel en nauwkeurig
Hoe de mate van polymerisatie te berekenen
Zout zet een snelle stap voordat het uit het water valt
Hoe maak je een vijf procent oplossing met zout
Matrix kan zorgen voor vitale kopertoevoer
Om de CO2-uitstoot te verminderen, kijk naar lokaal vervoer en huisvesting
Pacific Northwest zet zich schrap voor recordbrekende hittegolf
Geen belasting op CO2-uitstoot in nieuwe Chinese milieuwet
VK publiceert plannen om het vervoer tegen het midden van de eeuw koolstofarm te maken
Hoe wordt wiskunde gebruikt in civiele techniek?
Een civiel-ingenieur gebruikt bijna elke vorm van wiskunde op een bepaald moment om haar werk te doen. Algebra wordt dagelijks gebruikt en veel technici zullen af en toe te maken krijgen met differ
Zware asval van Filippijnse vulkaan stopt automobilisten
Uit analyse van sportanalyse blijkt dat gedeeld succes in het verleden onder teamleden de kans op toekomstige overwinningen vergroot
Oekraïense luchtvaartmaatschappij crasht weer een uitdaging voor Boeing
Ontdekking van poreuze vloeistof leidt tot nieuw spin-outbedrijf
NASA's Volharding Mars rover-missie eert Navajo-taal
De frontlinie van milieugeweld
Identificatie van dierensporen in Pennsylvania
Wetenschap © https://nl.scienceaq.com