Wetenschap
Krediet:Liu zishan/Shutterstock.com
Kunstmatige intelligentie, of AI, maakt een periode van enorme expansie door. Dit is niet omdat computers een mensachtig bewustzijn hebben bereikt, maar vanwege de vooruitgang in machine learning, waar computers uit enorme databases leren hoe ze nieuwe gegevens moeten classificeren. Op het scherpst van de snede zijn de neurale netwerken die hebben geleerd menselijke gezichten te herkennen of Go te spelen.
Het herkennen van patronen in data kan ook als voorspellend hulpmiddel worden gebruikt. AI wordt toegepast op echocardiogrammen om hartaandoeningen te voorspellen, naar werkplekgegevens om te voorspellen of werknemers gaan vertrekken, en naar feeds op sociale media om tekenen van beginnende depressie of zelfmoordneigingen te detecteren. Elke levenswandel waar er overvloedige gegevens zijn - en dat betekent vrijwel elk aspect van het leven - wordt door de overheid of het bedrijfsleven in de gaten gehouden voor de toepassing van AI.
Een activiteit die momenteel ver van AI lijkt te staan, is humanitarisme; de organisatie van hulp ter plaatse aan medemensen in crisis als gevolg van oorlog, hongersnood of andere rampen. Maar ook humanitaire organisaties zullen AI gebruiken. Waarom? Omdat het in staat lijkt om vragen te beantwoorden die centraal staan in het humanisme - vragen zoals wie we moeten redden, en hoe u op grote schaal effectief kunt zijn. AI resoneert ook sterk met bestaande manieren van humanitair denken en doen, in het bijzonder de beginselen van neutraliteit en universaliteit. Humanitarisme (zo wordt aangenomen) kiest geen partij, is onbevooroordeeld in de toepassing ervan en biedt hulp ongeacht de bijzonderheden van een lokale situatie.
Door technologieën zoals AI te implementeren, humanitaire organisaties kunnen de menselijke capaciteit vergroten om honger in ontwikkelingslanden te bestrijden. "We hebben het over meer dingen doen en ze beter doen dan we zouden kunnen door alleen menselijke capaciteit alleen." - @Robert_Opp. https://t.co/PGWfCxuFMh
— WFP-innovatie (@WFPInnovation) 9 april 2018
De manier waarop machine learning big data verbruikt en voorspellingen produceert, suggereert zeker dat het zowel de enorme omvang van de humanitaire uitdaging kan begrijpen als een datagestuurd antwoord kan bieden. Maar de aard van machine learning-operaties betekent dat ze sommige van de problemen van humanisme daadwerkelijk zullen verdiepen, en hun eigen nieuwe te introduceren.
De wiskunde
Het onderzoeken van deze vragen vereist een korte omweg naar de concrete operaties van machine learning, als we de verkeerde informatie en mystificatie die aan de term AI zijn gekoppeld, willen omzeilen. Omdat er geen intelligentie is in kunstmatige intelligentie. Het leert ook niet echt ook al is de technische naam machine learning.
AI is simpelweg wiskundige minimalisatie. Weet je nog hoe je op school een rechte lijn zou passen op een reeks punten, de lijn kiezen die de verschillen in het algemeen minimaliseert? Machine learning doet hetzelfde voor complexe patronen, invoerkenmerken aanpassen aan bekende resultaten door een kostenfunctie te minimaliseren. Het resultaat wordt een model dat kan worden toegepast op nieuwe gegevens om de uitkomst te voorspellen.
Alle gegevens kunnen door algoritmen voor machine learning worden gepusht. Alles wat kan worden teruggebracht tot getallen en getagd met een uitkomst, kan worden gebruikt om een model te maken. De vergelijkingen weten niet of de cijfers Amazon-verkopen of slachtoffers van aardbevingen vertegenwoordigen.
Deze banaliteit van machine learning is ook de kracht ervan. Het is een gegeneraliseerde numerieke compressie van vragen die er toe doen - er zijn geen begrippen in de berekening; de patronen duiden op correlatie, geen oorzakelijk verband. De enige inlichtingen hebben dezelfde betekenis als militaire inlichtingen; dat is, gericht op. De operaties zijn die van het minimaliseren van de kostenfunctie om het resultaat te optimaliseren.
En de modellen die door machine learning worden geproduceerd, kunnen moeilijk om te zetten zijn in menselijk redeneren. Waarom koos het deze persoon als een slecht voorwaardelijke kans? Wat stelt dat patroon voor? We kunnen het niet per se zeggen. Er is dus een ondoorzichtigheid in het hart van de methoden. Het vergroot de menselijke keuzevrijheid niet, maar vervormt het.
Logica van de machtigen
Machine learning neemt niet zomaar beslissingen zonder opgaaf van redenen, het verandert ons hele idee van de rede. Dat is, het verandert wat bekend is en wat als echt wordt opgevat.
Bijvoorbeeld, in sommige rechtsgebieden in de VS, als een algoritme een voorspelling produceert dat een gearresteerde persoon waarschijnlijk opnieuw in de fout gaat, die persoon wordt borgtocht geweigerd. Het vinden van patronen in data wordt een calculatieve autoriteit die substantiële gevolgen heeft.
machinaal leren, dan, is niet alleen een methode, maar een machinale filosofie waarbij abstracte berekening wordt begrepen om toegang te krijgen tot een waarheid die wordt gezien als superieur aan de zingeving van de gewone waarneming. En als zodanig, de berekeningen van data science kunnen uiteindelijk meer tellen dan getuigenissen.
Natuurlijk, het humanitaire veld is niet naïef over de gevaren van dataficatie. Het is algemeen bekend dat machine learning discriminatie zou kunnen propageren omdat het leert van sociale gegevens die zelf vaak bevooroordeeld zijn. En dus zullen humanitaire instellingen natuurlijk voorzichtiger zijn dan de meeste om alle mogelijke waarborgen te bieden tegen bevooroordeelde trainingsgegevens.
Maar het probleem gaat verder dan expliciete vooroordelen. Het diepere effect van machine learning is om de categorieën te produceren waarmee we over onszelf en anderen zullen denken. Machine learning zorgt ook voor een verschuiving naar preëmptie:het afschermen van futures op basis van correlatie in plaats van causaliteit. Dit construeert risico op dezelfde manier als Twitter trending topics bepaalt, middelen toewijzen en achterhouden op een manier die algoritmisch de verdienste en de onverdiende afbakent.
We zouden ons misschien vooral zorgen moeten maken over deze tendensen, want ondanks de beste bedoelingen, de praktijk van humanitarisme vertoont vaak neokoloniale tendensen. Door neutraliteit en universaliteit te claimen, algoritmen bevestigen de superioriteit van abstracte kennis die elders is gegenereerd. Door de logica van de machtigen te verankeren om te bepalen wat er met mensen aan de periferie gebeurt, humanitaire AI wordt een neokoloniaal mechanisme dat optreedt in plaats van directe controle.
Stand van zaken, machine learning en zogenaamde AI zullen geen enkele redding zijn voor het humanisme. In plaats daarvan, het zal de toch al diepe neokoloniale en neoliberale dynamiek van humanitaire instellingen verdiepen door middel van algoritmische vervorming.
Maar geen enkel apparaat is een gesloten systeem; de impact van machine learning is contingent en kan worden veranderd. Dit is net zo belangrijk voor humanitaire AI als voor AI in het algemeen – voor, als een alternatieve techniek niet wordt gemobiliseerd door benaderingen zoals volksraden, de volgende generatie humanitaire schandalen zal worden aangedreven door AI.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com