Wetenschap
Krediet:kunstmatige intelligentie-503593_1920/flickr
De hysterie over de toekomst van kunstmatige intelligentie (AI) is overal. Er lijkt geen gebrek te zijn aan sensationeel nieuws over hoe AI ziekten kan genezen, menselijke innovatie versnellen en de menselijke creativiteit verbeteren. Kijk maar naar de krantenkoppen, je zou kunnen denken dat we al in een toekomst leven waarin AI elk aspect van de samenleving heeft geïnfiltreerd.
Hoewel het onmiskenbaar is dat AI een schat aan veelbelovende kansen heeft geopend, het heeft ook geleid tot de opkomst van een mentaliteit die het best kan worden omschreven als "AI-solutionisme". Dit is de filosofie die, voldoende gegevens gegeven, machine learning-algoritmen kunnen alle problemen van de mensheid oplossen.
Maar er is een groot probleem met dit idee. In plaats van AI-vooruitgang te ondersteunen, het brengt in feite de waarde van machine-intelligentie in gevaar door belangrijke AI-veiligheidsprincipes te negeren en onrealistische verwachtingen te stellen over wat AI echt kan doen voor de mensheid.
AI-solutionisme
In slechts enkele jaren, AI-solutionisme heeft zijn weg gevonden van de mond van de technologie-evangelisten in Silicon Valley naar de hoofden van overheidsfunctionarissen en beleidsmakers over de hele wereld. De slinger is overgeslagen van het dystopische idee dat AI de mensheid zal vernietigen naar het utopische geloof dat onze algoritmische redder hier is.
We zien nu dat regeringen steun beloven aan nationale AI-initiatieven en strijden in een technologische en retorische wapenwedloop om de snelgroeiende machine learning-sector te domineren. Bijvoorbeeld, de Britse regering heeft gezworen £ 300 miljoen te investeren in AI-onderzoek om zichzelf als leider in het veld te positioneren. Verliefd op het transformatieve potentieel van AI, de Franse president Emmanuel Macron beloofde van Frankrijk een wereldwijde AI-hub te maken. In de tussentijd, de Chinese overheid vergroot haar AI-capaciteiten met een nationaal plan om tegen 2030 een Chinese AI-industrie ter waarde van 150 miljard dollar te creëren. AI-solutionisme neemt toe en het is hier om te blijven.
Neurale netwerken – makkelijker gezegd dan gedaan
Terwijl veel politieke manifesten de transformerende effecten van de dreigende "AI-revolutie" aanprijzen, ze hebben de neiging om de complexiteit van het inzetten van geavanceerde machine learning-systemen in de echte wereld te onderschatten.
Een van de meest veelbelovende varianten van AI-technologieën zijn neurale netwerken. Deze vorm van machine learning is losjes gemodelleerd naar de neuronale structuur van het menselijk brein, maar op een veel kleinere schaal. Veel op AI gebaseerde producten gebruiken neurale netwerken om patronen en regels af te leiden uit grote hoeveelheden gegevens. Maar wat veel politici niet begrijpen, is dat het simpelweg toevoegen van een neuraal netwerk aan een probleem niet automatisch betekent dat je een oplossing vindt. evenzo, het toevoegen van een neuraal netwerk aan een democratie betekent niet dat het onmiddellijk meer inclusief zal zijn, eerlijk of gepersonaliseerd.
De databureaucratie uitdagen
AI-systemen hebben veel data nodig om te functioneren, maar de publieke sector beschikt doorgaans niet over de juiste data-infrastructuur om geavanceerde machine learning te ondersteunen. De meeste gegevens blijven opgeslagen in offline archieven. De weinige gedigitaliseerde gegevensbronnen die er zijn, zijn vaak begraven in bureaucratie. Vaak, gegevens zijn verspreid over verschillende overheidsdiensten die elk speciale machtigingen nodig hebben om toegang te krijgen. Bovenal, de publieke sector mist doorgaans het menselijk talent met de juiste technologische capaciteiten om de voordelen van machine-intelligentie ten volle te benutten.
Om deze redenen, de sensatiezucht over AI heeft veel critici aangetrokken. Stuart Russel, een professor in computerwetenschappen aan Berkeley, pleit al lang voor een meer realistische benadering die zich richt op eenvoudige alledaagse toepassingen van AI in plaats van de hypothetische overname door superintelligente robots. evenzo, MIT's hoogleraar robotica, Rodney Brooks, schrijft dat "bijna alle innovaties in robotica en AI ver gaan, ver, langer om echt breed ingezet te worden dan mensen in het veld en buiten het veld zich voorstellen".
Een van de vele moeilijkheden bij het inzetten van machine learning-systemen is dat AI extreem vatbaar is voor vijandige aanvallen. Dit betekent dat een kwaadwillende AI zich kan richten op een andere AI om deze te dwingen verkeerde voorspellingen te doen of zich op een bepaalde manier te gedragen. Veel onderzoekers hebben gewaarschuwd voor het uitrollen van AI zonder passende beveiligingsnormen en verdedigingsmechanismen. Nog altijd, AI-beveiliging blijft een vaak over het hoofd gezien onderwerp.
Machine learning is geen magie
Als we de voordelen willen plukken en de potentiële schade van AI willen minimaliseren, we moeten gaan nadenken over hoe machine learning zinvol kan worden toegepast op specifieke overheidsgebieden, bedrijfsleven en samenleving. Dit betekent dat we een discussie moeten voeren over AI-ethiek en het wantrouwen dat veel mensen hebben ten aanzien van machine learning.
Het belangrijkste is, we moeten ons bewust zijn van de beperkingen van AI en waar de mens nog het voortouw moet nemen. In plaats van een onrealistisch beeld te schetsen van de kracht van AI, het is belangrijk om een stap terug te doen en de feitelijke technologische mogelijkheden van AI te scheiden van magie.
Voor een lange tijd, Facebook geloofde dat problemen zoals de verspreiding van verkeerde informatie en haatzaaiende uitlatingen algoritmisch konden worden geïdentificeerd en gestopt. Maar onder recente druk van wetgevers, het bedrijf beloofde snel om zijn algoritmen te vervangen door een leger van meer dan 10, 000 menselijke recensenten.
De medische professie heeft ook erkend dat AI niet kan worden beschouwd als een oplossing voor alle problemen. Het IBM Watson for Oncology-programma was een stukje AI dat bedoeld was om artsen te helpen kanker te behandelen. Hoewel het is ontwikkeld om de beste aanbevelingen te geven, menselijke experts vonden het moeilijk om de machine te vertrouwen. Als resultaat, het AI-programma werd verlaten in de meeste ziekenhuizen waar het werd uitgeprobeerd.
Soortgelijke problemen deden zich voor in het juridische domein toen algoritmen werden gebruikt in rechtbanken in de VS om criminelen te veroordelen. Een algoritme berekende risicobeoordelingsscores en adviseerde rechters over de strafmaat. Het systeem bleek structurele rassendiscriminatie te versterken en werd later verlaten.
Deze voorbeelden laten zien dat er niet voor alles een AI-oplossing is. AI alleen gebruiken omwille van AI is misschien niet altijd productief of nuttig. Niet elk probleem kan het beste worden aangepakt door er machine-intelligentie op toe te passen. Dit is de cruciale les voor iedereen die investeringen in nationale AI-programma's wil stimuleren:alle oplossingen brengen kosten met zich mee en niet alles wat geautomatiseerd kan worden zou dat moeten zijn.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com