Wetenschap
Krediet:Ray Oranges
Om burgers te beschermen bij rampen, moeten vaak ingrijpende beslissingen worden genomen. Alle hulp is welkom, ook van AI.
Bosbranden lopen steeds meer uit de hand zoals blijkt uit recente gebeurtenissen in Californië en Australië. Toch blijven brandweerlieden onvermoeibaar strijden tegen de vlammen - en tegenwoordig hebben ze meer tot hun beschikking dan alleen water en gecontroleerde brandwonden. Digitalisering maakt al lang deel uit van hun arsenaal in de vorm van geo-informatiesystemen, webcams en drones. Dit zijn belangrijke hulpmiddelen geworden bij het voorspellen en beheersen van bosbranden, maar de enorme hoeveelheden gegevens die ze produceren, drijven de menselijke expertise snel tot het uiterste. "AI is altijd handig als je te maken hebt met massa's data, " zegt Benjamin Scharte, die aan het hoofd staat van het Risk and Resilience Research Team van het ETH Center for Security Studies (CSS). Onlangs, hij en zijn collega Kevin Kohler werkten samen om het gebruik van AI in civiele bescherming te analyseren.
"Het is best spannend om algoritmen te kunnen gebruiken om voorspellingen te doen, ", zegt Kohler. Welke richting gaat het vuurfront op? Waar moeten we de volgende gecontroleerde brandwonden plaatsen? Door alle beschikbare gegevens te analyseren, Op AI gebaseerde modelleringstools kunnen helpen bij het beantwoorden van deze vragen. Deze gegevens kunnen weersvoorspellingen, droogteduur, windrichting - en zelfs de potentiële hoeveelheid brandstof die beschikbaar is voor het vuur. De resulterende voorspellingen kunnen rampenbestrijding efficiënter maken. In het gunstigste geval, ze kunnen zelfs fungeren als een vorm van preventie.
Civiele bescherming reageert bijzonder goed op het gebruik van AI omdat, veel te vaak, het is een kwestie van leven en dood - en elke minuut telt. Van experts wordt vaak verwacht dat ze snelle beslissingen nemen met verstrekkende gevolgen, dus ze zijn dankbaar voor alle hulp die deze beslissingen kan onderbouwen met meer robuuste gegevens. uiteindelijk, echter, de kwaliteit van een beslissing hangt altijd af van de kwaliteit van de gegevens. "Hoe slim mijn algoritme ook is, het heeft weinig zin in een noodgeval als ik het niet kan voorzien van de juiste gegevens voor de ramp, ’ Waarschuwt Kohler.
Zelfs gegevens van de hoogste kwaliteit kunnen de jarenlange ervaring van experts nooit volledig vervangen. dus de vraag of een mens of een machine de uiteindelijke beslissing moet nemen, is zeer complex. Als geheel genomen, het algoritme kan mogelijk een lager economisch verlies of minder slachtoffers opleveren dan zijn menselijke tegenhanger, maar het kan ook beslissingen nemen in individuele gevallen die wij onaanvaardbaar vinden. "Het is mij duidelijk dat wij, als samenleving, zal blijven worstelen met het idee om beslissingen over te laten aan autonome machines, ' zegt Scharte.
Een zaak van vertrouwen
Dus op welk punt zouden we bereid zijn om een machine zijn eigen beslissingen te laten nemen? Scharte en Kohler zijn het erover eens dat dit afhangt van de context:"Burgerbescherming is soms een kwestie van leven of dood. Mensen zouden een rol moeten spelen bij het nemen van die beslissingen - het is niet de plaats voor machines om volledig autonome beslissingen te nemen."
Een cruciale factor is hoeveel vertrouwen mensen hebben in het algoritme. Vertrouwen maakt de weg vrij voor acceptatie, en beide worden verbeterd wanneer we duidelijk kunnen volgen wat een algoritme doet. Bijvoorbeeld, wanneer artsen de beslissingslogica van een algoritme begrijpen, ze zullen er eerder op vertrouwen en het in hun werk opnemen. Talloze onderzoeken hebben dit bevestigd, maar Scharte laat een waarschuwing horen:"Transparantie en uitlegbaarheid verhogen niet altijd de veiligheid." Er zijn zelfs gevallen waarin transparantie een nadeel kan zijn, inclusief door de mens veroorzaakte gevaren zoals cybercriminaliteit en terrorisme. "Als je precies onthult hoe een algoritme verdachte gedragspatronen detecteert, dan hebben tegenstanders een grotere kans om het doelbewust te slim af te zijn, ’ waarschuwt Scharte.
Wetenschap © https://nl.scienceaq.com