science >> Wetenschap >  >> Elektronica

Risico verminderen in op AI en op machine learning gebaseerde medische technologie

Krediet:CC0 Publiek Domein

Kunstmatige intelligentie en machine learning (AI/ML) transformeren de zorgsector in toenemende mate. Van het opsporen van kwaadaardige tumoren tot het lezen van CT-scans en mammogrammen, Op AI/ML gebaseerde technologie is sneller en nauwkeuriger dan traditionele apparaten, of zelfs de beste artsen. Maar naast de voordelen komen ook nieuwe risico's en uitdagingen op het gebied van regelgeving.

In hun laatste artikel, "Algoritmen over regulering van de geneeskunde" onlangs gepubliceerd in Wetenschap , Boris Babic, INSEAD Universitair Docent Besliskunde; Theodoros Evgeniou, INSEAD Hoogleraar Besliskunde en Technologie Management; Sara Gerke, Research Fellow aan het Petrie-Flom Center for Health Law Policy van de Harvard Law School, Biotechnologie, en bio-ethiek; en ik. Glenn Cohen, Professor aan de Harvard Law School en faculteitsdirecteur van het Petrie-Flom Center, kijk naar de nieuwe uitdagingen waarmee regelgevers worden geconfronteerd terwijl ze de onbekende paden van AI/ML bewandelen.

Ze denken na over de volgende vragen:Met welke nieuwe risico's worden we geconfronteerd als AI/ML-apparaten worden ontwikkeld en geïmplementeerd? Hoe moeten ze worden beheerd? Op welke factoren moeten regelgevers zich concentreren om maximale waarde te garanderen met minimaal risico?

Tot nu toe hebben regelgevende instanties zoals de Amerikaanse Food and Drug Administration (FDA) medische op AI/ML gebaseerde software goedgekeurd met "vergrendelde algoritmen, " dat is, algoritmen die elke keer hetzelfde resultaat opleveren en niet veranderen bij gebruik. Echter, een belangrijke kracht en potentieel voordeel van de meeste AI/ML-technologie is afgeleid van het vermogen om te evolueren naarmate het model leert als reactie op nieuwe gegevens. Deze "adaptieve algoritmen, " mogelijk gemaakt door AI/ML, creëren wat in wezen een lerend gezondheidszorgsysteem is, waarin de grenzen tussen onderzoek en praktijk poreus zijn.

Gezien de aanzienlijke waarde van dit adaptieve systeem, een fundamentele vraag voor regelgevers vandaag is of autorisatie moet worden beperkt tot de versie van de technologie die is ingediend en beoordeeld als veilig en effectief, of dat ze het op de markt brengen van een algoritme toestaan ​​waarbij meer waarde kan worden gevonden in het vermogen van de technologie om te leren en zich aan te passen aan nieuwe omstandigheden.

De auteurs gaan dieper in op de risico's die aan dit updateprobleem zijn verbonden, rekening houdend met de specifieke gebieden die aandacht behoeven en de manieren waarop de uitdagingen kunnen worden aangepakt.

De sleutel tot sterke regelgeving, ze zeggen, is om prioriteit te geven aan continue risicobewaking.

"Om de risico's te beheersen, regelgevers moeten zich in het bijzonder richten op continue monitoring en risicobeoordeling, en minder over het plannen van toekomstige algoritmewijzigingen, ", zeggen de auteurs.

Naarmate de regelgevers vooruitgaan, de auteurs bevelen aan dat ze nieuwe processen ontwikkelen om continu te monitoren, identificeren, en de bijbehorende risico's te beheren. Ze suggereren belangrijke elementen die hierbij kunnen helpen, en die in de toekomst zelf kunnen worden geautomatiseerd met behulp van AI/ML, mogelijk met AI/ML-systemen die elkaar monitoren.

Hoewel de paper grotendeels put uit de ervaring van de FDA met het reguleren van biomedische technologie, de lessen en voorbeelden hebben een brede relevantie aangezien andere landen nadenken over hoe zij hun bijbehorende regelgevingsarchitectuur vormgeven. Ze zijn ook belangrijk en relevant voor elk bedrijf dat ingebedde AI/ML-producten en -diensten ontwikkelt, van auto, naar verzekering, financiën, energie, en steeds meer anderen. Leidinggevenden in alle organisaties kunnen veel leren over het beheren van nieuwe AI/ML-risico's door de manier waarop regelgevers er tegenwoordig over denken.

"Ons doel is om de risico's te benadrukken die kunnen voortvloeien uit onverwachte veranderingen in de manier waarop medische AI/ML-systemen reageren of zich aanpassen aan hun omgeving, " zeggen de auteurs, waarschuwen dat, "Subtiel, vaak niet-herkende parametrische updates of nieuwe soorten gegevens kunnen grote en kostbare fouten veroorzaken."