science >> Wetenschap >  >> Elektronica

Hoe AI helpt bij het voorspellen en voorkomen van zelfmoorden

Een proefproject uit 2018 tussen de Public Health Agency of Canada en Advanced Symbolics zal posts op sociale media gebruiken als hulpmiddel om regionale zelfmoordcijfers te voorspellen. Krediet:Shutterstock

Zelfmoord is een groeiend probleem voor de volksgezondheid. In Canada, 4, Elk jaar worden er duizend levens geëist door zelfmoord — dat zijn tien levens per dag.

Voor elk van deze zelfmoorddoden, er zijn vijf mensen opgenomen in het ziekenhuis na zelfverwonding, 25 tot 30 zelfmoordpogingen en zeven tot 10 mensen getroffen door elke tragedie, volgens analyse door de Public Health Agency of Canada.

Zelfmoordcijfers zijn het hoogst onder bepaalde groepen — zoals inheemse volkeren, immigranten en vluchtelingen, gevangenen en lesbiennes, homo, biseksueel, transgender, intersekse (LGBTI) gemeenschap — en zijn in opkomst.

De gevolgen van zelfmoord zijn breed voelbaar. De Toronto Transit Commission (TTC) rapporteerde onlangs een toename van het aantal zelfmoorden tijdens het vervoer eind 2017, met alleen al in december acht pogingen, en een overeenkomstige stijging van het percentage stressverlof door TTC-medewerkers, vanwege de tol die dit op het personeel eiste.

Kan kunstmatige intelligentie (AI), of intelligentie aangetoond door machines, misschien helpen om deze sterfgevallen te voorkomen?

Als onderzoekers in de psychiatrie, in het Canadian Biomarker Integration Network for Depression, we verzamelen klinische en biologische gegevens tijdens behandelinterventies voor mensen met een ernstige depressie. We onderzoeken vroege aanwijzingen voor veranderingen in gedrag en gemoedstoestanden met behulp van mobiele gezondheidstechnologieën.

Een van onze doelen is het identificeren van vroege voorspellers van terugval, en verhoogd risico op suïcidaal gedrag.

Hier bespreken we andere veelbelovende toepassingen van AI voor zelfmoordpreventie, en de aandacht vestigen op de barrières op dit gebied.

AI voorspelt zelfmoordcijfers

Begin 2018, de Public Health Agency of Canada heeft een proefproject aangekondigd met Advanced Symbolics, een in Ottawa gevestigd AI-bedrijf dat de Brexit met succes voorspelde, Het presidentschap van Trump en de resultaten van de Canadese verkiezingen van 2015.

Het project onderzoekt en voorspelt regionale zelfmoordcijfers door patronen te onderzoeken in Canadese posts op sociale media, waaronder zelfmoordgerelateerde inhoud, hoewel de gebruikersidentiteit niet wordt verzameld.

Het programma zal geen gevallen met een hoog risico isoleren of op individueel niveau ingrijpen. In plaats daarvan, bevindingen zullen worden gebruikt om de planning van de geestelijke gezondheidszorg te informeren.

Facebook waarschuwt hulpdiensten

In 2011, Facebook heeft een handmatig zelfmoordrapportagesysteem ontwikkeld waar gebruikers screenshots van zelfmoordinhoud kunnen uploaden ter beoordeling.

in 2015, het systeem stond gebruikers toe om inhoud te "vlaggen", wat Facebook-medewerkers ertoe zou aanzetten om het bericht te beoordelen en te reageren met ondersteunende bronnen.

Door het succes van de tool, Facebook is begonnen met het uitbreiden van hun AI-mogelijkheden om automatisch zelfmoordgerelateerde inhoud te detecteren, en waarschuw lokale hulpdiensten. Er zijn ook meer taalopties, en een uitbreiding naar Instagram.

Chatbots geven therapie voor depressie

AI wordt sinds de jaren negentig in de gezondheidszorg gebruikt om ziektedetectie en verschillende gezondheidsindicatoren te verbeteren.

Binnen de geestelijke gezondheidszorg, AI heeft de snelheid en nauwkeurigheid van diagnose verbeterd, en toegepaste "beslissingsbomen" om de behandelingsselectie te begeleiden.

Een nieuwe benadering van "therapie" omvat conversatiebots (of chatbots), computerprogramma's die zijn ontworpen om mensachtige gesprekken te simuleren met behulp van spraak- of tekstreacties.

Chatbots kunnen psychologische interventies leveren voor depressie en angst op basis van cognitieve gedragstherapie (CGT). Omdat chatbots uniek reageren op gepresenteerde dialogen, ze kunnen interventies afstemmen op de emotionele toestand en klinische behoeften van een patiënt. Deze modellen worden als vrij gebruiksvriendelijk beschouwd, en de door de gebruiker aangepaste reacties van de chatbot zelf zijn goed beoordeeld.

Soortgelijke technologie wordt toegevoegd aan smartphones om stemassistenten, zoals de Siri van de iPhone, om geestelijke gezondheidsproblemen van gebruikers te herkennen en erop te reageren met de juiste informatie en ondersteunende middelen. Echter, deze technologie wordt niet als betrouwbaar beschouwd en bevindt zich nog in de beginfase. Andere smartphone-applicaties gebruiken zelfs games om het onderwijs in de geestelijke gezondheidszorg te verbeteren.

AI-technologie is ook geïntegreerd in suïcidebeheer om de patiëntenzorg op andere gebieden te verbeteren. Het is aangetoond dat AI-beoordelingsinstrumenten het zelfmoordrisico op korte termijn voorspellen en behandelingsaanbevelingen doen die net zo goed zijn als clinici. De tools staan ​​ook goed aangeschreven bij patiënten.

AI-modellen voorspellen individueel risico

De huidige evaluatie en het beheer van het zelfmoordrisico is nog steeds zeer subjectief. Om de resultaten te verbeteren, er zijn meer objectieve AI-strategieën nodig. Veelbelovende toepassingen zijn onder meer het voorspellen van zelfmoordrisico's en klinisch management.

Zelfmoord wordt beïnvloed door een verscheidenheid aan psychosociale, biologisch, milieu, economische en culturele factoren. AI kan worden gebruikt om de associatie tussen deze factoren en zelfmoorduitkomsten te onderzoeken.

AI kan ook het gecombineerde effect van meerdere factoren op zelfmoord modelleren, en gebruik deze modellen om individueel risico te voorspellen.

Als voorbeeld, onderzoekers van de Vanderbilt University hebben onlangs een AI-model ontworpen dat het zelfmoordrisico voorspelde, het gebruik van elektronische medische dossiers, met een nauwkeurigheid van 84 tot 92 procent binnen een week na een zelfmoordgebeurtenis en 80 tot 86 procent binnen twee jaar.

Voorzichtig vooruit gaan

Naarmate het gebied van zelfmoordpreventie met behulp van kunstmatige intelligentie vordert, er zijn verschillende potentiële belemmeringen die moeten worden aangepakt:

  1. Privacy:beschermende wetgeving moet worden uitgebreid met risico's die verband houden met AI, specifiek de collectie, opslag, overdracht en gebruik van vertrouwelijke gezondheidsinformatie.
  2. Nauwkeurigheid:AI-nauwkeurigheid bij het correct bepalen van de zelfmoordintentie moet worden bevestigd, specifiek met betrekking tot systeembias of fouten, voordat u een persoon als hoog (versus laag) risico bestempelt.
  3. Veiligheid:het is essentieel ervoor te zorgen dat AI-programma's adequaat kunnen reageren op suïcidale gebruikers, om hun emotionele toestand niet te verslechteren of zelfmoordplanning per ongeluk te vergemakkelijken.
  4. Verantwoordelijkheid:Er zijn responsprotocollen nodig voor het correct afhandelen van gevallen met een hoog risico die worden gesignaleerd door AI-technologie, en wat te doen als AI-risicobeoordelingen afwijken van de klinische mening.
  5. Gebrek aan begrip:er is een kenniskloof bij de belangrijkste gebruikers over hoe AI-technologie past in zelfmoordpreventie. Om dit aan te pakken is meer voorlichting over dit onderwerp nodig.

Algemeen, AI-technologie is een blijvertje in veel aspecten van de gezondheidszorg, inclusief zelfmoordscreening en interventielevering.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.