science >> Wetenschap >  >> Elektronica

Ethisch afgestemde AI bouwen

Krediet:CC0 Publiek Domein

Hoe meer AI-agenten worden ingezet in scenario's met mogelijk onverwachte situaties, hoe meer ze flexibel moeten zijn, aangepaste, en creatief in het bereiken van hun doelen. Dus, een zekere mate van vrijheid om het beste pad naar een specifiek doel te kiezen, is nodig om AI robuust en flexibel genoeg te maken om met succes in praktijkscenario's te worden ingezet.

Dit is met name het geval wanneer AI-systemen moeilijke problemen aanpakken waarvan de oplossing niet nauwkeurig kan worden gedefinieerd door een traditionele, op regels gebaseerde benadering, maar de datagestuurde en/of lerende benaderingen vereisen die steeds vaker in AI worden gebruikt. Inderdaad, datagestuurde AI-systemen, zoals die met behulp van machine learning, zijn zeer succesvol in termen van nauwkeurigheid en flexibiliteit, en ze kunnen erg "creatief" zijn bij het oplossen van een probleem, oplossingen vinden die mensen positief kunnen verrassen en hen innovatieve manieren leren om een ​​uitdaging op te lossen.

Echter, creativiteit en vrijheid zonder grenzen kunnen soms leiden tot ongewenste acties:het AI-systeem zou zijn doel kunnen bereiken op manieren die volgens de waarden en normen van de getroffen gemeenschap niet acceptabel worden geacht. Dus, er is een groeiende behoefte om te begrijpen hoe de acties van een AI-systeem kunnen worden beperkt door grenzen te stellen waarbinnen het systeem moet werken. Dit wordt meestal het "waarde-uitlijning"-probleem genoemd, aangezien dergelijke grenzen de waarden en principes moeten modelleren die vereist zijn voor het specifieke AI-toepassingsscenario.

Bij IBM Research, we hebben twee manieren bestudeerd en beoordeeld om AI-systemen af ​​te stemmen op ethische principes:

  • De eerste gebruikt hetzelfde formalisme om subjectieve voorkeuren (om servicepersonalisatie te bereiken) en ethische prioriteiten (om waardeafstemming te bereiken) te modelleren en te combineren. Een notie van afstand tussen voorkeuren en ethische prioriteiten wordt gebruikt om te beslissen of acties kunnen worden bepaald alleen door de voorkeuren of dat we aanvullende ethische prioriteiten moeten overwegen, wanneer de voorkeuren te veel afwijken van deze prioriteiten.
  • De tweede maakt gebruik van een versterkende leerbenadering (binnen de bandietenprobleemsetting) voor beloningsmaximalisatie en leert de ethische richtlijnen van positieve en negatieve voorbeelden. We hebben deze aanpak getest op filmaanbevelingen met ouderlijk toezicht, evenals de keuze van de medicijndosering met overwegingen van kwaliteit van leven.

Het document dat onze algemene aanpak beschrijft en de twee mogelijke manieren om het probleem van de waardeafstemming op te lossen, zal worden gepresenteerd op de komende AAAI 2019-conferentie en zal de AAAI 2019 Blue Sky Idea-prijs ontvangen. Het is hier te vinden.

Dit werk maakt deel uit van een langetermijninspanning om in samenwerking met MIT te begrijpen hoe ethische principes in AI-systemen kunnen worden ingebed. Hoewel het onderzoek dat is gedaan naar ethische prioriteiten en deze modelleert als deontologische beperkingen, het IBM-MIT-team verzamelt momenteel gegevens over menselijke voorkeuren om te modelleren hoe mensen volgen, en schakelen tussen, verschillende ethische theorieën (zoals utilitaire, deontologisch, en contractant), om vervolgens zowel ethische theorieën als schakelmechanismen te ontwikkelen, passend aangepast, in AI-systemen. Op deze manier, dergelijke systemen kunnen beter worden afgestemd op de manier waarop mensen redeneren en handelen naar ethiek bij het nemen van beslissingen, en dus beter uitgerust zijn om op natuurlijke en compacte wijze met mensen te communiceren in een augmented intelligence-benadering van AI.

Dit verhaal is opnieuw gepubliceerd met dank aan IBM Research. Lees hier het originele verhaal.