Wetenschap
Krediet:CC0 Publiek Domein
Hoe meer AI-agenten worden ingezet in scenario's met mogelijk onverwachte situaties, hoe meer ze flexibel moeten zijn, aangepaste, en creatief in het bereiken van hun doelen. Dus, een zekere mate van vrijheid om het beste pad naar een specifiek doel te kiezen, is nodig om AI robuust en flexibel genoeg te maken om met succes in praktijkscenario's te worden ingezet.
Dit is met name het geval wanneer AI-systemen moeilijke problemen aanpakken waarvan de oplossing niet nauwkeurig kan worden gedefinieerd door een traditionele, op regels gebaseerde benadering, maar de datagestuurde en/of lerende benaderingen vereisen die steeds vaker in AI worden gebruikt. Inderdaad, datagestuurde AI-systemen, zoals die met behulp van machine learning, zijn zeer succesvol in termen van nauwkeurigheid en flexibiliteit, en ze kunnen erg "creatief" zijn bij het oplossen van een probleem, oplossingen vinden die mensen positief kunnen verrassen en hen innovatieve manieren leren om een uitdaging op te lossen.
Echter, creativiteit en vrijheid zonder grenzen kunnen soms leiden tot ongewenste acties:het AI-systeem zou zijn doel kunnen bereiken op manieren die volgens de waarden en normen van de getroffen gemeenschap niet acceptabel worden geacht. Dus, er is een groeiende behoefte om te begrijpen hoe de acties van een AI-systeem kunnen worden beperkt door grenzen te stellen waarbinnen het systeem moet werken. Dit wordt meestal het "waarde-uitlijning"-probleem genoemd, aangezien dergelijke grenzen de waarden en principes moeten modelleren die vereist zijn voor het specifieke AI-toepassingsscenario.
Bij IBM Research, we hebben twee manieren bestudeerd en beoordeeld om AI-systemen af te stemmen op ethische principes:
Het document dat onze algemene aanpak beschrijft en de twee mogelijke manieren om het probleem van de waardeafstemming op te lossen, zal worden gepresenteerd op de komende AAAI 2019-conferentie en zal de AAAI 2019 Blue Sky Idea-prijs ontvangen. Het is hier te vinden.
Dit werk maakt deel uit van een langetermijninspanning om in samenwerking met MIT te begrijpen hoe ethische principes in AI-systemen kunnen worden ingebed. Hoewel het onderzoek dat is gedaan naar ethische prioriteiten en deze modelleert als deontologische beperkingen, het IBM-MIT-team verzamelt momenteel gegevens over menselijke voorkeuren om te modelleren hoe mensen volgen, en schakelen tussen, verschillende ethische theorieën (zoals utilitaire, deontologisch, en contractant), om vervolgens zowel ethische theorieën als schakelmechanismen te ontwikkelen, passend aangepast, in AI-systemen. Op deze manier, dergelijke systemen kunnen beter worden afgestemd op de manier waarop mensen redeneren en handelen naar ethiek bij het nemen van beslissingen, en dus beter uitgerust zijn om op natuurlijke en compacte wijze met mensen te communiceren in een augmented intelligence-benadering van AI.
Dit verhaal is opnieuw gepubliceerd met dank aan IBM Research. Lees hier het originele verhaal.
Wetenschap © https://nl.scienceaq.com