Wetenschap
De onderzoekers voerden een reeks experimenten uit waarbij menselijke piloten werd gevraagd video's te bekijken van AI-systemen die een vliegtuig bestuurden. Vervolgens werd de piloten gevraagd te raden wat het AI-systeem aan het doen was en waarom. Uit de resultaten bleek dat de piloten vaak niet in staat waren de bedoelingen van het AI-systeem correct te raden.
De onderzoekers denken dat dit komt doordat AI-systemen op een heel andere manier beslissingen nemen dan mensen. Mensen hebben de neiging beslissingen te nemen op basis van hun eigen ervaring en kennis, terwijl AI-systemen beslissingen nemen op basis van gegevens en algoritmen. Dit verschil in besluitvormingsprocessen kan het voor mensen moeilijk maken om te begrijpen wat AI-systemen doen.
De onderzoekers zeggen dat hun bevindingen implicaties hebben voor de toekomst van de luchtvaart. Naarmate AI-systemen geavanceerder worden, zullen ze waarschijnlijk een grotere rol gaan spelen bij het vliegen met vliegtuigen. Het is echter belangrijk om ervoor te zorgen dat mensen de beslissingen van AI-systemen kunnen begrijpen om ongelukken te voorkomen.
De bevindingen van het onderzoek suggereren dat er mogelijk nieuwe trainingsmethoden nodig zijn voor piloten die met AI-systemen gaan werken. Deze trainingsmethoden moeten piloten helpen begrijpen hoe AI-systemen beslissingen nemen en hoe ze de informatie die AI-systemen bieden, moeten interpreteren.
Daarnaast zeggen de onderzoekers dat het belangrijk is om nieuwe manieren te ontwikkelen waarop AI-systemen met mensen kunnen communiceren. Dit zal helpen ervoor te zorgen dat mensen de beslissingen van AI-systemen kunnen begrijpen en weloverwogen beslissingen kunnen nemen over de manier waarop ze ermee omgaan.
Wetenschap © https://nl.scienceaq.com