Wetenschap
Wat zou kunstmatige algemene intelligentie van de menselijke wereld maken? Krediet:Shutterstock/Nathapol Kongseang
Kunstmatige intelligentie kan schaken, autorijden en medische problemen diagnosticeren. Voorbeelden zijn AlphaGo van Google DeepMind, Tesla's zelfrijdende voertuigen, en IBM's Watson.
Dit type kunstmatige intelligentie wordt Artificial Narrow Intelligence (ANI) genoemd - niet-menselijke systemen die een specifieke taak kunnen uitvoeren. Dit type komen we dagelijks tegen, en het gebruik ervan groeit snel.
Maar hoewel er veel indrukwekkende mogelijkheden zijn gedemonstreerd, we beginnen ook problemen te zien. Het ergste geval betrof een zelfrijdende testauto die in maart een voetganger aanreed. De voetganger is overleden en het incident wordt nog onderzocht.
De volgende generatie AI
Met de volgende generatie AI zal de inzet vrijwel zeker veel hoger zijn.
Artificial General Intelligence (AGI) zal beschikken over geavanceerde rekenkracht en intelligentie op menselijk niveau. AGI-systemen kunnen leren, problemen oplossen, aanpassen en zelf verbeteren. Ze zullen zelfs taken uitvoeren die verder gaan dan waarvoor ze zijn ontworpen.
belangrijk, hun snelheid van verbetering zou exponentieel kunnen zijn omdat ze veel geavanceerder worden dan hun menselijke scheppers. De introductie van AGI zou snel kunnen leiden tot Artificial Super Intelligence (ASI).
Hoewel er nog geen volledig functionerende AGI-systemen bestaan, naar schatting zullen ze ergens tussen 2029 en het einde van de eeuw bij ons zijn.
Wat vrijwel zeker lijkt, is dat ze uiteindelijk zullen aankomen. Wanneer ze dat doen, er is een grote en natuurlijke bezorgdheid dat we ze niet kunnen beheersen.
De risico's van AGI
Het lijdt geen twijfel dat AGI-systemen de mensheid kunnen transformeren. Enkele van de krachtigere toepassingen zijn het genezen van ziekten, het oplossen van complexe mondiale uitdagingen zoals klimaatverandering en voedselzekerheid, en het initiëren van een wereldwijde technologische hausse.
Maar het niet implementeren van passende controles kan catastrofale gevolgen hebben.
Ondanks wat we in Hollywood-films zien, Bij existentiële bedreigingen is het niet waarschijnlijk dat er dodelijke robots betrokken zijn. Het probleem zal er niet een zijn van kwaadwilligheid, maar eerder een van intelligentie, schrijft MIT-professor Max Tegmark in zijn boek Life 3.0:Being Human in the Age of Artificial Intelligence uit 2017.
Het is hier dat de wetenschap van mens-machine-systemen - bekend als Human Factors and Ergonomics - naar voren zal komen. Risico's zullen voortkomen uit het feit dat superintelligente systemen efficiëntere manieren zullen identificeren om dingen te doen, bedenken hun eigen strategieën om doelen te bereiken, en zelfs hun eigen doelen te ontwikkelen.
Stel je deze voorbeelden voor:
Deze scenario's wekken het schrikbeeld op van ongelijksoortige AGI-systemen die met elkaar vechten, geen van alle nemen menselijke zorgen als hun centrale mandaat.
Er zijn verschillende dystopische toekomsten gevorderd, inclusief die waarin mensen uiteindelijk verouderd raken, met het daaropvolgende uitsterven van de mensheid.
Anderen hebben minder extreme maar nog steeds significante verstoringen doorgestuurd, inclusief kwaadwillig gebruik van AGI voor terroristische en cyberaanvallen, het wegnemen van de behoefte aan mensenwerk, en massabewaking, om er maar een paar te noemen.
Er is dus behoefte aan mensgericht onderzoek naar de veiligste manieren om AGI te ontwerpen en te beheren om risico's te minimaliseren en voordelen te maximaliseren.
Hoe AGI . te besturen
Het beheersen van AGI is niet zo eenvoudig als het simpelweg toepassen van dezelfde soorten controles die mensen meestal onder controle houden.
Veel controles op menselijk gedrag zijn afhankelijk van ons bewustzijn, onze emoties, en de toepassing van onze morele waarden. AGI's hebben geen van deze attributen nodig om ons schade te berokkenen. De huidige vormen van controle zijn niet voldoende.
Bediscussieerbaar, er zijn drie sets controles die onmiddellijk moeten worden ontwikkeld en getest:
Human Factors and Ergonomics biedt methoden die kunnen worden gebruikt om te identificeren, ontwerp en test dergelijke controles ruim voordat AGI-systemen arriveren.
Bijvoorbeeld, het is mogelijk om de controles in een bepaald systeem te modelleren, om het waarschijnlijke gedrag van AGI-systemen binnen deze controlestructuur te modelleren, en veiligheidsrisico's te identificeren.
Hierdoor kunnen we identificeren waar nieuwe controles nodig zijn, ontwerp ze, en vervolgens hermodelleren om te zien of de risico's daardoor worden weggenomen.
In aanvulling, onze modellen van cognitie en besluitvorming kunnen worden gebruikt om ervoor te zorgen dat AGI's zich gepast gedragen en humanistische waarden hebben.
Handel nu, niet later
Dit soort onderzoek is aan de gang, maar er is lang niet genoeg van en er zijn te weinig disciplines bij betrokken.
Zelfs de spraakmakende tech-ondernemer Elon Musk heeft gewaarschuwd voor de "existentiële crisis" waarmee de mensheid wordt geconfronteerd door geavanceerde AI en heeft gesproken over de noodzaak om AI te reguleren voordat het te laat is.
Het volgende decennium vertegenwoordigt een kritieke periode. Er is een kans om veilige en efficiënte AGI-systemen te creëren die verreikende voordelen kunnen hebben voor de samenleving en de mensheid.
Tegelijkertijd, een business-as-usual-benadering waarin we de snelle technologische vooruitgang inhalen, zou kunnen bijdragen aan het uitsterven van de mensheid. De bal ligt bij ons, maar het zal niet lang meer duren.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com