science >> Wetenschap >  >> Elektronica

Wat houden de komende 20 jaar in voor kunstmatige intelligentie?

Yolanda Gil, een onderzoeksdirecteur bij het USC Viterbi Information Sciences Institute (ISI), co-auteur van een nieuwe 20-jarige routekaart voor kunstmatige intelligentie. Krediet:USC Viterbi.

Yolanda Gil, voorzitter van de Vereniging voor de Bevordering van Kunstmatige Intelligentie (AAAI), bespreekt wat er nodig is om AI vooruit te helpen zonder de veiligheid achteruit te laten gaan.

Het is het jaar 2031. Een uitbraak van een zeer besmettelijk door muggen overgebracht virus in de VS heeft zich snel verspreid naar grote steden over de hele wereld. Het is alle hens aan dek om te voorkomen dat de ziekte zich verspreidt - en dat omvat de inzet van kunstmatige intelligentie (AI)-systemen, die online nieuws en sociale media afspeuren naar relevante data en patronen.

Werken met deze resultaten, en gegevens verzameld uit talloze ziekenhuizen over de hele wereld, wetenschappers ontdekken een interessant verband met een zeldzame neurologische aandoening en er wordt een behandeling ontwikkeld. Binnen enkele dagen, de ziekte is onder controle. Het is niet moeilijk om je dit scenario voor te stellen, maar of toekomstige AI-systemen competent genoeg zullen zijn om het werk te doen, hangt grotendeels af van hoe we AI-ontwikkeling vandaag aanpakken.

Dat is volgens een nieuwe 20-jarige Artificial Intelligence Roadmap, co-auteur van Yolanda Gil, een USC computerwetenschappelijk onderzoeksprofessor en onderzoeksdirecteur bij het USC Viterbi Information Sciences Institute (ISI), met computerwetenschappelijke experts van universiteiten in de VS.

Onlangs gepubliceerd door het Computing Community Consortium, gefinancierd door de National Science Foundation, de roadmap is gericht op het identificeren van uitdagingen en kansen in het AI-landschap, en om toekomstige beslissingen te informeren, beleid en investeringen op dit gebied.

Als voorzitter van de Association for the Advancement of Artificial Intelligence (AAAI), Gil was co-voorzitter van de roadmap met Bart Selman, een professor computerwetenschappen aan de Cornell University.

We spraken met Gil over wat AI vandaag betekent, wat er nodig is om in de toekomst intelligentere en competentere AI te bouwen, en hoe ervoor te zorgen dat AI veilig werkt als het mensen nadert in zijn intelligentie.

Het interview is voor de duidelijkheid ingekort en bewerkt.

Waarom heb je de AI Roadmap-inspanningen ondernomen met het Computing Community Consortium?

We wilden echt benadrukken wat er nodig is om AI-systemen op de lange termijn intelligenter te maken. Dus, denk je aan conversatie-interfaces zoals Siri en Alexa, zelfs vandaag nog, ze hebben nog steeds veel beperkingen. Wat is er nodig om hen AI-systemen bewuster te maken van onze wereld? Bijvoorbeeld, voor hen om te begrijpen "Wat is een moeder?" en "Waarom is het belangrijk om me te herinneren aan de verjaardag van mijn moeder?" Dat soort vragen stellen we in het verslag.

We wilden begrijpen welk onderzoek nodig is voor onze AI-systemen:de gespreksinterfaces, de zelfrijdende auto's, de robots - om extra mogelijkheden te hebben. Als we niet investeren in onderzoeksgebieden voor de langere termijn, er is misschien geen volgende generatie systemen die zal begrijpen waar onze wereld over gaat, die beter zullen leren over hun taken, en dat zal competenter zijn.

Wat betekent de term kunstmatige intelligentie anno 2019 eigenlijk voor jou?

AI gaat echt over het bestuderen en creëren van mogelijkheden die we doorgaans associëren met intelligent gedrag. Deze hebben meestal te maken met de geest, intelligentie en denken, in tegenstelling tot meer kleinschalig reactief gedrag.

Meestal denken we over intelligentie in termen van capaciteiten die te maken hebben met denken, redenering, aan het leren; in termen van het beheren van informatie en complexe taken die de wereld om ons heen beïnvloeden. Dingen zoals, kun je leren als je veel hebt meegemaakt? Of voorbeelden? Kun je leren van het observeren van iemand die een taak uitvoert? Kun je leren van je eigen fouten? Kun je leren van uitgelegd te worden hoe iets werkt?

Leren is slechts één aspect van AI. Er zijn ook andere aspecten die met redeneren te maken hebben, plannen en organiseren. En dan andere delen van AI die te maken hebben met natuurlijke taal en communicatie, en andere gerelateerd aan robotica.

Dus, er zijn veel verschillende intelligente gedragingen die we onder de paraplu van AI opnemen. Aangezien we veel AI-systemen om ons heen hebben, een belangrijke vraag is:hoe brengen we ze naar de volgende generatie capaciteiten?

Proberen AI-onderzoekers echt het menselijk denken na te bootsen? Of is machine-intelligentie iets heel anders?

We zullen, veel onderzoek kijkt naar menselijk gedrag als inspiratie voor AI, of als doelwit, door te proberen menselijke intelligentie en menselijk gedrag te modelleren. Maar dat is slechts één sector van de gemeenschap.

Er zijn andere onderzoekers, zoals ik, die kijken naar menselijk gedrag en dit gebruiken als motivatie voor het maken of engineeren van machines die "denken, " ongeacht hoe het menselijk geheugen werkt, of wat cognitieve experimenten ons vertellen over het menselijk denken, of menselijke biologie of de hersenen. Dus, we kiezen meer voor een technische benadering.

En soms zie je AI die beide raakt, dus je hebt echt door mensen geïnspireerde cognitieve systemen die intelligente taken benaderen zoals mensen ze zouden doen. Bijvoorbeeld, sommige robots proberen menselijk te lijken, maar veel andere robots zullen gewoon welke taak uitvoeren en weet je, het maakt niet uit hoe ze eruit zien. Op beide terreinen vordert het onderzoek.

Wat vind je bijzonder indrukwekkend aan het huidige AI-onderzoek?

Het zien van het succes dat deze systemen hebben in belangrijke toepassingen zoals geneeskunde en andere wetenschapsgebieden, vind ik erg opwindend. AI-systemen worden al tientallen jaren in de geneeskunde gebruikt, maar ze waren erg complex en tijdrovend om te bouwen, en ze zouden alleen op bepaalde gebieden acceptabele prestaties leveren. Ik denk dat we nu AI-systemen nieuwe gebieden van de geneeskunde zien binnendringen. Bijvoorbeeld, AI-systemen zijn erg goed in het identificeren van tumoren of bepaalde soorten cellen op basis van pathologische beelden.

Welke grote uitdagingen moeten volgens jou worden overwonnen om de naald in AI te verplaatsen?

Het rapport belicht veel uitdagingen die zijn georganiseerd in drie grote onderzoeksgebieden. Een grote uitdaging is het integreren van inlichtingencapaciteiten. Direct, bijvoorbeeld, je hebt robots die stofzuigen, je hebt AI-systemen die praten, maar het is erg moeilijk om die afzonderlijke mogelijkheden te integreren om samen te werken.

De tweede is communicatie:hoe verbindt AI zich met mensen en brengt informatie over. Vandaag, we praten met AI-systemen, maar er zijn geen belangen in het gesprek, dus misverstanden worden geaccepteerd, en een productief resultaat is gewenst, maar niet cruciaal. Maar wat als die dingen er echt toe deden?

De derde is zelfbewust leren, dus bijvoorbeeld wat zou er nodig zijn voor een AI om te denken:"Ik zou niet moeten gebruiken wat ik heb geleerd omdat ik er nog niet genoeg voorbeelden van heb gezien" of "gezien de weinige voorbeelden die ik heb gezien, Ik zou ze op nieuwe manieren moeten analyseren om er meer informatie uit te halen." We hebben nog geen systemen die dat kunnen.

Deze vragen vormen een zeer ambitieuze en opwindende onderzoeksagenda voor AI in de komende 20 jaar.

Wat moet er veranderen om AI-onderzoek grotere stappen te laten maken?

De bevindingen uit het rapport geven aan dat, om deze onderzoeksagenda na te streven, we moeten veel van de huidige universitaire infrastructuur voor AI uitbreiden. We moeten naar een tijdperk waarin er meer substantiële academische samenwerkingen zijn op het gebied van AI-problemen, en meer substantiële middelen zoals hardware, gegevensbronnen en open softwaretoolkits.

Als inspiratie, we wijzen op inspanningen van miljarden dollars die een aanzienlijk verschil hebben gemaakt in de wereld:het menselijk genoomproject, die het veld van genomics echt voortstuwde; of het LIGO-project, wat leidde tot de experimentele waarneming van zwaartekrachtsgolven. Wat we zeggen is, tenzij we op dat investeringsniveau zitten, het zal erg lang duren om het volgende niveau van AI-mogelijkheden te bereiken.

In de Verenigde Staten, we hebben veel fantastische onderzoekers en de beste universiteiten. Ik denk dat we individuele onderzoeksprojecten moeten blijven steunen zoals we dat in het verleden hebben gedaan, maar we moeten een belangrijke nieuwe laag van veel grotere inspanningen toevoegen. Daarom beveelt het rapport de oprichting aan van multi-decadale, multi-universitaire onderzoekscentra die zich bezighouden met grote vragen en grote organisaties die zich met specifieke problemen bezighouden.

Waar ben je het meest enthousiast over in de komende 20 jaar in AI?

Ik denk dat de toepassing van AI voor wetenschappelijk onderzoek en ontdekking de potentie heeft om de wereld echt te veranderen, en dit is de focus van mijn onderzoek. Er zijn veel uitdagingen op het gebied van het weergeven van wetenschappelijke kennis op een machinaal leesbare manier, om AI-systemen te integreren als onderdeel van het onderzoeksproces. Dus, wetenschappers machtigen met betere tools is een heel spannend gebied voor mij. Mijn droom is dat over 20 jaar, een wetenschapper komt 's ochtends het kantoor binnen en hun AI-systeem zal hen vertellen over interessante resultaten waaraan het 's nachts heeft gewerkt. We zullen sneller ontdekkingen kunnen doen, van het vinden van genezingen voor ziekten tot een beter beheer van natuurlijke hulpbronnen, zoals water.

De weg die voor ons ligt ziet er spannend uit, op zijn zachtst gezegd, maar hoe zorgen we ervoor dat mensen niet buitengesloten worden naarmate AI vooruitgaat?

We moeten ervoor zorgen dat iedereen eerlijke kansen krijgt om toegang te krijgen tot deze technologie. We moeten AI naar het kleuterschoolniveau duwen, kinderen de kans geven om te begrijpen hoe deze technologie hun leven kan beïnvloeden, helemaal tot aan de universiteit.

In het rapport, we raden carrières aan voor AI-ingenieurs, niet alleen op doctoraatsniveau, maar op alle niveaus, inclusief bachelordiploma's en zelfs middelbare schooldiploma's in AI. We hebben technici nodig om robots te repareren, om gegevens voor AI-systemen voor te bereiden, en om AI-tools in nieuwe toepassingsgebieden te gebruiken.

Zijn mensen terecht in hun zorgen over AI?

Ik denk dat we ons ervan bewust moeten zijn dat wanneer AI in het echte leven in bepaalde sectoren wordt ingezet, het creëert nieuwe uitdagingen voor veiligheid, vertrouwen, en ethiek. Mijn eerste zorg zijn de mensen die AI-systemen inzetten en bedienen, in plaats van het AI-systeem zelf - daarom zou ik graag meer betrokkenheid zien bij beleid en ethisch gebruik van AI.

Vandaag, veel AI-implementaties gaan niet door een fase van veiligheidstechniek en ethisch nadenken over dat specifieke gebruik van de technologie. Dus, Ik denk dat we daar veel meer in moeten investeren. In het rapport, we raden het creëren van nieuwe graden en loopbaantrajecten expliciet aan over AI-ethiek en veiligheid in AI-engineering.

Het is ook belangrijk op te merken dat deze problemen niet alleen het probleem van de AI-onderzoekers zijn. AI-onderzoek heeft zoveel vertakkingen en zoveel connecties met elke discipline. AI-onderzoekers zijn oprecht enthousiast om met andere gemeenschappen in contact te komen. We hopen dat het rapport zal helpen om deze dialoog tussen disciplines en gemeenschappen te bevorderen, bij het USC en daarbuiten.

Wat is volgens jou de grootste mythe over AI?

Ik denk dat mensen intelligentie zeer genereus toeschrijven aan AI. We communiceren met een AI-systeem, en we beginnen ons voor te stellen dat het ons echt begrijpt, alleen omdat er "hallo" stond. Maar in werkelijkheid, het begreep er echt niets van. AI-systemen worden vaak gezien als capabeler dan ze in werkelijkheid zijn. Dus, wanneer u een AI-systeem gebruikt of ermee communiceert, kritisch na te denken over waar het op dit moment echt toe in staat is.