Science >> Wetenschap >  >> Astronomie

AI kan de oorzaak zijn van ons onvermogen om contact te maken met buitenaardse beschavingen

Er zijn een verbijsterend aantal planeten. Credit:NASA/James Webb-telescoop

Kunstmatige intelligentie (AI) heeft de afgelopen jaren een verbazingwekkende vooruitgang geboekt. Sommige wetenschappers kijken nu naar de ontwikkeling van kunstmatige superintelligentie (ASI) – een vorm van AI die niet alleen de menselijke intelligentie zou overtreffen, maar ook niet gebonden zou zijn aan de leersnelheid van mensen.



Maar wat als deze mijlpaal niet alleen een opmerkelijke prestatie is? Wat als het ook een formidabel knelpunt vormt in de ontwikkeling van alle beschavingen, een knelpunt dat zo uitdagend is dat het hun voortbestaan ​​op de lange termijn in de weg staat?

Dit idee vormt de kern van een onderzoeksartikel dat ik onlangs heb gepubliceerd in Acta Astronautica . Zou AI het ‘grote filter’ van het universum kunnen zijn – een drempel die zo moeilijk te overwinnen is dat deze verhindert dat het meeste leven zich ontwikkelt tot ruimtereizende beschavingen?

Dit is een concept dat zou kunnen verklaren waarom de zoektocht naar buitenaardse intelligentie (SETI) de handtekeningen van geavanceerde technische beschavingen elders in de Melkweg nog moet ontdekken.

De grote filterhypothese is uiteindelijk een voorgestelde oplossing voor de Fermi-paradox. Dit roept de vraag op waarom we, in een universum dat groot en oud genoeg is om miljarden potentieel bewoonbare planeten te huisvesten, geen enkel teken van buitenaardse beschavingen hebben ontdekt. De hypothese suggereert dat er onoverkomelijke hindernissen zijn in de evolutionaire tijdlijn van beschavingen die hen ervan weerhouden zich te ontwikkelen tot ruimtevarende entiteiten.

Ik geloof dat de opkomst van ASI zo'n filter zou kunnen zijn. De snelle vooruitgang van AI, die mogelijk tot KSI kan leiden, kan een cruciale fase in de ontwikkeling van een beschaving kruisen:de overgang van een soort met één planeet naar een soort met meerdere planeten.

Dit is waar veel beschavingen zouden kunnen wankelen, waarbij AI veel sneller vooruitgang boekt dan ons vermogen om het te controleren of ons zonnestelsel duurzaam te verkennen en te bevolken.

De uitdaging met AI, en met name ASI, ligt in het autonome, zichzelf versterkende en verbeterende karakter ervan. Het beschikt over het potentieel om zijn eigen capaciteiten te verbeteren met een snelheid die onze eigen evolutionaire tijdlijnen zonder AI overtreft.

De kans dat er iets ernstig misgaat is enorm, wat leidt tot de ondergang van zowel biologische als AI-beschavingen voordat ze ooit de kans krijgen om multiplanetair te worden. Als landen bijvoorbeeld steeds meer vertrouwen op en macht afstaan ​​aan autonome AI-systemen die met elkaar concurreren, zouden militaire capaciteiten kunnen worden gebruikt om op ongekende schaal te doden en te vernietigen. Dit zou mogelijk kunnen leiden tot de vernietiging van onze hele beschaving, inclusief de AI-systemen zelf.

In dit scenario schat ik dat de typische levensduur van een technologische beschaving minder dan 100 jaar zou kunnen zijn. Dat is ongeveer de tijd tussen het kunnen ontvangen en uitzenden van signalen tussen de sterren (1960) en de geschatte opkomst van ASI (2040) op aarde. Dit is alarmerend kort als je het afzet tegen de kosmische tijdschaal van miljarden jaren.

Deze schatting, gecombineerd met optimistische versies van de Drake-vergelijking – die probeert het aantal actieve, communicatieve buitenaardse beschavingen in de Melkweg te schatten – suggereert dat er op elk gegeven moment slechts een handvol intelligente beschavingen bestaat. Bovendien kunnen ze, net als wij, door hun relatief bescheiden technologische activiteiten behoorlijk lastig te detecteren zijn.

Wake-upcall

Dit onderzoek is niet alleen maar een waarschuwend verhaal over mogelijke onheil. Het dient als een wake-up call voor de mensheid om robuuste regelgevingskaders op te zetten om de ontwikkeling van AI, inclusief militaire systemen, te sturen.

Dit gaat niet alleen over het voorkomen van het kwaadaardige gebruik van AI op aarde; het gaat er ook om ervoor te zorgen dat de evolutie van AI aansluit bij het voortbestaan ​​van onze soort op de lange termijn. Het suggereert dat we meer middelen moeten inzetten om zo snel mogelijk een multiplanetaire samenleving te worden – een doel dat sinds de roerige dagen van het Apollo-project sluimerde, maar onlangs opnieuw is aangewakkerd door de vooruitgang van particuliere bedrijven.

Zoals de historicus Yuval Noah Harari opmerkte, heeft niets in de geschiedenis ons voorbereid op de impact van de introductie van niet-bewuste, superintelligente entiteiten op onze planeet. Onlangs hebben de implicaties van autonome AI-besluitvorming geleid tot oproepen van prominente leiders in het veld voor een moratorium op de ontwikkeling van AI, totdat een verantwoorde vorm van controle en regulering kan worden geïntroduceerd.

Maar zelfs als elk land ermee zou instemmen zich aan strikte regels en regelgeving te houden, zullen malafide organisaties moeilijk in toom te houden zijn.

De integratie van autonome AI in militaire defensiesystemen moet een gebied van bijzondere zorg zijn. Er zijn al aanwijzingen dat mensen vrijwillig aanzienlijke macht zullen afstaan ​​aan steeds capabeler wordende systemen, omdat zij nuttige taken veel sneller en effectiever kunnen uitvoeren zonder menselijke tussenkomst. Regeringen zijn daarom terughoudend met het reguleren op dit gebied, gezien de strategische voordelen die AI biedt, zoals onlangs op verwoestende wijze is aangetoond in Gaza.

Dit betekent dat we al gevaarlijk dicht bij een afgrond komen waar autonome wapens buiten ethische grenzen opereren en het internationale recht omzeilen. In een dergelijke wereld zou het overgeven van macht aan AI-systemen om een ​​tactisch voordeel te behalen onbedoeld een reeks snel escalerende, zeer destructieve gebeurtenissen kunnen veroorzaken. In een oogwenk zou de collectieve intelligentie van onze planeet kunnen worden uitgewist.

De mensheid bevindt zich op een cruciaal punt in haar technologische traject. Onze acties zouden nu kunnen bepalen of we een blijvende interstellaire beschaving worden, of bezwijken voor de uitdagingen die onze eigen creaties met zich meebrengen.

Het gebruik van SETI als lens waardoor we onze toekomstige ontwikkeling kunnen onderzoeken, voegt een nieuwe dimensie toe aan de discussie over de toekomst van AI. Het is aan ons allemaal om ervoor te zorgen dat wanneer we naar de sterren reiken, we dit niet als een waarschuwend verhaal voor andere beschavingen doen, maar als een baken van hoop:een soort die naast AI heeft leren gedijen.

Meer informatie: Michael A. Garrett, Is kunstmatige intelligentie het grote filter dat geavanceerde technische beschavingen zeldzaam maakt in het universum?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052

Journaalinformatie: Acta Astronautica

Aangeboden door The Conversation

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.