Wetenschap
Krediet:CC0 Publiek Domein
Een van de belangrijkste uitdagingen van computerontwerp is hoe chips en bedrading op de meest ergonomische manier kunnen worden verpakt, macht behouden, snelheid en energie-efficiëntie.
Het recept bevat duizenden componenten die feilloos met elkaar moeten communiceren, allemaal op een stuk onroerend goed ter grootte van een vingernagel.
Het proces staat bekend als chip floor planning, vergelijkbaar met wat binnenhuisarchitecten doen bij het opmaken van plannen om een kamer aan te kleden. Met digitale schakelingen, echter, in plaats van een plattegrond met één verdieping te gebruiken, ontwerpers moeten rekening houden met geïntegreerde lay-outs binnen meerdere verdiepingen. Zoals een technische publicatie er onlangs naar verwees, chipvloerplanning is 3D Tetris.
Het proces is tijdrovend. En met voortdurende verbetering in chipcomponenten, moeizaam berekende definitieve ontwerpen verouderen snel. Chips zijn over het algemeen ontworpen om tussen de twee en vijf jaar mee te gaan, maar er is een constante druk om de tijd tussen upgrades te verkorten.
Google-onderzoekers hebben zojuist een enorme sprong voorwaarts gemaakt in het ontwerp van de vloer. In een recente aankondiging, senior Google-onderzoeksingenieurs Anna Goldie en Azalia Mirhoseini zeiden dat ze een algoritme hebben ontworpen dat "leert" hoe een optimale plaatsing van circuits kan worden bereikt. Het kan dit doen in een fractie van de tijd die momenteel nodig is voor dergelijk ontwerpen, potentieel miljoenen mogelijkheden analyseren in plaats van duizenden, wat momenteel de norm is. Daarbij, het kan chips leveren die sneller profiteren van de nieuwste ontwikkelingen, goedkoper en kleiner.
Goldie en Mirhoseini pasten het concept van versterkend leren toe op het nieuwe algoritme. Het systeem genereert "beloningen" en "straffen" voor elk voorgesteld ontwerp totdat het algoritme de beste benaderingen beter herkent.
Het idee van een dergelijke versterking heeft wortels in de psychologie die bekend staat als het behaviorisme. zijn oprichter, John Watson, beroemde suggereerde alle dieren, inclusief mensen, waren in feite complexe machines die 'leerden' door te reageren op positieve en negatieve reacties. Hoe verbaasd zou Watson zijn om te horen dat principes die hij voor het eerst verwoordde in 1913 meer dan een eeuw later ook worden toegepast op 'intelligente' machines.
Google-onderzoekers zeiden dat na uitgebreid testen, ze vonden hun nieuwe benadering van kunstmatige intelligente assemblagelijnproductie superieur aan ontwerpen gemaakt door menselijke ingenieurs.
"Wij geloven dat het AI zelf is die de middelen zal bieden om de chipontwerpcyclus te verkorten, het creëren van een symbiotische relatie tussen hardware en AI, met de ene brandstofvooruitgang in de andere, " zeiden de ontwerpers in een verklaring gepubliceerd op arxiv.org, een opslagplaats van wetenschappelijk onderzoek beheerd door Cornell University.
Computercircuits hebben een lange weg afgelegd sinds de eerste "volledig elektronische rekenmachine" - ENIAC - werd onthuld in 1945. Jam vol met 18, 000 vacuümbuizen, de voorlopers van geïntegreerde schakelingen en computerchips, en kilometers aan bedrading, de enorme machine van $ 6 miljoen strekte zich uit zo breed als drie forensenbussen, woog 30 ton en nam een hele kamer in beslag van het Princeton University-lab waar het werd gemaakt.
De iPhones van vandaag hebben chips ter grootte van een pinknagel van 1, 300 keer krachtiger, 40 miljoen keer kleiner en 1/17, 000 de kosten van de ENIAC.
Het nieuwe algoritme van Google kan ook helpen de voortzetting van de wet van Moore te verzekeren, waarin staat dat het aantal transistors verpakt in microchips elke één of twee jaar verdubbelt. In 1970, Intel's 4004-chip bevatte 2, 250 transistoren. Vandaag, de AMD Epyc Rome herbergt 39,5 miljard transistors.
Dat laat genoeg mogelijkheden over voor het nieuwe algoritme voor kamerontwerp van Google.
© 2020 Wetenschap X Netwerk
Wetenschap © https://nl.scienceaq.com