Wetenschap
Een miljoen processen zijn toegewezen aan de pixels van een 1000 × 1000 pixels zwart-wit schets van Alan Turing. De pixels worden in- en uitgeschakeld in overeenstemming met de momentane binaire waarden van de processen. Krediet:Natuurcommunicatie
"In-memory computing" of "computationeel geheugen" is een opkomend concept dat de fysieke eigenschappen van geheugenapparaten gebruikt voor zowel het opslaan als het verwerken van informatie. Dit is in tegenspraak met de huidige systemen en apparaten van von Neumann, zoals standaard desktopcomputers, laptops en zelfs mobiele telefoons, die gegevens heen en weer pendelen tussen het geheugen en de rekeneenheid, waardoor ze langzamer en minder energiezuinig worden.
Vandaag, IBM Research kondigt aan dat zijn wetenschappers hebben aangetoond dat een niet-gecontroleerd algoritme voor machinaal leren, draait op een miljoen Phase Change Memory (PCM) apparaten, met succes tijdelijke correlaties gevonden in onbekende gegevensstromen. In vergelijking met state-of-the-art klassieke computers, deze prototypetechnologie zal naar verwachting 200x verbeteringen opleveren in zowel snelheid als energie-efficiëntie, waardoor het zeer geschikt is voor het mogelijk maken van ultradichte, laag vermogen, en massaal parallelle computersystemen voor toepassingen in AI.
De onderzoekers gebruikten PCM-apparaten gemaakt van een germanium-antimoontelluridelegering, die is gestapeld en ingeklemd tussen twee elektroden. Wanneer de wetenschappers een kleine elektrische stroom op het materiaal toepassen, ze verwarmen het, die zijn toestand verandert van amorf (met een ongeordende atomaire rangschikking) naar kristallijn (met een geordende atomaire configuratie). De IBM-onderzoekers hebben de kristallisatiedynamiek gebruikt om ter plekke berekeningen uit te voeren.
"Dit is een belangrijke stap voorwaarts in ons onderzoek naar de fysica van AI, die nieuwe hardwarematerialen verkent, apparaten en architecturen, " zegt Dr. Evangelos Eleftheriou, een IBM Fellow en co-auteur van het papier. "Terwijl de CMOS-schaalwetten stuk gaan vanwege technologische beperkingen, een radicale afwijking van de dichotomie processor-geheugen is nodig om de beperkingen van de hedendaagse computers te omzeilen. Gezien de eenvoud, hoge snelheid en lage energie van onze in-memory computing-aanpak, het is opmerkelijk dat onze resultaten zo vergelijkbaar zijn met onze klassieke benchmarkbenadering op een von Neumann-computer."
De details worden uitgelegd in hun artikel dat vandaag in het peer-review tijdschrift verschijnt Natuurcommunicatie . Om de technologie te demonstreren, de auteurs kozen twee op tijd gebaseerde voorbeelden en vergeleken hun resultaten met traditionele machine learning-methoden zoals k-means clustering:
"Het geheugen is tot nu toe gezien als een plaats waar we alleen informatie opslaan. Maar in dit werk, we laten op afdoende wijze zien hoe we de fysica van deze geheugenapparaten kunnen benutten om ook een nogal hoogstaand computationeel primitief uit te voeren. Het resultaat van de berekening wordt ook opgeslagen in de geheugenapparaten, en in die zin is het concept losjes geïnspireerd door hoe het brein rekent", zei Dr. Abu Sebastian, verkennend geheugen en cognitieve technologieën wetenschapper, IBM Research en hoofdauteur van het artikel.
Een schematische illustratie van het in-memory computing-algoritme. Krediet:IBM Research
Wetenschap © https://nl.scienceaq.com