Wetenschap
Krediet:CC0 Publiek Domein
Tech-watchers kregen deze week een oor vol indrukwekkend AI-versnellerwerk bij Intel, namelijk onthullingen op het Hot Chips 2019-evenement, waar Intel details presenteerde van zijn Nervana neurale netwerkprocessors, (1) NNP-T voor training en (2) NNP-I voor gevolgtrekking.
Laten we eerst het gevolgtrekkingswerk (Spring Hill) opnieuw bekijken, en NNP-1, ontwikkeld in zijn fabriek in Haifa, Israël. NNP-1 staat voor Neural Network Processor for Inference.
Door zijn constructie kan het "hoge werklasten aan met minimale hoeveelheden energie, zei Steven Scheer, Reuters.
Het beschrijven van zijn functie, Ravie Lakshmananin, TNW, zei dat het "specifiek gericht is op het inferentieaspect van AI om nieuwe inzichten af te leiden. Door gebruik te maken van een speciaal gebouwde AI-inferentiecomputer, NNP-I levert betere prestaties met een lager vermogen."
Waar komt de naam Nervana vandaan? Nervana Systems is het bedrijf dat het in 2016 heeft overgenomen. analist Karl Freund vertelde: EE Times dat het heel logisch was voor Intel om dit te doen. De overname van Nervana was een manier om de deep-learningmarkt te betreden.
Deze week, de waarom-vraag werd door een woordvoerder van Intel omgezet in een waarom-niet.
"Om te komen tot een toekomstige situatie van 'AI overal', we moeten omgaan met enorme hoeveelheden gegenereerde gegevens en ervoor zorgen dat organisaties worden uitgerust met wat ze nodig hebben om effectief gebruik te maken van de gegevens en ze te verwerken waar ze worden verzameld, " zei Naveen Rao, oprichter van Nervana en nu algemeen directeur van Intel's productgroep voor kunstmatige intelligentie, in een rapport van Reuters. "Deze computers hebben versnelling nodig voor complexe AI-toepassingen."
Technische kijkers, waaronder: SiliconenHOEK zeiden dat de NNP-1 goed was voor grote datacenters met AI-workloads. Fossbytes zei dat een uitgebreide set RAS-functies ervoor moest zorgen dat het gemakkelijk kan worden geïmplementeerd in bestaande datacenters.
Joel Hruska in ExtremeTech :"Intel beweert dat de NNP-I ResNet50-prestaties van 3 kan leveren, 600 gevolgtrekkingen per seconde bij een 10W TDP. Dat komt neer op 4,8 TOPS/watt, die voldoet aan de algemene efficiëntiedoelstellingen van Intel (het bedrijf beweert dat NNP-I het meest efficiënt is bij lagere wattages)."
Het andere interessante item op de Hot Chips-conferentie van 2019 was de NNP-T, wat staat voor Intel Nervana Neural Network Processor for Training. Intel beschreef de NNP-T (codenaam Spring Crest) als speciaal gebouwd (1) om complexe deep learning-modellen op grote schaal te trainen, en (2) gedistribueerde training vereenvoudigen met out-of-the-box scale-out-ondersteuning.
Paul Alcorn, Tom's hardware , schreef over hoe "de NNP-T is ontworpen om lijmloos te schalen van chassis tot chassis, en zelfs rack-to-rack, zonder switch." Hij zei dat het netwerk speciaal is ontworpen met een hoge bandbreedte en lage latentie in het achterhoofd; de architectuur moet omgaan met "enorme modellen die schalen tot 5 of 8 miljard parameters, of daarbuiten."
Naveen Rao merkte op:"Intel Nervana NNP-T verlegt de grenzen van deep learning-training. Het is gebouwd om prioriteit te geven aan twee belangrijke real-world overwegingen:hoe een netwerk zo snel mogelijk te trainen en hoe dit te doen binnen een bepaald energiebudget." De architectuur is vanaf de grond opgebouwd, zonder legacy workloads om te ondersteunen.
In het grotere geheel, De tijden van Israël zei:"Bedrijven zoals Intel, Nvidia, Qualcomm en Google en startups wereldwijd zijn allemaal op zoek naar nieuwe technologieën op dit gebied, dat houdt onder meer in dat de hardware wordt gemaakt om de verwerking van enorme hoeveelheden informatie mogelijk te maken."
De verwerkingshardware heeft twee doelen, schreef Shoshanna Solomon:(1) de computers trainen om nieuwe taken uit te voeren en (2) ze leren om conclusies te trekken en daardoor tot inzichten te komen.
Globaal genomen, Intel draagt zijn steentje bij om datawetenschappers in staat te stellen beide te doen als ze werken aan ongestructureerde en complexe data.
© 2019 Wetenschap X Netwerk
Wetenschap © https://nl.scienceaq.com