NVIDIA og ARM ønsker å bringe dyp læring til IoT-prosjektene dine

Video: Hvordan fortelle forskjellen mellom AI, maskinlæring og dyp læring Fremskritt innen kunstig intelligens, maskinlæring og dyp læring påvirker virksomheten. Men, begrepene blir ofte brukt om hverandre. Slik skiller du dem fra hverandre.
Bygge et lysbilde dekk, tonehøyde eller presentasjon? Her er de store takeaways:
  • Utviklere av dyp læring vil ha fri tilgang til NVIDIAs arkitektur og ARMs IoT-chip-ekspertise under partnerskapet og open source-designen gjør det mulig å legge til funksjoner regelmessig, inkludert bidrag fra forskningsmiljøet.
  • NVIDIA DGX-2 er i stand til å levere 2 petaflops av datakraft og kan skryte av den dype læringsprosessorkraften til 300 servere på en enkelt server.

NVIDIA har kunngjort et partnerskap med Internet of Things (IoT) brikke-designer ARM, med sikte på å fremme akselerasjonen av inferencing ved å gjøre det enkelt for IoT-chip-selskaper å integrere kunstig intelligens (AI) i designene sine.

Under hovedtaler på NVIDIA GTC i San Jose tirsdag, forklarte selskapets administrerende direktør og grunnlegger Jensen Huang at partnerskapet vil se open source NVIDIA Deep Learning Accelerator (NVDLA) arkitektur integrert i Arm's Project Trillium for maskinlæring.

NVDLA er basert på NVIDIA Xavier, utpekt av GPU-giganten som et "kraftig autonomt maskinsystem på en brikke." I følge Huang vil dette gi en gratis, åpen arkitektur for å fremme en standard måte å utforme dypt læringsinferens på.

"Inferencing vil bli en kjerneevne for alle IoT-enheter i fremtiden, " sa NVIDIA-visepresident og daglig leder for Autonomous Machines, Deepu Talla, under en pressemøte.

"Vårt samarbeid med ARM vil bidra til å drive denne bølgen av adopsjon ved å gjøre det enkelt for hundrevis av chip-selskaper å innlemme dyp læringsteknologi, " la Talla til.

ARM, kjøpt av det japanske konglomeratet Softbank i 2016 for 24, 3 milliarder pund, har en visjon om å koble til en billion IoT-enheter, og forventer at det eksisterer mange enheter innen 2035.

Også kunngjort på GTC på tirsdag var et 8x ytelsesøkning - sammenlignet med forrige generasjon - som kom til selskapets siste deep learning computing-plattform.

Fremskrittene, som allerede er vedtatt av store nettskyleverandører, inkluderer et todelt minneøkning til NVIDIA Tesla V100 datasenter GPU; et nytt GPU-sammenkoblingsstoff, NVIDIA NVSwitch, som gjør det mulig for opptil 16 Tesla V100 GPUer å kommunisere samtidig med en hastighet på 2, 4 terabyte per sekund; og en oppdatert programvarestabel.

Tesla V100-produktene vil nå skilte med 32 GB minne hver, effektive umiddelbart, med Cray, HPE, IBM, Lenovo, Supermicro og Tyan kunngjør utrullingen av V100 32 GB i andre kvartal, og Oracle Cloud-infrastruktur forventes å tilby V100 32 GB i skyen i andre halvdel av 2018.

"Vi er alle inne på dyp læring, og dette er resultatet ... vi bare tar opp damp, " sa Huang.

Huang detaljerte også et gjennombrudd innen datalæring, med NVIDIA DGX-2.

DGX-2, som er en enkelt server, er i stand til å levere 2 petaflops datakraft og kan skryte av den dype læringsprosessorkraften til 300 servere. Den fikk også en 32 GB-oppgradering.

"De ekstraordinære fremskrittene med dyp læring antyder bare det som fremdeles skal komme, " sa Huang. "Mange av disse fremskrittene står på NVIDIAs dype læringsplattform, som raskt har blitt verdens standard."

Administrerende direktør sa at selskapet forbedrer ytelsen til den dype læringsplattformen i et tempo som overstiger Moores lov, og muliggjør "gjennombrudd som vil bidra til å revolusjonere helsevesenet, transport, forskningsutforskning og utallige andre områder."

Mer om innovasjon

  • IBM kunngjør gjennomslag av batteriteknologi
  • Augmented reality for business: Cheat sheet
  • Bilder: Verdens 25 raskeste superdatamaskiner
  • Inside the Raspberry Pi: Historien om $ 35-datamaskinen som forandret verden

Da Huang la merke til at GPU-akselerasjon for dypt læringsinterferens får trekkraft, avslørte NVIDIA også en serie nye teknologier og partnerskap som utvider sin inferensevne for hyperscale datasentre, og tilbyr støtte for funksjoner som talegjenkjenning, naturlig språkbehandling, anbefalingssystemer, og bildegjenkjenning.

Kunngjøringen inkluderer integrering av TensorRT - en høyytelsesoptimaliseringsprogram for dypt læring og kjøretid som leverer lav latens, høy gjennomstrømning for dypt læringsapplikasjoner - i Googles TensorFlow 1.7-rammeverk.

Dette forbedrer inferencing dramatisk i TensorFlow, som tidligere med TensorFlow 1.6, kunne en enkelt V100 behandle omtrent 300 bilder per sekund; flytting til 1, 7 vil tillate over 2.600 bilder å bli behandlet i sekundet.

TensorRT 4, den nyeste generasjonen Huang avduket på tirsdag, sies å levere inntil 190X raskere dybdeinnlæringsinnsats sammenlignet med CPU-er for vanlige applikasjoner som datamaskinvisjon, nevral maskinoversettelse, automatisk talegjenkjenning og talesyntese.

NVIDIA kunngjorde også at Kaldi sitt talegjenkjenningsrammeverk er optimalisert for GPU-er, noe som gir mulighet for "mer nyttige" virtuelle assistenter for forbrukere og lavere distribusjonskostnader for datasenteroperatører.

Nyhetsbrev om innovasjon

Vær kjent med smarte byer, AI, Internet of Things, VR, AR, robotikk, droner, autonom kjøring og mer av de kuleste teknologiske nyvinningene. Leveres onsdager og fredager

Registrer deg i dag

© Copyright 2020 | mobilegn.com