AI-työkuormasi pilvessä: Google julkaisee lopulta TPU-beetaversion

Video: Google siitä, kuinka TensorFlow Lite auttaa rakentamaan parempaa älypuhelimien automaattista integrointia, Pete Warden, TensorFlow-mobiili- / sulautettujen tiimien johtaja Googlessa, koneoppimisesta puhelimiin ja yksiporttisiin tietokoneisiin.
Liukukannen, sävelkorkeuden tai esityksen rakentaminen? Tässä ovat suuret otot:
  • Google on julkaissut Cloud TPU: n koneoppimiskiihdyttimet beetaversiona, jotka voivat auttaa nopeuttamaan koneoppimismallien koulutusta.
  • Yritysten, jotka haluavat kiinnittää enemmän huomiota koneoppimiseen ja ammattikorkeakouluihin, tulisi pitää Google Cloud Platformia toteuttamiskelpoisena vaihtoehtona työkuormitukselleen.

Google julkaisi maanantaina Google Tennis -käyttöympäristössä beeta-anturin prosessoriyksiköt (TPU), jotka tarjoavat yrityksille vahvan vaihtoehdon tehostaa ponnistelujaan tekoälyn ja koneoppimisen alalla.

Blogiviestissä ilmoitetut TPU: t pyrkivät nopeuttamaan koneoppimismallien koulutusta - luomalla malleja, jotka voidaan kouluttaa yön yli päivien tai viikkojen sijasta. Google ilmoitti ensimmäisen kerran työskentelevänsä TPU: ien kanssa muutama vuosi sitten, mutta julkaisee juuri niitä pilviasiakkaidensa käyttöön.

TPU: n julkaisu lisää kasvavaa määrää laskentavaihtoehtoja, joita yrityksille, jotka haluavat tehdä vakavaa koneoppimista ja AI-työtä pilvessä. Lokakuussa 2017 Amazon Web Services (AWS) asetti NVIDIA Tesla V100 GPU -sovellukset saataville EC2: ssa useiden muiden koneoppimisvälineiden joukossa, ja Microsoft asetti samat GPU: t saataville myös vuoden 2017 lopulla HPC: n ja AI: n työmäärille.

AI: n ja koneoppimisen kasvavan merkityksen vuoksi kyvystä käsitellä työkuormia ja kouluttaa näitä malleja tulee pöydän keskittymiä parhaiden pilvipalvelujen tarjoajien joukossa. Google on nimennyt itsensä yhdeksi tärkeimmistä nimistä koneoppimisessa ja syvällisessä oppimisessa, ja TPU: n saatavuuden tulisi olla vakava harkinta pilviasiakkaille, jotka etsivät paikkaa AI- ja koneoppimiskuorman suorittamiseen.

Google kuvaa blogiviestissään Cloud TPU: ta "Googlen suunnittelemien laitteistokiihdyttimien perheeksi, jotka on optimoitu nopeuttamaan ja laajentamaan TensorFlow-ohjelmoituja ML-työkuormia". Nämä kiihdyttimet ovat olleet voima Google-tietokeskusten osien takana vuodesta 2015, kuten sisar-sivumme ZDNet huomautti, ja ne tarjoavat 180 terafloppia liukulukujen suorituskykyä yhdellä levyllä, viesti sanoi. Äskettäisessä Google I / O -tapahtumassa toimitusjohtaja Sundar Pichai kertoi, että Google harkitsee uudelleen laskennallista arkkitehtuuriaan rakentaakseen "ensimmäisen tiedonvälityskeskuksen".

Sen sijaan, että tarvitsisi klusterin jakamista, tietoteknikot saavat pääsyn verkkoon liitetylle Cloud TPU: lle Google Compute Engine VM: n kautta, viesti sanoi. He voivat hallita ja mukauttaa niitä vastaamaan heidän työmääränsä tarpeita.

TPU: ien tarjoamisen lisäksi Google Cloud Platform tarjoaa pääsyn myös prosessoreille, kuten Intel Skylake -sarja, ja GPU: ille, kuten edellä mainitulle NVIDIA Tesla V100: lle. Pilvi-TPU-laskutuksen laskee toinen, jonka hinta on 6, 50 dollaria per Cloud-TPU / tunti, viesti sanoi.

Google ilmoitti myös erillisessä viestissä, että Kubernetes Enginen GPU: t ovat beetaversioita. Ne voisivat myös antaa lisäyksen vastaaville ponnisteluille koneoppimisessa ja kuvankäsittelyssä.

Pilvi ja kaikki palveluna -uutiskirje

Tämä on menolähde, josta saat uusimmat tiedot AWS: stä, Microsoft Azuresta, Google Cloud Platformista, XaaS: stä, pilviturvallisuudesta ja muusta. Toimitettu maanantaisin

Rekisteröidy tänään

© Copyright 2020 | mobilegn.com