Hé, Siri, what is Artificial Intelligence?

Jits Langedijk

Als ik u vijf jaar geleden had gevraagd, “noem 10 applicaties gebaseerd op Artificial Intelligence (AI)” dan was dit geen eenvoudige opgave geweest. Echter over vijf jaar wordt het een uitdaging om 10 applicaties te noemen die géén gebruik maken van AI.

Artificial Intelligence is reeds overal om ons heen. Maakt u bijvoorbeeld weleens gebruik van een virtual assistant zoals Siri, Cortana of Alexa? Als het antwoord ‘ja’ is, dan heeft u al kennisgemaakt met AI. Het lijkt zo eenvoudig, door te praten tegen de smartphone worden bijvoorbeeld WhatsApp berichten verstuurd zonder de smartphone ook maar aan te raken. Maar er zijn veel meer voorbeelden van AI. NVIDIA heeft dit op een mooie manier weergegeven in de ‘opening keynote’ van het jaarlijkse GPU Technology Conference (GTC). In deze video zien we hoe AI de mensheid helpt bij het bestuderen van het heelal, het diagnosticeren van ziektes en het ontwikkelen van geneesmiddelen of ons helpt bij de totstandkoming van zelfrijdende voertuigen. Het mag duidelijk zijn dat AI al overal om ons heen is en steeds belangrijker wordt in ons dagelijks leven, zowel zakelijk als privé, het is alleen niet altijd zichtbaar.

Deep Learning

Even terug naar de vraag, ‘Wat is Artificial Intelligence?’. Siri verwijst mij bij deze vraag naar Wikipedia  (NL/EN) over AI en leest deze netjes voor. Er kunnen veel verschillende interpretaties gedaan worden rondom AI en de scope van wat wel en geen AI is, is erg diffuus. AI is op zichzelf niet nieuw, in 1997 nam IBM Deep Blue het op tegen schaakkampioen Kasparov en won. In 1997 was dit groot nieuws maar de algoritmes van vandaag de dag zijn uiteraard veel geavanceerder. Dit komt enerzijds in de wijze waarop de algoritmes worden ontwikkeld en anderzijds in de wijze waarop deze worden getraind. Het trainen van een algoritme is van groot belang en uiteindelijk bepalend voor het succes van een AI-oplossing. Deze trainingsfase wordt ook wel Deep Learning genoemd. Het ‘speech recognition’ algoritme voor Siri had zeker in het begin moeite om dialecten goed te begrijpen en zelfs vandaag de dag begrijpt Siri ons niet altijd even goed. Siri verschilt daarin niet van de gemiddelde man die met zijn partner praat, of spreek ik dan enkel voor mijzelf? Humor en sarcasme zijn daarnaast ook nog wel wat verder weg om goed te worden begrepen door de virtual assistents.

Door deep learning zijn algoritmes in staat om complexe taken, die voorheen enkel door mensen uitgevoerd werden, nu zelfstandig uit te voeren. Met deep learning worden de algoritmes getraind zodat ze uiteindelijk minstens net zo goed zijn als de mens en bij voorkeur veel beter. Als algoritmes, evengoed of beter dan de mens analyses kunnen uitvoeren is het grote bijkomende voordeel dat computers, met GPU’s, het uiteraard veel sneller kunnen. In de medische wetenschap worden met behulp van diverse scans bijvoorbeeld heel veel afbeeldingen gemaakt die een arts helpt bij het opsporen van afwijkende cellen. Wanneer we deze diagnose overlaten aan een algoritme die minstens evengoed is als de arts maar daarentegen wel veel sneller is, is men in staat patiënten sneller en beter te helpen en kan de arts tevens meer tijd besteden aan de patiënt.

Het trainen, deep learning, van algoritmes is dus van groot belang en bepalend voor het succes. Een algoritme trainen in het herkennen van afwijkende cellen is een tijdrovende klus. De hoeveelheid beschikbare data is immens en groeit waarschijnlijk sneller dan de verwerking ervan. Voor deep learning is snelheid dus eveneens van groot belang. Het proces van deep learning is daarom zeer gebaat bij de inzet van GPU’s. Dit is door vele wetenschappers en onderzoekers onderkent met als resultaat dat men ‘eigen’ systemen bouwt met daarin GPU’s. Dit betreffen zelf gebouwde white-label systemen met veelal consumenten GPU-kaarten. De bouw en configuratie van deze systemen kost echter de nodige tijd. Daarnaast is een systeem vaak voor één specifieke taak geconfigureerd. Om er nu voor te zorgen dat deep learning systemen snel en flexibel ingezet kunnen worden heeft NVIDIA de DGX Station en de DGX-1 ontwikkeld.

NVIDIA DGX Family

NVIDIA is al jaren de koploper op het gebied van GPU’s. De organisatie heeft een transitie ondergaan en heeft nu de focus op Artificial Intelligence. De GPU’s worden wereldwijd ingezet om de honger naar ‘compute power’ te stillen. Moore’s Law is niet voldoende om de honger te stillen. De GPU is hierin het enige antwoord en daarmee het ‘motorblok’ van AI.

De NVIDIA DGX Family sluit aan bij de behoefte van vandaag en past in de “AI era of Computing’. De DXG family kent een drietal oplossingen binnen het platform; DGX Station, DGX-1 en DGX Cloud.

DGX Station

DGX Station is de deep learning machine voor op de werkplek. Een supercomputer voor onder het bureau van de onderzoeker. Een tower model die erg stil is (<35dB) en relatief weinig stroom verbruikt (max 1.500 W). Met in totaal 4 x de Tesla V100 GPU levert de DGX Station 500 TFLOPS, 2.560 NVIDIA Tensor Cores en 20.480 NVIDIA Cuda Cores.

DGX-1

DGX-1 is de rack appliance uitvoering voor in het datacenter. De DGX-1 is voorzien van 8 x de Tesla V100 of de Tesla P100. Met de V100 GPU’s is de DGX-1 in staat om 1 petaFlops, 40.960 NVIDIA Cuda Cores en 5.120 NVIDIA Tensor Cores.

Voor zowel de DGX Station als de DGX-1 wordt er o.a. gebruik gemaakt van NVLink. Met deze techniek worden de verschillende GPU’s in de machine onderling aan elkaar gekoppeld. Met NVLink wordt de communicatie tussen de CPU en de GPU alsmede de GPU’s onderling geoptimaliseerd. Met de NVLink technologie wordt de communicatie 5 tot 12 keer sneller dan met traditionele PCIe gen3 interconnects.

In onderstaand overzicht vindt u de specificaties van zowel de DGX Station als de DGX-1.

DGX Platform

Zowel de DGX Station als de DGX-1 zijn op basis van het DGX-platform. Dit betekent dat een gelijke software stack wordt gebruikt voor beide oplossingen. De stack ziet er vanaf onder als volgt uit:

System

De DGX-oplossingen maken gebruik van een Ubuntu OS. Dit is een veel voorkomend, open source, OS dat o.a. in de wereld van deep learning gebruikt wordt. Het biedt de gewenste functionaliteit voor de DGX-systemen en voorziet tevens in de flexibiliteit om op verder te bouwen in de DGX Software Stack.

GPU Driver

Een belangrijk onderdeel is natuurlijk de juiste driver om de GPU’s optimaal te laten functioneren. De NVIDIA drivers sluiten uiteraard 100% aan op de gebruikte hardware.

Containerization Tool

Om een flexibele oplossing te realiseren waar verschillende tools en frameworks op actief moeten zijn is containerization de oplossing. NVIDIA Docker biedt de uitkomst hiervoor.

Deep Learning User Software

Binnen de verschillende containers is o.a. User Software beschikbaar. Hiermee wordt men in staat gesteld om de verschillende deep learning taken in te plannen. Tevens bevinden zich hier eventuele third-party accelerators zoals MAPC, Kinetica, Blazing en Graphistry.

Deep Learning frameworks

De verschillende frameworks zijn nodig om het deep learning daadwerkelijk te laten plaatsvinden. De veelvoorkomende frameworks zoals Caffe2, Microsoft Cognitive Toolkit, mxnet, Pytorch, TensorFlow en Theano kunnen in verschillende versies binnen een eigen container actief zijn op de DGX Station en DGX-1.

De totale DGX Software Stack maakt het mogelijk dat organisaties in zeer korte tijd een werkende oplossing tot de beschikking hebben, een enterprise oplossing waarbij support vanuit NVIDIA gegarandeerd is. De DGX-oplossingen bieden optimale flexibiliteit en snelheid omdat men in staat is met verschillende frameworks en versies gebruik te maken van dezelfde configuratie.

Next Steps

Na Mainframes in de jaren 60, de PC in de jaren 80, het Internet in de 90s en nu mobile en cloud is het de vraag wat ‘The Next Big Thing’ zal zijn. Het laat zich al raden maar mijn AI-algoritme voorspelt Artificial Intelligence. Het advies is dan ook “Think big, Train fast en Learn deep!”

Wilt u meer informatie rondom Artificial Intelligence en Deep Learning? Wilt u meer weten over de mogelijkheden van de NVIDIA DGX Station en DGX-1, neem contact op met PQR via DeepLearning@pqr.nl.

Jits Langedijk
Technology officer PQR

>> meer blogs

Reacties

Reactie toevoegen