Deze blogpost is oorspronkelijk gepubliceerd door NXP Semiconductors. Het is hier herdrukt met toestemming van NXP Semiconductors.

Edge intelligence is een van de meest disruptieve innovaties sinds de komst van het Internet of Things (IoT). Terwijl het IoT aanleiding gaf tot miljarden slimme, verbonden apparaten die ontelbare terabytes aan sensorgegevens voor op AI gebaseerde cloudcomputing verzenden, was er een andere revolutie aan de gang: machine learning (ML) op edge-apparaten. Naarmate meer en meer intelligentie naar de rand van het netwerk migreert, heeft NXP deze trend omarmd door kosten-, prestatie- en stroomgeoptimaliseerde verwerkingsoplossingen te leveren om ML-technologie over meerdere markten en applicaties te stuwen, waardoor eindgebruikers de voordelen van verbeterde beveiliging, meer privacy en lagere latentie.

Het ontwikkelen van ML, deep learning en neurale netwerkapplicaties is traditioneel het domein van datawetenschappers en AI-experts. Maar dit is aan het veranderen naarmate er meer ML-tools en -technologieën beschikbaar zijn gekomen om een ​​deel van de complexiteit van het ontwikkelen van machine learning-applicaties weg te nemen. Een voorbeeld hiervan is de eIQ (“edge intelligence”) ML-ontwikkelomgeving van NXP. eIQ biedt een uitgebreide set workflowtools, inferentie-engines, neurale netwerk (NN) compilers, geoptimaliseerde bibliotheken en technologieën die de ontwikkeling van ML vereenvoudigen en versnellen voor gebruikers van alle vaardigheidsniveaus, van embedded ontwikkelaars die aan hun eerste deep learning-projecten beginnen tot experts die zich richten op geavanceerde oplossingen voor objectdetectie, classificatie, anomaliedetectie of spraakherkenning.

Geïntroduceerd in 2018, is eIQ ML-software geëvolueerd om applicatie- en ML-algoritme-activering op systeemniveau te ondersteunen, gericht op de i.MX-serie van NXP, van low-power i.MX RT crossover microcontrollers (MCU's) naar multicore i.MX 8 en i.MX 8M applicatieprocessors op basis van Arm® Cortex®-M en Cortex®-A cores.

De grote update van vandaag

Om ML-ontwikkelaars te helpen nog productiever en vaardiger te worden op de i.MX 8-verwerkingsplatforms van NXP, hebben we onze eIQ-softwareomgeving aanzienlijk uitgebreid met een nieuwe eIQ Toolkit-workflow tools, GUI-gebaseerde eIQ Portal-ontwikkelomgeving en de DeepViewRT™-inferentie-engine geoptimaliseerd voor i.MX- en i.MX RT-apparaten.

Figuur 1. Presentatie op hoog niveau van de eIQ-toolkit en eIQ-portalfuncties en workflow.

Laten we eens nader bekijken hoe deze krachtige, nieuwe toevoegingen aan de eIQ-softwareomgeving kunnen helpen de ontwikkeling van ML te stroomlijnen, de productiviteit te verhogen en ontwikkelaars meer opties en meer flexibiliteit te geven.

eIQ ToolKit: “ML voor iedereen mogelijk maken” ”

Gezien de onderliggende complexiteit van machine learning, neurale netwerk- en deep learning-applicaties en de uiteenlopende behoeften van ML-ontwikkelaars, is een eenvoudige “one-size-fits-all”-tool niet het antwoord. Een betere aanpak is om een ​​uitgebreide en flexibele toolkit te bieden die kan worden geschaald om te voldoen aan de vaardigheden en ervaringsniveaus van ML-ontwikkelaars. Hiertoe hebben we de krachtige maar gebruiksvriendelijke eIQ Toolkit toegevoegd aan de eIQ ML-ontwikkelomgeving, waardoor ontwikkelaars datasets en modellen kunnen importeren en neurale netwerkmodellen en ML-workloads kunnen trainen, kwantificeren, valideren en implementeren in NXP's i. MX 8M-familie van applicatieprocessors en i.MX RT Crossover MCU-portfolio. Of u nu een embedded ontwikkelaar bent die aan uw eerste ML-project begint, een bekwame datawetenschapper of een AI-expert bent, u vindt de juiste toolkitmogelijkheden die passen bij uw vaardigheidsniveau en uw ML-project stroomlijnen.

Afbeelding 2. eIQ-portal biedt een dataset-curator om u te helpen bij het annoteren en organiseren van al uw trainingen gegevens.

De eIQ Toolkit biedt eenvoudige workflows en ML-toepassingsvoorbeelden. De Toolkit biedt ook een intuïtieve, GUI-gebaseerde ontwikkeloptie met de eIQ Portal en je kunt er ook voor kiezen om commandoregel-hosttools te gebruiken als je dat liever hebt. Als je gebruik wilt maken van kant-en-klare ontwikkelingsoplossingen of professionele diensten en ondersteuning van NXP of een van onze vertrouwde partners nodig hebt, biedt de toolkit gemakkelijke toegang tot een groeiende lijst met opties in onze eIQ Marketplace van bedrijven zoals Au-Zone Technologies.


Figuur 3. eIQ-portal biedt een handige benadering voor modelvalidatie en meetnauwkeurigheid.

Met behulp van de eIQ Portal kunt u eenvoudig ML-modellen maken, optimaliseren, debuggen, converteren en exporteren, evenals datasets en modellen importeren uit TensorFlow, ONNX en PyTorch ML-frameworks. U kunt een model met uw gegevens trainen met de “bring your own data” (BYOD)-stroom, selecteren uit een database met vooraf getrainde modellen of een vooraf getraind model importeren met de “bring your own model” (BYOM)-stroom, zoals zoals de geavanceerde detectiemodellen van Au-Zone Technologies. Door het eenvoudige BYOM-proces te volgen, kunt u een getraind model bouwen met behulp van openbare of particuliere cloudgebaseerde tools en het model vervolgens overbrengen naar de eIQ Toolkit om te draaien op de juiste voor silicium geoptimaliseerde inferentie-engine.


Figuur 4. eIQ-portal biedt een flexibele benadering voor BYOM en BYOD.

On-target profileringsmogelijkheden op grafiekniveau bieden ontwikkelaars runtime-inzichten om te finetunen en optimaliseer systeemparameters, runtime-prestaties, geheugengebruik en neurale netwerkarchitecturen voor uitvoering op i.MX-apparaten.

Nieuwe versie van NXP's nieuwste eIQ Inference Engine

De kern van een ontwikkelingsproject voor machine learning is de inferentie-engine – de runtime-component van ML-applicaties. Naast het ondersteunen van inferentie met een verscheidenheid aan open-source, community-based inferentie-engines die zijn geoptimaliseerd voor i.MX-apparaten en MCU's zoals Glow, ONNX en TensorFlow Lite, hebben we de DeepViewRT-inferentie-engine toegevoegd aan onze eIQ ML-softwareontwikkelingsomgeving.

DeepViewRT is ontwikkeld in samenwerking met onze partner Au-Zone Technologies en is een gepatenteerde inferentie-engine die een stabiele, door de leverancier onderhouden oplossing voor de langere termijn biedt die een aanvulling vormt op open op de gemeenschap gebaseerde inferentie-engines.

Afbeelding 5. De DeepViewRT biedt een stabiele, productieklare en flexibele inferentie-engine voor ML-toepassingen.

De DeepViewRT-inferentie-engine is beschikbaar als middleware in NXP's MCUXpresso SDK en Yocto BSP-release voor Linux™ OS-gebaseerde ontwikkeling.

Meer om van te houden over eIQ

De eIQ ML-ontwikkelomgeving met alle essentiële basisondersteuning, waaronder de nieuwe eIQ Toolkit, eIQ Portal en eIQ-inferentie met DeepViewRT, worden geleverd zonder licentiekosten.

Hone Your Skills at the NXP ML/AI Training Academy

De ML/AI Training Academy van NXP biedt leermodules in uw eigen tempo over verschillende onderwerpen met betrekking tot ML-ontwikkeling en best practices bij het gebruik van eIQ-tools met de i.MX- en i.MX RT-apparaten van NXP. De ML/AI Training Academy staat open voor alle NXP-klanten en biedt een groeiende verzameling trainingsmodules om je op weg te helpen met de ontwikkeling van je ML-applicatie. Lees meer op www.nxp.com/ml training.

Ga vandaag nog aan de slag met eIQ ML-software en -tools

De eIQ Toolkit, inclusief de eIQ Portal, kan nu worden gedownload met een enkele klik op eIQ Toolkit.

eIQ ML-software inclusief de DeepView RT-inferentie-engine voor i.MX-toepassingsprocessors wordt ondersteund op de huidige Yocto Linux-release. eIQ ML-software voor i.MX RT crossover MCU's is volledig geïntegreerd in de MCUXpresso SDK-release van NXP.

Meer informatie op www.nxp.com/ai en www.nxp.com/eiq.

Word lid van de eIQ-gemeenschap: eIQ Machine Learning-software.

Lees hier meer over DeepViewRT en Au-Zone's ML-ontwikkeltools.

Ali Osman Örs
Directeur, AI ML-strategie en technologieën, NXP Semiconductors

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *