Contents
Intelligentie op het apparaat biedt belangrijke voordelen.
Ons nieuwste AI-onderzoek om modellen te personaliseren en aan te passen terwijl gegevens privé blijven
Eén maat past niet allemaal. De behoefte aan intelligente, gepersonaliseerde ervaringen, mogelijk gemaakt door AI, wordt steeds groter. Onze apparaten produceren steeds meer gegevens die kunnen helpen onze AI-aangedreven ervaringen te verbeteren. Hoe kunnen we al deze data van edge devices leren en efficiënt verwerken? Leren op het apparaat in plaats van training in de cloud kan deze uitdagingen aanpakken. In deze blogpost beschrijf ik hoe ons laatste onderzoek leren op het apparaat op grote schaal mogelijk maakt.
Wat is leren op het apparaat?
Vroeger werd AI vooral geassocieerd met de cloud. We zijn overgestapt van een cloudgerichte AI waar alle training en inferentie plaatsvindt in de cloud, naar vandaag waar we AI gedeeltelijk hebben gedistribueerd waarbij inferentie plaatsvindt op zowel het apparaat als de cloud. In de toekomst verwachten we niet alleen gevolgtrekking, maar ook de training of aanpassing van modellen op het apparaat. We noemen dit volledig gedistribueerde AI, waarbij apparaten continu worden verbeterd door leren op het apparaat, als aanvulling op cloudtraining. Het verwerken van gegevens die zich het dichtst bij de bron bevinden, helpt AI op te schalen en biedt belangrijke voordelen zoals privacy, lage latentie, betrouwbaarheid en efficiënt gebruik van netwerkbandbreedte.
On-device learning past het AI-model, dat oorspronkelijk in de cloud is getraind met een globale dataset, aan op basis van de nieuwe lokale data die een device (of set devices) tegenkomt. Dit kan de prestaties verbeteren door te personaliseren voor een individuele gebruiker of door een gedeeld model aan te passen aan een groep gebruikers en hun omgeving. De AI kan ook continu leren in de loop van de tijd, zich aanpassend aan een wereld en persoonlijke voorkeuren die eerder dynamisch dan statisch zijn.
On-device leren is een uitdaging
De voordelen van on-device leren zijn duidelijk. Dus waarom doen we het niet? De realiteit is dat er een aantal uitdagingen moeten worden overwonnen om leren op het apparaat op grote schaal mogelijk te maken. Bijvoorbeeld:
- Modeltraining en fijnafstemming kunnen hongerig zijn naar kracht, rekenkracht en opslag. Dit is de reden waarom leren traditioneel in de cloud plaatsvindt in datacenters met veel meer beschikbare bronnen dan edge-apparaten.
- Lokale gegevens kunnen beperkt, niet-gelabeld, bevooroordeeld en onevenwichtig zijn, waardoor het moeilijk is om een verbeterd model te leren .
- Overfitting of catastrofaal vergeten resulteert in modellen die niet robuust zijn voor verschillende situaties.
Ons onderzoek lost leerproblemen op het apparaat op
Om enkele van de haalbaarheids- en implementatieproblemen voor leren op het apparaat te verhelpen, onderzoekt Qualcomm AI Research actief verschillende onderwerpen en ziet het zeer bemoedigende resultaten.
Onze onderzoeksgebieden op het gebied van AI gaan in op de belangrijkste implementatie-uitdagingen van leren op het apparaat.
Eenvoudig lerenonderzoekt hoe het AI-model kan worden aangepast aan een paar gelabelde gegevensvoorbeelden. Leren van beperkte gelabelde gegevens is cruciaal omdat er misschien niet zoveel mogelijkheden zijn voor door de gebruiker ondersteunde etikettering. Overweeg het spotten van trefwoorden, waarbij het de taak is om te identificeren wanneer een trefwoord wordt uitgesproken, zoals 'Hey Snapdragon', met behulp van always-on machine learning. Een typisch model voor het spotten van zoekwoorden is mogelijk niet gevoelig voor de accenten van gebruikers en presteert slecht voor uitschieters. Door onze methoden te gebruiken om het model lokaal aan te passen aan een paar voorbeelden van de gebruiker die 'Hey Snapdragon' zegt, hebben we over de hele linie verbeteringen gezien op het gebied van personalisatie, maar vooral voor uitschieters, met een toename van het detectiepercentage tot 30%.
Continu lerenis leren dat doorgaat na inschrijving met als voordeel dat het AI-model in de loop van de tijd verbetert en aanpast. Continu leren is ook vaak leren zonder toezicht, wat betekent dat de gegevens niet gelabeld zijn, omdat het niet praktisch is voor gebruikers om zich in te schrijven of gegevens herhaaldelijk te labelen. Positief is dat er vaak overvloedige voorbeelden van niet-gelabelde gegevens zijn. Om de trainingsuitdaging van niet-gelabelde gegevens aan te pakken, wijst onze onderzoeksmethode pseudo-labels toe aan de trainingsgegevens via het verificatieproces. Om de uitdaging aan te gaan van overfitting en het vergeten van een nuttige mogelijkheid van het model wanneer het aantal verzamelde gegevens klein is, maken we gebruik van regularisatieverlies dat enkele statistieken van een vooraf getraind model handhaaft.
Federated learning biedt het beste van twee werelden, van training op het apparaat en cloudtraining. Het behoudt het privacyvoordeel en de schaal van leren op het apparaat door de gegevens lokaal te houden, terwijl het ook het voordeel haalt uit het leren van verschillende gegevens van veel gebruikers door de cloud veel verschillende lokaal opgeleide modellen te laten samenvoegen. Ruwe gegevens worden nooit naar de cloud verzonden en modelupdates kunnen worden gedeeld op manieren die de privacy behouden.
Federale leeraggregaten verzamelt modelupdates van apparaten die op het apparaat kunnen leren.
Natuurlijk moet het apparaat in staat zijn om op het apparaat te leren om federatief leren te laten werken, en er zijn ook veel andere systeemuitdagingen voor het produceren van een goed, federatief model. Ons onderzoek is grotendeels gericht op het oplossen van deze uitdagingen. Overweeg gebruikersverificatie, waarbij een persoon wordt geverifieerd via biometrie. Deep learning is een krachtig hulpmiddel voor gebruikersverificatie, maar vereist doorgaans grote hoeveelheden zeer persoonlijke gegevens van een diverse groep gebruikers. Federated learning maakt het mogelijk om dergelijke modellen te trainen terwijl al deze persoonlijke gegevens privé blijven. In feite zijn onze modellen voor gebruikersverificatie die zijn getraind met onze federatieve leermethoden, in staat om concurrerende prestaties te bereiken in vergelijking met de modernste technieken, die de privacy niet beschermen. En ons onderzoek is niet alleen theorie. We hebben een federatief leerraamwerk ontwikkeld voor onderzoek en applicatie-ontwikkeling op mobiel, en we zullen deze use case voor gebruikersverificatie demonstreren op komende conferenties. We willen federatief leren op grote schaal beschikbaar maken en uitdagingen op het gebied van implementatie aanpakken.
Lage-complexiteit leren op het apparaatis de sleutel om alle drie de leertechnieken die ik hierboven heb beschreven mogelijk te maken. Backpropagation, de techniek die wordt gebruikt tijdens het trainen van AI-modellen, is rekenkundig veeleisend en uitdagend om uit te voeren op de meeste apparaten met beperkte kracht en warmte.
Uitdagingen overwinnen om een neuraal netwerk op een apparaat efficiënt aan te passen.
We onderzoeken verschillende benaderingen om het AI-model op een apparaat efficiënt aan te passen, zoals gekwantiseerde training, efficiënte modellen voor backpropagation en aanpassing op basis van inferentieresultaten.
Er komt meer
Over het algemeen zijn we erg enthousiast over het potentieel van leren op het apparaat, omdat het kan leiden tot betere modellen die gebruikmaken van alle beschikbare gegevens van edge-apparaten en tegelijkertijd voordelen bieden zoals privacy, lage latentie, betrouwbaarheid en efficiënt gebruik van netwerkbandbreedte. We hebben een breed scala aan onderzoeksrichtingen voor on-device en federated learning om de implementatie te vergemakkelijken, efficiënter te maken en betere AI-modellen te creëren. Zorg ervoor dat je je afstemt op mijn webinar, waar ik veel meer in detail zal treden over ons onderzoek. Als we dit goed doen, kunt u verbeterde ervaringen verwachten die voortdurend worden verbeterd en kunt u erop vertrouwen dat uw persoonlijke gegevens veilig worden bewaard. We kunnen niet wachten om dit te realiseren.
Dr. Joseph Soriaga
Senior Director of Technology, Qualcomm Technologies