Hoewel de meeste machine learning-conferenties dit jaar virtueel zijn geworden vanwege COVID-19, blijft de AI-gemeenschap de industrie vooruit helpen met nieuw werk dat uiteindelijk mensen zal helpen en levens zal verbeteren. De kwaliteit van papier blijft hoog omdat de acceptatiecriteria even streng zijn gebleven of zelfs strenger zijn geworden dan in voorgaande jaren. Om een ​​voorbeeld te geven: het papieren acceptatiepercentage van Computer Vision and Pattern Recognition (CVPR) is gestegen van 26% in 2019 naar 22% dit jaar. Dit komt ook door meer onderzoekslabs en bedrijven die werk publiceren op het gebied van kunstmatige intelligentie. We zijn erg blij met vier CVPR-workshoppapers en twee papers in de hoofdconferentie, waaronder één mondelinge presentatie. Het is een spannend veld om naar te kijken.

In deze blogpost zullen we ons concentreren op state-of-the-art onderzoek dat is uitgevoerd bij Qualcomm Technologies in de eerste helft van 2020 en geaccepteerd op grote conferenties in de industrie. Het onderzoek heeft brede implicaties in verschillende domeinen, van energie-efficiëntie en compressie tot autonoom rijden en meer.

Toonaangevend onderzoek en ontwikkeling over het hele spectrum van AI.

Personalisatie en continu leren

Wat betreft personalisatie, behandelt het artikel “Conditional Channel Gated Networks for Task-Aware Continual Learning”, dat werd aanvaard bij CVPR (mondeling), het probleem van de “vergetelheid” van eerdere taken door neurale netwerken, aangezien ze voldoen aan de doelstelling van de actuele trainingsvoorbeelden. Een voorbeeld hiervan is een netwerk dat stapsgewijs nieuwe vogelsoorten leert herkennen of een geheel andere taak leert, zoals bloemherkenning, zonder de taken te vergeten die het eerder heeft geleerd.

De paper behandelt het probleem met een nieuw type van voorwaardelijke berekening. Onze methode levert tot 24% verbetering in nauwkeurigheid in vergelijking met concurrerende methoden op een grote set gelabelde afbeeldingen.

Efficiënt leren

Efficiënt leren is een belangrijke onderzoekslijn voor Qualcomm AI Research. Ons artikel “A Data and Compute Efficient Design for Limited Resources Deep Learning”, dat werd aanvaard tijdens een workshop van de International Conference on Learning Representations (ICLR), brengt eerder werk samen dat is gedaan in samenwerking met de Universiteit van Amsterdam op het gebied van equivalentie, zoals evenals onze kwantiseringsdoorbraken. Het artikel toont de synergie tussen deze twee methoden. Het algoritme herkent roterende beelden van zeer weinig voorbeelden, wat mogelijkheden biedt voor toepassingen op het gebied van medische diagnose.

Energie-efficiëntie

Energie-efficiëntie is cruciaal voor het schalen van AI op verschillende apparaten en een belangrijk aandachtspunt voor ons onderzoek. De paper “LSQ+: Verbetering van low-bit kwantisatie door leerbare offsets en betere initialisatie”, die werd aanvaard tijdens een CVPR-workshop, behandelt het probleem van prestatieverlies wanneer alle negatieve activeringen worden gekwantiseerd tot nul. Het stelt een algemeen asymmetrisch kwantisatieschema voor dat kan leren om de negatieve activeringen op te vangen, wat leidt tot aanzienlijke prestatieverbeteringen. We zagen bijvoorbeeld een winst van 1,8% met 4-bits kwantisering en tot 5,6% winst met 2-bits kwantisering op EfficientNet-B0 met een grote dataset aan afbeeldingen.

“Gradient l1 Regularization for Quantization Robustness ”, dat werd geaccepteerd bij ICLR, bouwt ook voort op het lopende werk van Qualcomm Technologies op het gebied van modelkwantisatie. De op regularisatie gebaseerde methode maakt de weg vrij voor “on-the-fly” kwantisering na de training voor verschillende bitbreedten.

“Batch-Shaping for Learning Conditional Channel Gated Networks”, dat door ICLR werd aanvaard als een mondelinge paper, presenteert een methode die neurale netwerken met grote capaciteit traint met aanzienlijk verbeterde nauwkeurigheid en lagere dynamische rekenkosten. Meer specifiek, op ImageNet behalen onze ResNet50- en ResNet34-gated-netwerken 74,60% en 72,55% top-1-nauwkeurigheid vergeleken met de 69,76% nauwkeurigheid van het baseline ResNet18-model, voor vergelijkbare complexiteit. We laten ook zien dat de resulterende netwerken automatisch leren om meer functies te gebruiken voor moeilijke voorbeelden en minder functies voor eenvoudige voorbeelden.

“Ordering Chaos: Memory-Aware Scheduling of Irregularly Wired Neural Networks for Edge Devices”, dat werd geaccepteerd op de Conference on Systems and Machine Learning (MLSys), presenteert een compiler die de geheugenvoetafdruk met succes minimaliseert. Vergeleken met TensorFlow Lite (veelgebruikt als standaard in de industrie), leidt de geheugenbewuste planning tot 1,86x reductie in geheugenvoetafdruk en 1,76x reductie in off-chip verkeer, waardoor het stroomverbruik aanzienlijk wordt verminderd. Bovendien kunnen engineering resources aanzienlijk worden bespaard, aangezien handmatig werk dat voorheen een engineer twee dagen kostte, nu automatisch in minder dan een minuut kan worden gedaan (compilatietijd).

Data- en broncompressie

Gegevens- en broncompressietechnologieën worden veel gebruikt voor verschillende gebruikssituaties om bandbreedte te besparen en de bestandsgrootte te verkleinen. Het gebruik van AI in plaats van traditionele compressietechnieken is veelbelovend gebleken. Handmatige afstemming is echter meestal vereist voor een neuraal netwerkmodel om een ​​realistische beeldcompressietaak uit te voeren. De paper “Lossy Compression with Distortion Constrained Optimization”, die werd aanvaard tijdens een CVPR-workshop, past een methode toe die “constrained optimalisatie” wordt genoemd als een alternatief dat zowel praktischer is als de traditionele afstemmingsmethode overtreft.

“Adversarial Distortion for Learned Video Compression”, dat werd aanvaard tijdens een CVPR-workshop, heeft tot doel videocompressie te optimaliseren met een vijandige methode (algoritmen die tegen elkaar strijden). Dit zorgt voor een vermindering van perceptuele artefacten en reconstructie van details die eerder verloren zijn gegaan.

Spraakcompressie is een andere uitdaging die we in ons laatste onderzoek aanpakken. 'Feedback Recurrent Autoencoder', dat werd geaccepteerd op de International Conference on Acoustics, Speech and Signal Processing (ICASSP), stelt een nieuwe architectuur voor voor online compressie van sequentiële gegevens met temporele afhankelijkheid. Dit produceert spraakgolfvormen van hoge kwaliteit met een lage, vaste bitsnelheid, waarbij de snelheid tot 2,5 keer wordt verlaagd, vergeleken met de populaire open source-codec genaamd Opus.

Video-begrip

Samen met het QUVA-lab (het lab dat Qualcomm Technologies samen met de Universiteit van Amsterdam heeft opgericht) doen we de afgelopen vijf jaar onderzoek op het gebied van video-begrip en diepe visie. De paper “ActionBytes: leren van getrimde video's om acties te lokaliseren”, die werd aanvaard bij CVPR, pakt het probleem aan van het lokaliseren van acties in lange niet-bijgesneden video's door video's te segmenteren in interpreteerbare fragmenten die “ActionBytes” worden genoemd. Deze methode behaalt state-of-the-art resultaten op lange video's.

Systeemarchitectuur

Kleine veranderingen in de systeemarchitectuur kunnen een grote bijdrage leveren aan het verbeteren van de modelprestaties, zoals het volgende document shows. In de paper “End-to-End Lane Marker Detection via Row-wise Classification”, die werd aanvaard tijdens een CVPR-workshop, stellen we een ultramoderne methode voor het detecteren van rijstrookmarkeringen voor die is ingesteld om de manier te verbeteren waarop autonoom rijden auto's 'zien' en beslissingen nemen. De paper stelt een systeemarchitectuur voor (d.w.z. neurale netwerkarchitectuur) die de hoekpunten van de rijstrookmarkeringen direct uitvoert, die kunnen worden gebruikt bij rijstrookdetectie.

We zijn blij om te zien hoeveel interessant werk er wordt gedaan en de veerkracht die de organisatoren van conferenties hebben getoond om waardevol AI-onderzoek te blijven presenteren. In een toekomstige blogpost zullen we papers bespreken die zijn geaccepteerd tijdens aankomende AI-conferenties.

Meld u aan voor onze nieuwsbrief om de laatste informatie over mobiel computergebruik te ontvangen

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *