In de afgelopen decennia dat ik elektronica heb ontwikkeld, heb ik dit veel gehoord: “De algoritmen die onze ingenieurs hebben ontwikkeld, gaan veel verder dan wat onze concurrentie heeft.” Ik heb het gezien bij het ontwikkelen van algoritmen voor beeldverbetering, ik heb het gehoord over videocodecs en audiokwaliteit. En nu zie ik dezelfde ‘mijn algoritme is beter dan de jouwe’ beweringen op het gebied van AI. De jaarlijkse ImageNet Large Scale Visual Recognition Challenge maakt er zelfs een wedstrijd van, waarbij ieders algoritmen worden gerangschikt op hun vermogen om afbeeldingen correct te detecteren en te classificeren. Er worden elk jaar duizenden en duizenden artikelen gepubliceerd op het gebied van deep learning, die allemaal een nieuwe techniek claimen die sommige aspecten van deep learning verbetert. Het resultaat: algoritmen worden steeds beter. Dit is geweldig voor de consument omdat het onze elektronica in staat stelt om beter te worden en een steeds betere gebruikerservaring te bieden. In automotive is het nog belangrijker, omdat het niet alleen om de gebruikerservaring daar gaat, maar ook om veiligheid. Door betere algoritmen is de kans op een ongeluk ook kleiner.
Dus, wat is het probleem?
Een probleem is dat onze voertuigen minstens tien jaar meegaan. In deze jaren zullen de algoritmen veel verbeteren, wat betekent dat er een manier moet zijn om het voertuig te upgraden met de nieuwste software. Tesla doet dit goed en biedt een middel om de software van de auto via de ether bij te werken. Ze veranderen niet alleen de functies van het infotainmentsysteem of de algoritmen voor batterijbeheer 's nachts, maar ook de veiligheidsgerelateerde zelfrijdende algoritmen. Andere voertuig-OEM's volgen snel en nemen dezelfde draadloze upgrademogelijkheden over.
Maar er is hier één grote veronderstelling: dat de hardware deze nieuwe algoritmen kan uitvoeren. En voer ze niet alleen uit, maar voer ze net zo efficiënt uit als de oude algoritmen. Als de processors niet in staat zijn om de nieuwe algoritmen efficiënt uit te voeren, zouden ze niet in realtime kunnen werken, wat essentieel is omdat er geen vertragingen kunnen optreden bij het besturen van een voertuig op de weg. Omdat AI-algoritmen op basis van diepgaand leren echter veel rekenkracht vereisen, hebben veel halfgeleiderbedrijven ze hard bedraad. Een algoritme met vaste bedrading biedt een gemakkelijke weg naar hoge prestaties, terwijl het een laag stroomverbruik en kostenefficiënt blijft. Dit is cruciaal om deze algoritmen naar de consumentenprijs te brengen, om de systemen relatief klein te houden en zonder actieve koelventilatoren die snel kapot gaan. Hardwired implementaties geven echter één belangrijk kenmerk prijs: ze kunnen niet worden geüpgraded naar de nieuwste algoritmen. Ze zijn niet geïmplementeerd in software, maar in vaste elektronische circuits in hardware.
Bij videantis combineren we softwareprogrammeerbaarheid met efficiëntie, waardoor extreme prestaties en laag vermogen worden geboden met de mogelijkheid om de algoritmen te upgraden. Sinds we het bedrijf in 2004 begonnen, is onze processorarchitectuur volledig softwarematig programmeerbaar. Het is veel meer werk om zo'n architectuur en de bijbehorende software-ontwikkelingssuite met tools te ontwerpen, ontwikkelen en optimaliseren, maar het loont. En dat ervaren onze klanten. We zien dat op videantis gebaseerde halfgeleiders langer op de markt blijven, voor een breder scala aan gebruikssituaties worden gebruikt en altijd worden geüpgraded om de nieuwste algoritmen uit te voeren.
Marco Jacobs
Vice President of Marketing , video's