Landen over de hele wereld verplichten autofabrikanten om verschillende geavanceerde rijhulpsystemen (ADAS)-mogelijkheden en -functies te installeren. Deze ADAS-functies vereisen geavanceerde detectiemogelijkheden met behulp van een combinatie van sensoren, waaronder beeld (camera), LiDAR, radar, ultrasone en ver-infrarood (FIR) apparaten. Volgens het industrie-analistenbureau P&S Intelligence zal de wereldwijde markt voor geavanceerde rijhulpsystemen (ADAS)-sensoren naar verwachting 40,8 miljard dollar bereiken in 2030, met een CAGR van 11,7% in 2020-2030. #8230;”

Beschouw de volgende afbeelding van wat momenteel als een relatief typische auto wordt beschouwd, waarbij elke sector het gebied vertegenwoordigt dat wordt waargenomen door een andere sensor voor gebruik met ADAS-toepassingen.

Een typische aanvulling van autosensoren die worden gebruikt voor ADAS-toepassingen.

De camera's maken high-fidelity-beelden van de weg en de omgeving die door boordcomputers kunnen worden geïnterpreteerd, maar deze beelden zijn beperkt tot wat de camera's in het zichtbare spectrum kunnen 'zien'. Ook kan de kwaliteit van camerabeelden verslechteren door omgevingsfactoren zoals mist en regen. De radar- en ultrasone apparaten genereren radio- en audiofrequentiepulsen en vangen de reacties op die weerkaatsen op objecten. Deze sensoren werken onder alle weersomstandigheden, maar kunnen niet worden gebruikt om onderscheid te maken tussen verschillende soorten objecten. Evenzo genereren LiDAR-apparaten lichtpulsen en vangen ze de reacties op die weerkaatsen op objecten. Naast het observeren van wegkenmerken zoals rijstrookmarkeringen, kunnen LiDAR-sensoren — die werken in zowel lichte als donkere omstandigheden — kan ook worden gebruikt om dieren, voetgangers en andere voertuigen te detecteren. Ondertussen vangen FIR-thermische sensoren de IR-straling op die wordt uitgezonden door objecten, werken in het donker en kunnen worden gebruikt om onderscheid te maken tussen levende en levenloze objecten. Signalen van al deze sensoren moeten worden verwerkt. In veel gevallen moeten representaties van de sensorgegevens dan aan de bestuurder worden weergegeven op een of meer displays in de cabine.

In veel gevallen moet de informatie die van meerdere sensoren wordt afgeleid, worden samengevoegd in een proces dat sensorfusie wordt genoemd. In toenemende mate vereisen toepassingen in de cabine (bijv. gebarenherkenning), ADAS-toepassingen en infotainment-toepassingen (IVI) in voertuigen (bijv. e-mirror, achteruitkijk/back-up) een zekere mate van kunstmatige intelligentie (AI) en machine learning (ML) ). Er wordt zelfs voorspeld dat AI al in 2025 in de meeste ADAS- en IVI-systemen zal worden toegepast. Dit stelt ontwerpers van autosystemen voor een uitdaging, aangezien het ondersteunen van meerdere sensoren en het verwerken van de gegevens die ze genereren een dure applicatieprocessor (AP) vereist. ) met meerdere I/O's en aanzienlijke verwerkingsmogelijkheden. Om de totale kosten van een ADAS-systeem te verlagen, moeten ontwerpers een alternatief overwegen voor de dure CPU's en GPU's die doorgaans als hardwareplatform in een ADAS-systeem dienen. Eén zo'n alternatief is het gebruik van een minder robuust AP (met minder I/O's en lagere verwerkingskracht om de kosten laag te houden) in combinatie met een energiezuinige embedded vision IC zoals de Lattice CrossLink™-NX FPGA.

In een dergelijke oplossing wordt veel van de sensorgegevens vooraf verwerkt door de FPGA, zodat de AP zijn verwerkingsbronnen kan richten op het inschakelen van de AI-functionaliteit van het ADAS-systeem. De CrossLink-NX FPGA kan de verschillende sensorgegevensstromen combineren en doorsturen naar de AP met behulp van een proces dat sensoraggregatie wordt genoemd, om het aantal I/O's dat de AP moet ondersteunen te verminderen. In andere gevallen, zoals het nemen van een videosignaal en het gebruiken om meerdere beeldschermen aan te sturen, kan de CrossLink-NX de videostream repliceren met behulp van een proces dat beeldschermsplitsing wordt genoemd. Bovendien, als het gaat om veiligheidskritieke systemen die redundante gegevens vereisen, kunnen de gegevens van een of meer sensoren worden gerepliceerd en naar meerdere toegangspunten worden verzonden vanaf een enkele CrossLink-NX FPGA.

Ontwikkelaars kunnen zich afvragen welke impact het toevoegen van een ander IC aan hun ontwerp zou kunnen hebben op de beperkingen van het vermogen en de ontwerpvoetafdruk. Ze hoeven zich geen zorgen te maken omdat CrossLink-NX FPGA's, die zijn gebouwd op het Lattice Nexus™ FPGA-ontwikkelplatform, tot 75 procent minder stroom verbruiken dan vergelijkbare concurrerende FPGA's en beschikbaar zijn in kleine vormfactorpakketten van slechts 6 mm x 6mm. En met ondersteuning voor een overvloed aan snelle interfaces, waaronder twee speciale 4-baans MIPI D-PHY-transceivers met een snelheid van 10 Gbps per PHY, bieden CrossLink-NX FPGA's de beste prestaties in hun klasse voor beeldverwerking, sensorverwerking en AI inferentietoepassingen.

CrossLink-NX FPGA's bieden ook een Soft Error Rate (SER) die tot 100 keer lager is dan vergelijkbare FPGA's in hun klasse, waardoor ze een aantrekkelijke keuze zijn voor bedrijfskritische toepassingen zoals ADAS die veilig en betrouwbaar moeten werken. Het echt opwindende nieuws is dat de CrossLink-NX FPGA's nu AEC-Q100-gekwalificeerd zijn tot Grade 2 (TA = 105°C), wat ze ideaal maakt voor autotoepassingen.

Ten slotte worden CrossLink-NX FPGA's volledig ondersteund door de Lattice mVision™- en sensAI™-oplossingstacks. Deze oplossingsstapels verminderen aanzienlijk de tijd en technische expertise die nodig is om automotive embedded vision-toepassingen te implementeren door ontwikkelaars te voorzien van modulaire hardwareplatforms, referentieontwerpen, neurale netwerk-IP-cores en aangepaste ontwerpservices om het ontwerp van automotive vision-systemen te versnellen en te vereenvoudigen.

Automobieltoepassingen mogelijk gemaakt door de mVision- en sensAI-oplossingstacks.

De Lattice mVision-oplossingenstack bevat alles wat ontwerpers van embedded vision-systemen nodig hebben om op FPGA gebaseerde embedded vision-applicaties te evalueren, ontwikkelen en implementeren, zoals machine vision, robotica, ADAS, videobewaking en drones. Ondertussen bevat de volledig uitgeruste Lattice sensAI-oplossingenstack alles wat nodig is om op FPGA gebaseerde AI/ML-applicaties te evalueren, ontwikkelen en implementeren.

Samenvattend, Lattice's waardepropositie voor automotive-applicaties met behulp van AEC-Q100 gekwalificeerde CrossLink -NX FPGA's omvatten laag vermogen (ze hebben hoge thermische marges met hun 28 nm-proces), hoge betrouwbaarheid (best-in-class), hoge prestaties (10G MIPI, SERDES en best-in-class I/O), klein formaat (resulterend in besparingen op het onroerend goed van het bestuur zonder afbreuk te doen aan de prestaties), hoge beveiliging (ze voldoen aan ISO 21434-richtlijnen en NIST SP 800-193 compliance), hoge functionele veiligheid (ze beschikken over een geplande ISO 26262 FuSa-conforme FPGA-gereedschapsketting voor veiligheidskritieke toepassingen ), en kosten-kenmerkvoordeel. We leven echt in een gouden tijdperk voor ADAS/IVI-toepassingen in de automobielsector.

JP Singh
Marketingmanager Automotive Segment, Lattice Semiconductor

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *