Contents
LiDAR is een van de meest populaire technologieën die wordt gebruikt voor dieptemeting en biedt een uitstekend bereik en nauwkeurigheid. Ga diep in op hoe LiDAR-camera's werken en de belangrijkste markten waarin ze aan kracht hebben gewonnen.
Sensingtechnologieën spelen een sleutelrol in het succes van embedded vision-systemen. Als gevolg hiervan kun je steeds meer geavanceerde technologieën ontdekken, met name 3D-dieptedetectietechnologieën zoals Lichtdetectie en Ranging (LiDAR), stereovisie, en
De oudste methode van 3D-dieptewaarneming is de passieve stereocamera's die werken door de ongelijkheid van pixels van twee synchroon werkende sensoren te berekenen. Passieve technologie had echter als nadeel dat deze camera's niet in het donker kunnen worden gebruikt. De kwaliteit van de diepte hangt ook af van de textuur van de objecten in de scène. Om dit te ondervangen, wordt actieve stereovisietechnologie gebruikt. Deze technologie maakt gebruik van een IR-patroonprojector om de scène te verlichten, wat de prestaties bij weinig licht verbetert en goed werkt bij scènes met objecten met een minder complexe textuur.
Stereocamera's waren echter niet in staat om grote dieptebereiken te bieden (in het bereik van 10 meter). Ook moeten de gegevens van stereocamera's verder worden verwerkt om diepte te berekenen. Verder voldoen stereocamera's vaak niet aan de vereiste nauwkeurigheidsniveaus, vooral wanneer de textuur van het doelobject ongelijk is. Dit is waar LiDAR kan helpen. Laten we eens kijken wat een LiDAR-sensor is, zijn componenten en de toepassingen waarin hij wordt gebruikt.
Wat is LiDAR-technologie?
LiDAR gebruikt de lichtdetectietechniek om diepte te berekenen. Het meet de tijd die elke laserpuls nodig heeft om terug te kaatsen van een obstakel. Deze gepulste lasermeting wordt gebruikt om 3D-modellen (ook wel puntenwolk genoemd) en kaarten van objecten en omgevingen te maken. LiDAR wordt ook wel 3D-laserscanning genoemd, wat op dezelfde manier werkt als RADAR, maar in plaats van radiogolven zendt het snelle lasersignalen uit tot 160.000 pulsen per seconde richting het object. Hieronder vindt u de formule om de exacte afstand van het object te berekenen.
Afstand van object = (lichtsnelheid x vliegtijd)/2
Wat zijn de twee soorten LiDAR-technologieën?
3D LiDAR-systemen kunnen op basis van hun functionaliteiten worden ingedeeld in Airborne LiDAR en Terrestrial LiDAR.
Figuur 1 – Twee soorten LiDAR (Bron: Elprocus)
LiDAR in de lucht
Een 3D LiDAR-sensor in de luchtwordt meestal geïnstalleerd op een drone of helikopter. Het stuurt de lichtpuls naar het grondoppervlak en wacht tot de puls terugkeert onmiddellijk nadat het het object heeft geraakt om de exacte afstandsmeting te geven. Airborne LiDAR kan verder worden onderverdeeld in Topologische LiDAR en Bathymetrische LiDAR. Bathymetrische LiDAR gebruikt waterdoorlatend groen licht om de zeebodem en rivierbeddingen te meten.
Terrestrische LiDAR
Het terrestrische LiDAR-systeemis geïnstalleerd op bewegende voertuigen of statieven op het aardoppervlak. Deze 3D LiDAR-sensor wordt gebruikt om de natuurlijke kenmerken van gebouwen in kaart te brengen en snelwegen nauwkeurig te observeren. Het is ook uitermate handig voor het maken van nauwkeurige 3D-modellen van erfgoedsites. Het terrestrische LiDAR-systeem kan verder worden onderverdeeld in Mobile LiDAR en Static LiDAR.
Hoe werkt een LiDAR-camera?
Het principe achter de werking van de LiDAR-technologie kan worden uitgelegd met de volgende gemeenschappelijke elementen:
- Laserbron
- Scanner
- Detector
- GPS-ontvanger
- Inertial Measurement Unit (IMU)
Hieronder staat de architectuur van een LiDAR-sensor:
Afbeelding 2 – Architectuur van de LiDAR-sensor (bron: RF Wireless-wereld)
Laserbron
De laserbron zendt laserpulsen uit op verschillende golflengten. De meest voorkomende laserbron is neodymium-gedoteerde yttrium-aluminium-granaat (Nd-YAG). Een topografische LiDAR-sensor maakt bijvoorbeeld gebruik van 1064 nm diode-gepompte Nd-YAG-lasers of de netvliesveilige golflengte van 1550 nm. Bathymetrische LiDAR-systemen daarentegen gebruiken 532nm dubbele diode-gepompte Nd-YAG-lasers om wateroppervlakken met minder demping te penetreren. Gewoonlijk worden zeer korte laserpulsen in het onzichtbare NIR-bereik gebruikt om het bereik van de systemen te vergroten.
Scanner en optica
De scanner gebruikt afbuigspiegels om de laserstraal af te wijken en een breed gezichtsveld (FoV) te bereiken. De scanner voor de dieptemeting is ontwikkeld met een grote afstand, een breed gezichtsveld en scannen op topsnelheid.
Detector
De detector vangt het gereflecteerde licht van de obstakels op. De primaire fotodetectoren zijn solid-state fotodetectoren zoals silicium lawine fotodiodes en fotomultipliers.
GPS-ontvanger
In een LiDAR-systeem in de lucht volgt de GPS-ontvanger de hoogte en locatie van de vliegtuigen. Deze variabele is belangrijk voor het verkrijgen van nauwkeurige terreinhoogtewaarden.
Inertial Measurement Units (IMU)
De IMU volgt de snelheid en oriëntatie van het vliegtuig (of elk ander autonoom voertuig waar een LiDAR is gebruikt). Deze metingen bepalen nauwkeurig de werkelijke positie van de puls op de grond.
Twee belangrijke use-cases van LiDAR-technologie
Nu we begrijpen hoe LiDAR-sensoren werken, laten we eens kijken naar twee van de meest populaire use-cases waar ze worden gebruikt.
Autonome voertuigen en apparaten
Autonome apparatuur zoals drones, autonome tractoren, robotarmen, enz. zijn afhankelijk van 3D-camera's met dieptedetectie voor obstakeldetectie, lokalisatie, navigatie en het oppakken of plaatsen van objecten. Obstakeldetectie vereist een lage latentie om snel te reageren en, in veel gevallen, een breder gezichtsveld. Voor voertuigen die met hoge snelheid rijden, is een LiDAR-sensor nodig. Het heeft een roterende 360-graden laserstraalfunctie, wat op zijn beurt betekent dat ze een nauwkeurig en nauwkeurig zicht hebben om obstakels en botsingen te vermijden. Aangezien LiDAR miljoenen datapunten in realtime genereert, maakt het gemakkelijk een nauwkeurige kaart van de steeds veranderende omgeving voor de veilige navigatie van autonome voertuigen. Bovendien stelt de afstandsnauwkeurigheid van LiDAR het systeem van het voertuig in staat om objecten te identificeren in een grote verscheidenheid aan weers- en lichtomstandigheden.
Autonomous Mobile Robots (AMR)
AMR's worden gebruikt voor het verzamelen, transporteren en sorteren van artikelen in productieruimten, magazijnen, winkels en distributiefaciliteiten zonder direct toezicht van een operator. Of het nu een pick-and-place-robot, patrouillerobot of landbouwrobot is, bijna alle AMR's moeten diepte meten. En met een LiDAR-systeem is er geen uitgebreide verwerking nodig om objecten te detecteren of kaarten te maken, waardoor het een uitstekende oplossing is voor AMR's.
Wat e-con Systems doet op het gebied van dieptecamera's
Wat e-con Systems doet op het gebied van dieptecamera's
e-con Systems, met 19 jaar ervaring in de embedded vision-ruimte, heeft klanten geholpen om camera's soepel in hun producten te integreren. We hebben met meerdere robot- en autonome mobiele robotbedrijven samengewerkt om onze dieptecamera's erin te integreren.
Hieronder volgen de stereocamera-oplossingen die worden aangeboden door e-con Systems:
- STEEReoCAM ™: 2 MP stereocamera voor NVIDIA Jetson Nano/AGX Xavier/TX2
- Tara – USB 3 stereocamera
- TaraXL – USB stereocamera voor NVIDIA GPU
De laatste update in deze ruimte is dat we werken aan een time of flight camera waarvan we verwachten dat deze de markt stormenderhand zal veroveren. Volg onze blog en social media kanalen om op de hoogte te blijven van de laatste ontwikkelingen op dit gebied. Ondertussen vindt u hieronder een aantal bronnen rond de time of flight-technologie die uw interesse kunnen wekken:
- Wat is een Time-of-Flight-sensor? Wat zijn de belangrijkste componenten van een Time-of-Flight-camera?
- Hoe Time-of-Flight (ToF) zich verhoudt tot andere 3D-technologieën voor dieptemapping
We hopen u vond deze inhoud nuttig en bent een stap dichter bij het begrijpen of LiDAR-technologie de ideale oplossing is voor uw toepassing. Als u nog vragen heeft over het onderwerp, kunt u een reactie achterlaten.
Als u geïntegreerde camera's in uw producten wilt integreren, kunt u ons schrijven op [email protected] U kunt ook onze Camera Selector bezoeken om een compleet beeld te krijgen van het cameraportfolio van e-con Systems.
Prabu Kumar
Chief Technology Officer en Head of Camera Products, e-con Systems
e-con Systems, met 19 jaar ervaring in de embedded vision-ruimte, heeft klanten geholpen om camera's soepel in hun producten te integreren. We hebben met meerdere robot- en autonome mobiele robotbedrijven samengewerkt om onze dieptecamera's erin te integreren.
Hieronder volgen de stereocamera-oplossingen die worden aangeboden door e-con Systems:
- STEEReoCAM ™: 2 MP stereocamera voor NVIDIA Jetson Nano/AGX Xavier/TX2
- Tara – USB 3 stereocamera
- TaraXL – USB stereocamera voor NVIDIA GPU
De laatste update in deze ruimte is dat we werken aan een time of flight camera waarvan we verwachten dat deze de markt stormenderhand zal veroveren. Volg onze blog en social media kanalen om op de hoogte te blijven van de laatste ontwikkelingen op dit gebied. Ondertussen vindt u hieronder een aantal bronnen rond de time of flight-technologie die uw interesse kunnen wekken:
- Wat is een Time-of-Flight-sensor? Wat zijn de belangrijkste componenten van een Time-of-Flight-camera?
- Hoe Time-of-Flight (ToF) zich verhoudt tot andere 3D-technologieën voor dieptemapping
We hopen u vond deze inhoud nuttig en bent een stap dichter bij het begrijpen of LiDAR-technologie de ideale oplossing is voor uw toepassing. Als u nog vragen heeft over het onderwerp, kunt u een reactie achterlaten.
Als u geïntegreerde camera's in uw producten wilt integreren, kunt u ons schrijven op [email protected] U kunt ook onze Camera Selector bezoeken om een compleet beeld te krijgen van het cameraportfolio van e-con Systems.
Prabu Kumar
Chief Technology Officer en Head of Camera Products, e-con Systems