Een van de meest opwindende onderwerpen in de technische wereld is kunstmatige intelligentie, of AI. Van zijn sciencefictionachtige belofte van intelligente machines tot zijn meer praktische implementaties als extra slimmigheid in verbonden apparaten, AI is een van de krachtigste technologieën die nu beschikbaar zijn.

Maar, zoals het bekende Peter Parker-principe voorschrijft: “Met grote kracht komt grote verantwoordelijkheid” en zo is het ook met AI. Vooral bedrijven die AI-producten en -diensten bouwen, zijn zich terdege bewust geworden van de potentiële uitdagingen wanneer AI niet op een oordeelkundige, eerlijke en billijke manier wordt gebruikt.

Een interessant voorbeeld is de nieuwste versie van de sensAI-oplossingstack van Lattice Semiconductor en de toepassingen ervan op clientapparaten zoals pc's. Lattice werkt samen met grote pc-OEM's en combineert FPGA's met een laag vermogen, zoals hun CrossLink-NX-chipfamilie, met versie 4.1 van sensAI-software om een ​​reeks toepassingen mogelijk te maken die zowel de ervaring voor de gebruiker verbeteren, terwijl ze tegelijkertijd uitbreiden levensduur van de batterij op notebook-pc's.

Alle toepassingen gebruiken gegevens van de camera aan boord van de pc om het individu voor de laptop, een andere persoon erachter, de omgeving van de pc, enz. als sensorinvoerbron te analyseren. Van daaruit worden de beeldgegevens geanalyseerd door de FPGA met behulp van getrainde op AI gebaseerde inferentiemodellen en vervolgens worden verschillende acties ondernomen. Detectie van gebruikersaanwezigheid schakelt het scherm in (of uit), afhankelijk van of een persoon wordt gedetecteerd. Aandachtsregistratie doet vergelijkbare batterijbesparende trucs op basis van het feit of de persoon naar of van het scherm kijkt of niet. Detectie van toeschouwers bepaalt of een andere gebruiker over de schouder van de primaire gebruiker meekijkt en het scherm uitschakelt of andere acties onderneemt om de privacy van de gegevens op het scherm te beschermen. En tot slot zorgt een face framing-functie ervoor dat op video gebaseerde samenwerkingstools het best mogelijke beeld en de juiste uitsnede van het gezicht van de gebruiker krijgen van de ingebouwde camera van de pc.

Wat cruciaal is voor al deze verschillende toepassingen, is dat ze een nauwkeurige identificatie van een grote verscheidenheid aan verschillende mensen vereisen. Hoewel dat een eenvoudige vereiste lijkt, blijkt het een uitdaging te zijn, vooral voor het identificeren van gekleurde mensen. Helaas bevatten veel van de afbeeldingsgegevenssets die worden gebruikt om AI-modellen te trainen niet genoeg afbeeldingen of voldoende verscheidenheid aan mensen met verschillende huidtinten. Als gevolg hiervan worden met name mensen met donkere huidtinten vaak niet nauwkeurig herkend, wat voor sommige mensen leidt tot slechte applicatie en functionele prestaties. Dit is niet alleen frustrerend, het is gewoon niet alleen en is een sprekend voorbeeld van hoe impliciete vooringenomenheid kan sijpelen in zaken als technologische functies.

Om dit soort problemen te voorkomen, moeten op AI gerichte ontwikkelaars veel bewuster worden over de soorten datasets die ze gebruiken om hun modellen te trainen, en hoe uitgebreid de resultaten van hun modellen worden getest. Het is dit soort doordachte, ethische benadering van AI die een significant verschil begint te maken voor mensen uit ondervertegenwoordigde gemeenschappen. Immers, waarom zou de kleur van je huid, of dat je iets over je haar draagt, bepalen hoe goed een op technologie gebaseerde functie werkt? Het mag duidelijk niet, maar er zijn vastberaden, gerichte inspanningen voor nodig om ervoor te zorgen dat dit het geval is.

Bedrijven die AI-toepassingen serieus willen benaderen vanuit een eerlijk en ethisch perspectief, zoals Lattice Semiconductor heeft toegezegd te doen, denken over deze en vele andere soorten voorbeelden na terwijl ze hun AI-softwaretools blijven ontwikkelen. En gezien het belang van de gegevens die worden gebruikt om modellen te trainen die met deze tools zijn gebouwd, is er een groeiende inzet om datasets uit te breiden naar meerdere openbare bronnen, waarbij veel bedrijven ook op zoek zijn naar datasets die specifiek zijn gebouwd met een overvloed aan verschillende huidtinten , hoofddeksels en andere variaties die in het verleden over het hoofd werden gezien.

Alleen met dit soort doordachte, opzettelijke stappen kunnen bedrijven de mogelijke vooroordelen vermijden die al in sommige van de huidige AI-modellen zijn geslopen om een betere, nauwkeurigere en meer inclusieve gebruikerservaring te bieden. Hoewel het misschien niet een onderwerp was waar veel organisaties eerder veel over nadachten, is het ongetwijfeld een kritieke kwestie geworden die in de toekomst zeker veel meer aandacht zal krijgen.

Bob O'Donnell
President en hoofdanalist, TECHnalysis Research, LLC

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *