Privacy voor machine learning (ML) en andere data-intensieve applicaties wordt steeds meer bedreigd door geavanceerde methoden voor het opnieuw identificeren van geanonimiseerde gegevens. Bovendien, terwijl versleuteling helpt de privacy te beschermen terwijl gegevens worden opgeslagen op harde schijven of over netwerken worden verplaatst, moeten de gegevens worden ontsleuteld voordat ze kunnen worden gebruikt, en dit stelt ze bloot aan kwaadwillende actoren en onbedoelde lekkage.

Privacy- Behoud van machine learning (PPML), inclusief snelle vooruitgang in cryptografie, statistieken en andere bouwsteentechnologieën, biedt krachtige nieuwe manieren om anonimiteit te behouden en privacy te beschermen.

Op de RSA Conference (RSAC) deze week in San Francisco zal ik deze ontwikkelingen bespreken en laten zien hoe ze de deur openen naar een spannende nieuwe categorie van collaboratieve ML-gebruikscasussen. De sessie, Protecting Privacy in a Data-Driven World: Privacy-Preserving Machine Learning, vindt plaats op 25 februari om 13.00 uur in Moscone West.

Advancing Privacy for Machine Learning

Traditionele benaderingen van privacy en ML zijn gebaseerd op het verwijderen van identificeerbare informatie, het versleutelen van gegevens in rust en tijdens de vlucht en het beperken van het delen van gegevens tot een klein aantal vertrouwde partners. Maar bij ML zijn vaak enorme datavolumes en talloze partijen betrokken, waarbij afzonderlijke organisaties de ML-modellen, trainingsgegevens, inferentiegegevens, infrastructuur en ML-service bezitten of leveren. Samenwerking betekende het risico lopen om de gegevens aan al deze partners bloot te stellen en aan niet-versleutelde gegevens te werken.

PPML combineert complementaire technologieën om deze privacy-uitdagingen aan te pakken. Door samen te werken, maken deze technologieën het mogelijk om meer te weten te komen over een populatie en tegelijkertijd gegevens over de individuen binnen de dataset te beschermen. Bijvoorbeeld:

  • Gefederaliseerd leren en meerpartijenberekening stellen instellingen in staat om gezamenlijk gegevens te bestuderen zonder de gegevens te delen en mogelijk de controle erover te verliezen. Naast het samenbrengen van eerder in silo's opgeslagen gegevens, helpen deze technologieën veilige toegang te bieden tot de enorme hoeveelheden gegevens die nodig zijn om de nauwkeurigheid van modeltrainingen te vergroten en nieuwe inzichten te genereren. Ze vermijden ook de kosten en kopzorgen van het verplaatsen van enorme datasets tussen partners.
  • Homomorfe versleuteling (HE) is een cryptosysteem met openbare/private sleutels waarmee toepassingen gevolgtrekkingen, trainingen en andere berekeningen kunnen uitvoeren op versleutelde gegevens, zonder de gegevens zelf bloot te leggen. Dramatische prestatieverbeteringen maken HE praktisch voor algemeen gebruik.
  • Differentiële privacy voegt wiskundige ruis toe aan persoonlijke gegevens, beschermt de individuele privacy maar geeft inzicht in patronen van groepsgedrag.

ML-samenwerking uitbreiden

De vooruitgang van PPML en zijn componenttechnologieën kan een nieuwe klasse van private ML-services mogelijk maken waarmee concurrenten kunnen samenwerken om wederzijds voordeel te behalen zonder een concurrentievoordeel te verliezen. Deze nieuwe samenwerkingsmethoden bieden bijzonder opwindende kansen in de gezondheidszorg, financiële dienstverlening en detailhandel – gebieden die zeer gevoelige gegevens over hun klanten en klanten verzamelen en die 22 procent van het Amerikaanse bruto binnenlands product (bbp) uitmaken [1]. Rivaliserende banken zouden gezamenlijke modellen kunnen creëren voor de bestrijding van het witwassen van geld, waardoor fraude mogelijk wordt teruggedrongen. Ziekenhuizen kunnen externe analyses van externe partijen gebruiken voor patiëntgegevens, wat mogelijk kan leiden tot nieuwe klinische inzichten en baanbrekende behandelingen. Retailers kunnen geld verdienen met hun aankoopgegevens terwijl ze de privacy van gebruikers beschermen en hun vermogen behouden om unieke producten en diensten te ontwikkelen.

Snellere time-to-value voor machine learning

Intel werkt op meerdere fronten om de voortgang op PPML te versnellen. Gegevenseigenaren kunnen HE-Transformer, de open source-backend van onze nGraph neurale netwerkcompiler, gebruiken om waardevolle inzichten te verkrijgen zonder de onderliggende gegevens bloot te leggen. Als alternatief kunnen modeleigenaren HE-Transformer gebruiken om hun modellen in gecodeerde vorm in te zetten, waardoor hun intellectuele eigendom wordt beschermd. Onderzoekers, ontwikkelaars en instellingen kunnen hun PPML-bouwstenen versnellen en hun gefedereerde leeromgevingen beschermen door ze uit te voeren in een vertrouwde uitvoeringsomgeving (TEE) zoals Intel® Software Guard Extensions (Intel SGX).

PPML en de bijbehorende componenttechnologieën zullen nieuwe kracht toevoegen aan AI- en ML-services en tegelijkertijd de bescherming van gevoelige gegevens versterken. Ik ben verheugd om deze technologieën met de RSAC-gemeenschap te bespreken en de resultaten te volgen naarmate PPML-toepassingen volwassen worden.

Intel bij RSAC

Drie extra RSAC 2020-sessies zullen andere aspecten van Intels werk om een ​​vertrouwde basis te leggen voor datagestuurd computergebruik.

  • Trends in beveiligingsbeleid en regelgeving voor ontwikkelaars. Intel's directeur van het wereldwijde cyberbeveiligingsbeleid, Dr. Amit Elazari, zal juridische en regelgevende kwesties bespreken die de toekomst van cyberbeveiliging vormgeven. 24 februari, 12:15 uur, Moscone West.
  • Nergens te verbergen: hoe hardwaretelemetrie en machine learning het leven van exploits moeilijk kunnen maken.Rahuldeva Ghosh en Zheng Zhang zullen overwegingen beschrijven voor het bouwen van CPU-telemetrie- en ML-oplossingen voor runtime-dreigings- en anomaliedetectie. Ghosh is een senior stafarchitect en Zheng is een engineeringmanager. 25 februari, 15:40 uur, Moscone West.
  • 'Ik sta nog steeds', zegt elk cyberbestendig apparaat. Hoofdingenieur Abhilasha Bhargav-Spantzel en senior firmware-engineer Nivedita Aggarwal zullen een nieuw perspectief presenteren op het creëren van veerkrachtige computersystemen in het licht van toenemende cyberdreigingen. 27 februari, 8 uur, Moscone West.

Meer informatie

  • Intel Software Guard-uitbreidingen
  • nGraph-HE: een graafcompiler voor diepgaand leren van homomorf gecodeerde gegevens
  • HE-Transformer voor nGraph: diep leren mogelijk maken van versleutelde gegevens li>
  • Oog op AI Podcast
  • Privacy nu: kunnen AI en privacy naast elkaar bestaan?

[1] Nieuwsbericht van het Bureau of Economic Analysis, 19 april 2019. https://www.bea.gov/system/files/2019-04/gdpind418_0.pdf

Casimir Wierzynski
Senior Director, Office of the CTO, Artificial Intelligence Products Group, Intel

 

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *