Deze blogpost is oorspronkelijk gepubliceerd op de Jon Peddie Research-website. Het is hier herdrukt met toestemming van Jon Peddie Research.
We zijn overspoeld met gegevens; het is net als het weer, we weten het, we kunnen het niet aan. We worstelen om er grip op te krijgen, het te begrijpen, het te gebruiken en te exploiteren, maar het wordt sneller gegenereerd dan we het kunnen benutten. Gegevens zijn altijd voor ons beschikbaar geweest; het verschil is nu dat het allemaal (of het meeste) in digitale vorm is, en daarom gemakkelijker op te slaan & mdash; en we bewaren het, en bewaren elk laatste beetje dat het lijkt. De gegevens zijn afkomstig van creditcardtransacties, de verkoop van alles en nog wat je maar kunt bedenken, sensoren op afstand en het internet der dingen, simulaties, wetenschappelijke experimenten, monitoring van bedrijfsprocessen, beveiligingsgegevens, sociale media, opnameapparatuur en meer.
Wereldwijde gegevens worden steeds complexer en heterogener, en er wordt voorspeld dat ze zullen stijgen tot meer dan 100 zettabytes, dat is het equivalent van een schijfstation van 10 miljard pc's, 10 miljard.
Niet alleen is het volume al enorm en toenemend, maar het wordt ook steeds belangrijker vanwege veiligheid, beveiliging en forensisch onderzoek.
De methoden zijn niet nieuw en omvatten gegevensanalyse, simulatie en interactieve verkenning met behulp van 2D- en 3D-visualisatietechnieken. Nieuw is de gebruiksvriendelijkheid, het gebruiksgemak en vooral de compatibiliteit van data. Terwijl gegevens van entiteit A nooit door entiteit B kunnen worden gelezen, worden die kunstmatige barrières weggevaagd door een combinatie van samenwerking op het gebied van internationale normen, robuustere programma's voor het vertalen van bestanden en AI die wordt gebruikt om de bedoeling en context van de te maken gegevens te ontcijferen. het nuttiger. De behoefte om grip te krijgen op al deze data over verschillende disciplines heen heeft geleid tot de vorming van nationale en institutionele Data Science Institutes and Centers. Gedreven door nationale prioriteit, trekken ze steun voor onderzoek en ontwikkeling binnen hun organisaties en instellingen om interdisciplinaire expertise samen te brengen om een breed scala aan problemen aan te pakken. En visual computing is de verzameling tools en methodologieën die worden gebruikt om informatie uit data te halen.
Dit zijn grote ideeën en grote ontwikkelingen die nodig en geëist zijn door de aanval van alle big data.
Dit boek, Data Science and Visual Computing, brengt het werk van experts, academici, commerciële en wetenschappelijke onderzoekers en ontwikkelaars samen in één boekdeel. Het is ontworpen als referentie en biedt richtlijnen voor het begrijpen van de betekenis en impact van het visualiseren van big data als een methode om het te beheren. Mensen zijn visuele verwerkers. We begrijpen dingen door de relatie tussen de verschillende elementen te zien. Het vertalen van geestdodende gegevens in beelden helpt ons deze te begrijpen, de verschillen te zien, de trends te ontdekken en te anticiperen op de problemen. Data Science en Visual Computing laten je zien wat er wordt gedaan, waar aan wordt gewerkt en geven je wat hoop en vertrouwen dat we inderdaad grip kunnen krijgen op de stroom gegevens en deze in ons voordeel kunnen gebruiken. Voor degenen die meer informatie willen over de huidige R&D, is er een lijst met verdere literatuur en een uitgebreide set referenties.
Jon Peddie
Jon Peddie Research