Dati: visibilità e controllo completi della pipeline

Dati: visibilità e controllo completi della pipeline

Condividi post

Una nuova tecnologia offre alle aziende un’unica pipeline per gestire e controllare la raccolta dati su scala petabyte. Ciò consente di eseguire analisi e automatizzazioni affidabili ed economiche.

I cloud moderni generano un’enorme quantità e varietà di dati. Le parti interessate aziendali desiderano maggiori informazioni e automazione basate sui dati per prendere decisioni migliori, aumentare la produttività e ridurre i costi. Tuttavia, la creazione di un ambiente unificato e di facile utilizzo per l’analisi e l’automazione dei dati è difficile a causa della complessità e della diversità delle moderne architetture cloud e della varietà di strumenti di monitoraggio e analisi nelle aziende.

Le pipeline di dati, l'analisi e l'automazione richiedono elevati standard di sicurezza

Inoltre, le aziende devono garantire che le loro pipeline di dati, analisi e automazione siano conformi agli standard di sicurezza e privacy come il GDPR. Pertanto, le aziende hanno bisogno di visibilità e controllo sulle proprie pipeline di dati, controllando al contempo i costi e massimizzando il valore delle soluzioni di analisi e automazione dei dati esistenti.

Dynatrace OpenPipeline offre ai team aziendali, di sviluppo, di sicurezza e operativi visibilità e controllo completi sull'acquisizione dei dati, mantenendo il contesto dei dati e gli ambienti cloud da cui provengono.

La soluzione consente a questi team di raccogliere, convergere, instradare, arricchire, deduplicare, filtrare, mascherare e trasformare dati di osservabilità, sicurezza ed eventi aziendali da qualsiasi fonte, inclusi Dynatrace® OneAgent, API Dynatrace e OpenTelemetry, con tempi di conservazione personalizzabili per casi d'uso individuali .

Ciò consente alle organizzazioni di gestire il volume sempre crescente e la diversità dei dati provenienti dai loro ecosistemi ibridi e multi-cloud e di consentire a più team di accedere alle risposte e all'automazione basate sull'intelligenza artificiale della piattaforma Dynatrace senza la necessità di strumenti aggiuntivi.

Vantaggi derivanti dall'utilizzo di altre tecnologie principali della piattaforma Dynatrace

Dynatrace OpenPipeline funziona con altre tecnologie core della piattaforma Dynatrace, tra cui Grail Data Lakehouse, la topologia Smartscape e l'intelligenza artificiale ipermodale Davis. Ciò offre i seguenti vantaggi:

  • Analisi dei dati su scala petabyte: Sfrutta algoritmi di elaborazione del flusso in attesa di brevetto per ottenere un throughput dei dati notevolmente maggiore su scala di petabyte.
  • Raccolta dati uniforme: Ciò consente ai team di raccogliere dati su osservabilità, sicurezza ed eventi aziendali da qualsiasi fonte e in qualsiasi formato, inclusi Dynatrace OneAgent, API Dynatrace, framework open source come OpenTelemetry e altri segnali di telemetria.
  • Analisi dei dati in tempo reale durante l'acquisizione: Ciò consente ai team di convertire dati non strutturati, come i log, in formati strutturati e utilizzabili, ad esempio convertendo dati grezzi in serie temporali, calcolando metriche o creando eventi aziendali da righe di log, proprio nel momento dell'acquisizione.
  • Contesto dati completo: Il contesto di punti dati eterogenei - inclusi parametri, tracce, registri, comportamento, eventi aziendali, vulnerabilità, minacce, eventi del ciclo di vita e molti altri - viene mantenuto e riflette le diverse parti dell'ecosistema cloud da cui hanno origine.
  • Controlli sulla privacy e sulla sicurezza: Gli utenti hanno il controllo su quali dati analizzare, archiviare o escludere dall'analisi. La soluzione include controlli di sicurezza e privacy completamente personalizzabili per soddisfare i requisiti specifici dei clienti e i requisiti normativi, come l'occultamento automatico e basato sui ruoli dei dati personali.
  • Gestione dei dati economicamente vantaggiosa: Ciò aiuta i team a evitare la raccolta di dati duplicati e a ridurre i requisiti di archiviazione trasformando i dati in formati utilizzabili (ad esempio da XML a JSON) e consentendo ai team di rimuovere campi non necessari senza perdere informazioni, contesto o flessibilità di analisi.

Elaborazione dei dati da cinque a dieci volte più veloce

"OpenPipeline è una potente aggiunta alla piattaforma Dynatrace", ha affermato Bernd Greifeneder, CTO di Dynatrace. “Arricchisce, converge e contestualizza i dati eterogenei di osservabilità, sicurezza e business provenienti dai cloud e fornisce analisi unificate su tali dati e sui servizi che rappresentano. Come Grail Data Lakehouse, abbiamo creato OpenPipeline per analisi su scala petabyte. OpenPipeline funziona con l'intelligenza artificiale ipermodale Davis di Dynatrace per estrarre informazioni significative dai dati, consentendo un'analisi solida e un'automazione affidabile.

Secondo i nostri test interni, OpenPipeline basato su Davis AI consente ai nostri clienti di elaborare i dati da cinque a dieci volte più velocemente rispetto a tecnologie comparabili. Riunire e contestualizzare i dati all’interno di Dynatrace semplifica il rispetto dei requisiti normativi e la conduzione degli audit, offrendo allo stesso tempo a più team all’interno delle organizzazioni visibilità immediata sulle prestazioni e sulla sicurezza dei loro servizi digitali”.

Altro su Dynatrace.com

 


A proposito di Dynatrace

Dynatrace assicura che il software funzioni perfettamente in tutto il mondo. La nostra piattaforma unificata di software intelligence combina l'osservabilità ampia e profonda e la sicurezza delle applicazioni in runtime continuo con gli AIOps più avanzati per fornire risposte e automazione intelligente dai dati su scala notevole. Ciò consente alle organizzazioni di modernizzare e automatizzare le operazioni cloud, fornire software in modo più rapido e sicuro e garantire esperienze digitali impeccabili.


Articoli relativi all'argomento

Piattaforma di sicurezza informatica con protezione per ambienti 5G

Lo specialista della sicurezza informatica Trend Micro svela il suo approccio basato su piattaforma per proteggere la superficie di attacco in continua espansione delle organizzazioni, inclusa la sicurezza ➡ Leggi di più

Manipolazione dei dati, il pericolo sottovalutato

Ogni anno, il 31 marzo, la Giornata mondiale del backup serve a ricordare l'importanza di backup aggiornati e facilmente accessibili ➡ Leggi di più

Le stampanti come rischio per la sicurezza

I parchi stampanti aziendali stanno diventando sempre più un punto cieco e pongono enormi problemi in termini di efficienza e sicurezza. ➡ Leggi di più

La legge sull’AI e le sue conseguenze sulla protezione dei dati

Con la legge sull’AI è stata approvata la prima legge sull’IA che concede ai produttori di applicazioni AI un periodo di sei mesi e mezzo ➡ Leggi di più

Sistemi operativi Windows: quasi due milioni di computer a rischio

Non sono più disponibili aggiornamenti per i sistemi operativi Windows 7 e 8. Ciò significa lacune di sicurezza aperte e quindi utile e ➡ Leggi di più

L'intelligenza artificiale su Enterprise Storage combatte il ransomware in tempo reale

NetApp è uno dei primi a integrare l'intelligenza artificiale (AI) e il machine learning (ML) direttamente nello storage primario per combattere il ransomware ➡ Leggi di più

Suite di prodotti DSPM per la sicurezza dei dati Zero Trust

Il Data Security Posture Management – ​​in breve DSPM – è fondamentale per le aziende per garantire la resilienza informatica contro la moltitudine ➡ Leggi di più

Crittografia dei dati: maggiore sicurezza sulle piattaforme cloud

Le piattaforme online sono spesso bersaglio di attacchi informatici, come recentemente è successo a Trello. 5 suggerimenti per garantire una crittografia dei dati più efficace nel cloud ➡ Leggi di più