Daten: Vollständige Transparenz und Kontrolle der Pipeline

Daten: Vollständige Transparenz und Kontrolle der Pipeline

Beitrag teilen

Eine neue Technologie bietet Unternehmen eine einzige Pipeline zur Verwaltung und Kontrolle ihrer gesammelten Daten im Petabyte-Bereich. Das ermöglicht ihnen zuverlässige und kosteneffiziente Analysen und Automatisierungen.

Moderne Clouds erzeugen eine enorme Menge und Vielfalt an Daten. Stakeholder in Unternehmen wünschen sich mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung ist jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig.

Anzeige

Datenpipelines, Analysen und Automatisierung erfordern hohe Sicherheitsstandards

Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigen Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.

Dynatrace OpenPipeline gibt Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibt.

Die Lösung ermöglicht diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace® OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.

Auf diese Weise können Unternehmen das ständig wachsende Volumen und die Vielfalt der Daten aus ihren hybriden und Multi-Cloud-Ökosystemen verwalten und mehr Teams in die Lage versetzen, auf die KI-gestützten Antworten und Automatisierungen der Dynatrace-Plattform zuzugreifen, ohne zusätzliche Tools zu benötigen.

Vorteile der Zusammenarbeit mit anderen Kerntechnologien der Dynatrace-Plattform

Dynatrace OpenPipeline arbeitet mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis. Dies bietet die folgenden Vorteile:

  • Datenanalyse im Petabyte-Maßstab: Nutzt zum Patent angemeldete Stream-Processing-Algorithmen, um einen drastisch erhöhten Datendurchsatz im Petabyte-Maßstab zu erreichen.
  • Einheitliche Datenerfassung: Diese ermöglicht Teams die Erfassung von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen und in beliebigen Formaten, einschließlich Dynatrace OneAgent, Dynatrace APIs, Open-Source-Frameworks wie OpenTelemetry und anderen Telemetriesignalen.
  • Echtzeit-Datenanalyse bei der Erfassung: Dies ermöglicht es Teams, unstrukturierte Daten, wie zum Beispiel Protokolle, in strukturierte und nutzbare Formate zu konvertieren – etwa die Umwandlung von Rohdaten in Zeitreihen, die Berechnung von Metriken oder die Erstellung von Geschäftsereignissen aus Log Lines – und zwar direkt bei der Erfassung.
  • Vollständiger Datenkontext: Der Kontext heterogener Datenpunkte – einschließlich Metriken, Traces, Logs, Verhalten, Geschäftsereignissen, Schwachstellen, Bedrohungen, Lebenszyklusereignissen und vielen anderen – wird beibehalten und spiegelt die verschiedenen Teile des Cloud-Ökosystems wider, aus denen sie stammen.
  • Datenschutz- und Sicherheitskontrollen: Benutzer haben die Kontrolle darüber, welche Daten sie analysieren, speichern oder von der Analyse ausschließen. Die Lösung umfasst vollständig anpassbare Sicherheits- und Datenschutzkontrollen, um die spezifischen Anforderungen und gesetzlichen Vorschriften der Kunden zu erfüllen, wie zum Beispiel ein automatisches und rollenbasiertes Verbergen von personenbezogenen Daten.
  • Kosteneffizientes Datenmanagement: Dies hilft Teams, die Erfassung doppelter Daten zu vermeiden und den Speicherplatzbedarf zu reduzieren, indem Daten in brauchbare Formate umgewandelt werden (z. B. von XML in JSON) und es Teams ermöglicht wird, unnötige Felder zu entfernen, ohne dass Erkenntnisse, Kontext oder Analyseflexibilität verloren gehen.

Fünf- bis zehnmal schnellere Verarbeitung der Daten

„OpenPipeline ist eine leistungsstarke Ergänzung der Dynatrace-Plattform“, so Bernd Greifeneder, CTO bei Dynatrace. „Sie bereichert, konvergiert und kontextualisiert die heterogenen Observability-, Sicherheits- und Geschäftsdaten, die aus den Clouds stammen, und bietet einheitliche Analysen für diese Daten und die Services, die sie repräsentieren. Wie beim Grail Data Lakehouse haben wir OpenPipeline für Analysen im Petabyte-Bereich entwickelt. OpenPipeline arbeitet mit der hypermodalen KI Davis von Dynatrace zusammen, um aussagekräftige Erkenntnisse aus den Daten zu extrahieren und so eine robuste Analyse und zuverlässige Automatisierung zu ermöglichen.

Unseren internen Tests zufolge ermöglicht OpenPipeline powered by Davis AI unseren Kunden eine fünf- bis zehnmal schnellere Datenverarbeitung als vergleichbare Technologien. Die Zusammenführung und Kontextualisierung von Daten innerhalb von Dynatrace erleichtert die Einhaltung gesetzlicher Vorschriften und die Durchführung von Audits, während mehr Teams innerhalb von Unternehmen einen unmittelbaren Einblick in die Leistung und Sicherheit ihrer digitalen Dienste erhalten.“

Mehr bei Dynatrace.com

 


Über Dynatrace

Dynatrace sorgt dafür, dass Software weltweit perfekt funktioniert. Unsere einheitliche Software-Intelligence-Plattform kombiniert breite und tiefe Observability und kontinuierliche Run-Time Application-Security mit den fortschrittlichsten AIOps, um Antworten und intelligente Automatisierung aus Daten in bemerkenswertem Umfang zu liefern. Dies ermöglicht es Unternehmen, den Cloud-Betrieb zu modernisieren und zu automatisieren, Software schneller und sicherer bereitzustellen und makellose digitale Erlebnisse zu gewährleisten.


Passende Artikel zum Thema

Neue Version der XDR AI PLATFORM

Die automatisierte XDR Plattform hat in der Version 13 ein verbessertes Verteidigungsarsenal zur Bekämpfung komplexer werdender Cyberbedrohungen. Eine KI hält ➡ Weiterlesen

Notfallplan: Kommunikation während einer Cyberattacke 

Cyberkriminalität und Datendiebstahl sind ein Supergau und können Unternehmen ins Straucheln bringen. Ein Notfallplan hilft allen Beteiligten, die Nerven und ➡ Weiterlesen

ROC – Risk Operations Center in der Cloud

Branchenweit ist es das erste seiner Art: Das Risk Operations Center (ROC) mit Enterprise TruRisk Management (ETM). Die Qualys-Lösung ermöglicht ➡ Weiterlesen

Report: Vertrauenswürdige Windows Anwendungen missbraucht

In seinem neuen Active Adversary Report 2024 belegt Sophos den Wolf im Schafspelz: Cyberkriminelle setzten vermehrt auf vertrauenswürdige Windows-Anwendungen für ➡ Weiterlesen

XDR: Schutz von Daten in Atlassian-Cloud-Applikationen

Mit einer neuen XDR-Erweiterung kann Bitdefender nun auch Daten in Atlassian-Cloud-Applikationen schützen. Somit ist das Überwachen, Erkennen und eine Reaktion auf ➡ Weiterlesen

Ausblick 2025: Lösungen für veränderte Angriffsflächen durch KI, IoT & Co

Die Angriffsfläche von Unternehmen wird sich im Jahr 2025 unweigerlich weiter vergrößern. Die datengetriebene Beschleunigung, einschließlich der zunehmenden Integration von ➡ Weiterlesen

Cloud Rewind für Wiederaufbau nach einer Cyberattacke

Eine neue Lösung für Cyber Recovery und zum Rebuild cloudzentrierter IT-Infrastrukturen. Commvault Cloud Rewind mit neuen Funktionen zum Auffinden von ➡ Weiterlesen

Medusa-Ransomware-Gruppe betreibt offenen Opfer-Blog im Web

Auch Cyberkriminelle pflegen neben der direkten Kommunikation mit dem Opfer ihre Außendarstellung. Denn Reputation ist ein wichtiger Erfolgsfaktor für Ransomware-as-a-Service-Unternehmen. Der ➡ Weiterlesen