Daten: Vollständige Transparenz und Kontrolle der Pipeline

Daten: Vollständige Transparenz und Kontrolle der Pipeline

Beitrag teilen

Eine neue Technologie bietet Unternehmen eine einzige Pipeline zur Verwaltung und Kontrolle ihrer gesammelten Daten im Petabyte-Bereich. Das ermöglicht ihnen zuverlässige und kosteneffiziente Analysen und Automatisierungen.

Moderne Clouds erzeugen eine enorme Menge und Vielfalt an Daten. Stakeholder in Unternehmen wünschen sich mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung ist jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig.

Datenpipelines, Analysen und Automatisierung erfordern hohe Sicherheitsstandards

Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigen Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.

Dynatrace OpenPipeline gibt Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibt.

Die Lösung ermöglicht diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace® OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.

Auf diese Weise können Unternehmen das ständig wachsende Volumen und die Vielfalt der Daten aus ihren hybriden und Multi-Cloud-Ökosystemen verwalten und mehr Teams in die Lage versetzen, auf die KI-gestützten Antworten und Automatisierungen der Dynatrace-Plattform zuzugreifen, ohne zusätzliche Tools zu benötigen.

Vorteile der Zusammenarbeit mit anderen Kerntechnologien der Dynatrace-Plattform

Dynatrace OpenPipeline arbeitet mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis. Dies bietet die folgenden Vorteile:

  • Datenanalyse im Petabyte-Maßstab: Nutzt zum Patent angemeldete Stream-Processing-Algorithmen, um einen drastisch erhöhten Datendurchsatz im Petabyte-Maßstab zu erreichen.
  • Einheitliche Datenerfassung: Diese ermöglicht Teams die Erfassung von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen und in beliebigen Formaten, einschließlich Dynatrace OneAgent, Dynatrace APIs, Open-Source-Frameworks wie OpenTelemetry und anderen Telemetriesignalen.
  • Echtzeit-Datenanalyse bei der Erfassung: Dies ermöglicht es Teams, unstrukturierte Daten, wie zum Beispiel Protokolle, in strukturierte und nutzbare Formate zu konvertieren – etwa die Umwandlung von Rohdaten in Zeitreihen, die Berechnung von Metriken oder die Erstellung von Geschäftsereignissen aus Log Lines – und zwar direkt bei der Erfassung.
  • Vollständiger Datenkontext: Der Kontext heterogener Datenpunkte – einschließlich Metriken, Traces, Logs, Verhalten, Geschäftsereignissen, Schwachstellen, Bedrohungen, Lebenszyklusereignissen und vielen anderen – wird beibehalten und spiegelt die verschiedenen Teile des Cloud-Ökosystems wider, aus denen sie stammen.
  • Datenschutz- und Sicherheitskontrollen: Benutzer haben die Kontrolle darüber, welche Daten sie analysieren, speichern oder von der Analyse ausschließen. Die Lösung umfasst vollständig anpassbare Sicherheits- und Datenschutzkontrollen, um die spezifischen Anforderungen und gesetzlichen Vorschriften der Kunden zu erfüllen, wie zum Beispiel ein automatisches und rollenbasiertes Verbergen von personenbezogenen Daten.
  • Kosteneffizientes Datenmanagement: Dies hilft Teams, die Erfassung doppelter Daten zu vermeiden und den Speicherplatzbedarf zu reduzieren, indem Daten in brauchbare Formate umgewandelt werden (z. B. von XML in JSON) und es Teams ermöglicht wird, unnötige Felder zu entfernen, ohne dass Erkenntnisse, Kontext oder Analyseflexibilität verloren gehen.

Fünf- bis zehnmal schnellere Verarbeitung der Daten

„OpenPipeline ist eine leistungsstarke Ergänzung der Dynatrace-Plattform“, so Bernd Greifeneder, CTO bei Dynatrace. „Sie bereichert, konvergiert und kontextualisiert die heterogenen Observability-, Sicherheits- und Geschäftsdaten, die aus den Clouds stammen, und bietet einheitliche Analysen für diese Daten und die Services, die sie repräsentieren. Wie beim Grail Data Lakehouse haben wir OpenPipeline für Analysen im Petabyte-Bereich entwickelt. OpenPipeline arbeitet mit der hypermodalen KI Davis von Dynatrace zusammen, um aussagekräftige Erkenntnisse aus den Daten zu extrahieren und so eine robuste Analyse und zuverlässige Automatisierung zu ermöglichen.

Unseren internen Tests zufolge ermöglicht OpenPipeline powered by Davis AI unseren Kunden eine fünf- bis zehnmal schnellere Datenverarbeitung als vergleichbare Technologien. Die Zusammenführung und Kontextualisierung von Daten innerhalb von Dynatrace erleichtert die Einhaltung gesetzlicher Vorschriften und die Durchführung von Audits, während mehr Teams innerhalb von Unternehmen einen unmittelbaren Einblick in die Leistung und Sicherheit ihrer digitalen Dienste erhalten.“

Mehr bei Dynatrace.com

 


Über Dynatrace

Dynatrace sorgt dafür, dass Software weltweit perfekt funktioniert. Unsere einheitliche Software-Intelligence-Plattform kombiniert breite und tiefe Observability und kontinuierliche Run-Time Application-Security mit den fortschrittlichsten AIOps, um Antworten und intelligente Automatisierung aus Daten in bemerkenswertem Umfang zu liefern. Dies ermöglicht es Unternehmen, den Cloud-Betrieb zu modernisieren und zu automatisieren, Software schneller und sicherer bereitzustellen und makellose digitale Erlebnisse zu gewährleisten.


Passende Artikel zum Thema

Cybersecurity-Plattform mit Schutz für 5G-Umgebungen

Cybersecurity-Spezialist Trend Micro stellt seinen plattformbasierten Ansatz zum Schutz der ständig wachsenden Angriffsfläche von Unternehmen vor, einschließlich der Absicherung von ➡ Weiterlesen

Datenmanipulation, die unterschätzte Gefahr

Jedes Jahr erinnert der World Backup Day am 31. März aufs Neue daran, wie wichtig eine aktuelle und leicht zugängliche ➡ Weiterlesen

Drucker als Sicherheitsrisiko

Die Flotte der Drucker von Unternehmen wird zunehmend zum blinden Fleck und birgt enorme Probleme für deren Effizienz und Sicherheit. ➡ Weiterlesen

Der AI Act und seine Folgen beim Datenschutz

Mit dem AI Act ist das erste Gesetz für KI abgesegnet und gibt Herstellern von KI-Anwendungen zwischen sechs Monaten und ➡ Weiterlesen

Windows Betriebssysteme: Fast zwei Millionen Rechner gefährdet

Für die Betriebssysteme Windows 7 und  8 gibt es keine Updates mehr. Das bedeutet offene Sicherheitslücken und damit lohnende und ➡ Weiterlesen

KI auf Enterprise Storage bekämpft Ransomware in Echtzeit

Als einer der ersten Anbieter integriert NetApp künstliche Intelligenz (KI) und maschinelles Lernen (ML) direkt in den Primärspeicher, um Ransomware ➡ Weiterlesen

DSPM-Produktsuite für Zero Trust Data Security

Data Security Posture Management – kurz DSPM – ist entscheidend für Unternehmen, um Cyber Resilience gegenüber der Vielzahl sich ständig ➡ Weiterlesen

Datenverschlüsselung: Mehr Sicherheit auf Cloud-Plattformen

Online-Plattformen sind häufig Ziel von Cyberangriffen, so wie kürzlich Trello. 5 Tipps sorgen für eine wirksamere Datenverschlüsselung in der Cloud ➡ Weiterlesen