Daten: Vollständige Transparenz und Kontrolle der Pipeline

Daten: Vollständige Transparenz und Kontrolle der Pipeline

Beitrag teilen

Eine neue Technologie bietet Unternehmen eine einzige Pipeline zur Verwaltung und Kontrolle ihrer gesammelten Daten im Petabyte-Bereich. Das ermöglicht ihnen zuverlässige und kosteneffiziente Analysen und Automatisierungen.

Moderne Clouds erzeugen eine enorme Menge und Vielfalt an Daten. Stakeholder in Unternehmen wünschen sich mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung ist jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig.

Anzeige

Datenpipelines, Analysen und Automatisierung erfordern hohe Sicherheitsstandards

Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigen Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.

Dynatrace OpenPipeline gibt Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibt.

Die Lösung ermöglicht diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace® OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.

Auf diese Weise können Unternehmen das ständig wachsende Volumen und die Vielfalt der Daten aus ihren hybriden und Multi-Cloud-Ökosystemen verwalten und mehr Teams in die Lage versetzen, auf die KI-gestützten Antworten und Automatisierungen der Dynatrace-Plattform zuzugreifen, ohne zusätzliche Tools zu benötigen.

Vorteile der Zusammenarbeit mit anderen Kerntechnologien der Dynatrace-Plattform

Dynatrace OpenPipeline arbeitet mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis. Dies bietet die folgenden Vorteile:

  • Datenanalyse im Petabyte-Maßstab: Nutzt zum Patent angemeldete Stream-Processing-Algorithmen, um einen drastisch erhöhten Datendurchsatz im Petabyte-Maßstab zu erreichen.
  • Einheitliche Datenerfassung: Diese ermöglicht Teams die Erfassung von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen und in beliebigen Formaten, einschließlich Dynatrace OneAgent, Dynatrace APIs, Open-Source-Frameworks wie OpenTelemetry und anderen Telemetriesignalen.
  • Echtzeit-Datenanalyse bei der Erfassung: Dies ermöglicht es Teams, unstrukturierte Daten, wie zum Beispiel Protokolle, in strukturierte und nutzbare Formate zu konvertieren – etwa die Umwandlung von Rohdaten in Zeitreihen, die Berechnung von Metriken oder die Erstellung von Geschäftsereignissen aus Log Lines – und zwar direkt bei der Erfassung.
  • Vollständiger Datenkontext: Der Kontext heterogener Datenpunkte – einschließlich Metriken, Traces, Logs, Verhalten, Geschäftsereignissen, Schwachstellen, Bedrohungen, Lebenszyklusereignissen und vielen anderen – wird beibehalten und spiegelt die verschiedenen Teile des Cloud-Ökosystems wider, aus denen sie stammen.
  • Datenschutz- und Sicherheitskontrollen: Benutzer haben die Kontrolle darüber, welche Daten sie analysieren, speichern oder von der Analyse ausschließen. Die Lösung umfasst vollständig anpassbare Sicherheits- und Datenschutzkontrollen, um die spezifischen Anforderungen und gesetzlichen Vorschriften der Kunden zu erfüllen, wie zum Beispiel ein automatisches und rollenbasiertes Verbergen von personenbezogenen Daten.
  • Kosteneffizientes Datenmanagement: Dies hilft Teams, die Erfassung doppelter Daten zu vermeiden und den Speicherplatzbedarf zu reduzieren, indem Daten in brauchbare Formate umgewandelt werden (z. B. von XML in JSON) und es Teams ermöglicht wird, unnötige Felder zu entfernen, ohne dass Erkenntnisse, Kontext oder Analyseflexibilität verloren gehen.

Fünf- bis zehnmal schnellere Verarbeitung der Daten

„OpenPipeline ist eine leistungsstarke Ergänzung der Dynatrace-Plattform“, so Bernd Greifeneder, CTO bei Dynatrace. „Sie bereichert, konvergiert und kontextualisiert die heterogenen Observability-, Sicherheits- und Geschäftsdaten, die aus den Clouds stammen, und bietet einheitliche Analysen für diese Daten und die Services, die sie repräsentieren. Wie beim Grail Data Lakehouse haben wir OpenPipeline für Analysen im Petabyte-Bereich entwickelt. OpenPipeline arbeitet mit der hypermodalen KI Davis von Dynatrace zusammen, um aussagekräftige Erkenntnisse aus den Daten zu extrahieren und so eine robuste Analyse und zuverlässige Automatisierung zu ermöglichen.

Unseren internen Tests zufolge ermöglicht OpenPipeline powered by Davis AI unseren Kunden eine fünf- bis zehnmal schnellere Datenverarbeitung als vergleichbare Technologien. Die Zusammenführung und Kontextualisierung von Daten innerhalb von Dynatrace erleichtert die Einhaltung gesetzlicher Vorschriften und die Durchführung von Audits, während mehr Teams innerhalb von Unternehmen einen unmittelbaren Einblick in die Leistung und Sicherheit ihrer digitalen Dienste erhalten.“

Mehr bei Dynatrace.com

 


Über Dynatrace

Dynatrace sorgt dafür, dass Software weltweit perfekt funktioniert. Unsere einheitliche Software-Intelligence-Plattform kombiniert breite und tiefe Observability und kontinuierliche Run-Time Application-Security mit den fortschrittlichsten AIOps, um Antworten und intelligente Automatisierung aus Daten in bemerkenswertem Umfang zu liefern. Dies ermöglicht es Unternehmen, den Cloud-Betrieb zu modernisieren und zu automatisieren, Software schneller und sicherer bereitzustellen und makellose digitale Erlebnisse zu gewährleisten.


Passende Artikel zum Thema

Zunahme von Fog- und Akira-Ransomware

Im September gab SonicWall bekannt, dass CVE-2024-40766 aktiv ausgenutzt wird. Zwar hat Arctic Wolf keine eindeutigen Beweise dafür, dass diese ➡ Weiterlesen

Chefs meinen IT-Security sei ganz „easy“

Jeder vierte Verantwortliche für IT-Security in Unternehmen muss sich den Vorwurf von Vorgesetzten anhören, Cybersicherheit sei doch ganz einfach. Externe ➡ Weiterlesen

Security Report deckt Missbrauch von Blockchains für Malware auf

Der neue Internet Security Report von WatchGuard deckt unter anderem die Instrumentalisierung von Blockchains als Hosts für schädliche Inhalte auf. ➡ Weiterlesen

PKI-Zertifikate sicher verwalten

Mit der Zunahme von Hard- und Software nimmt die Anzahl von Zertifikaten für diese Geräte zu. Ein Cybersicherheitsunternehmen hat jetzt ➡ Weiterlesen

Cloud-Sicherheitsstrategien: eBook gibt Tipps

Cloud-Computing nimmt immer weiter zu. Das ebook erklärt effektive Cloud-Sicherheitsstrategien, inklusive Identitätsmodernisierung, KI-Herausforderungen und Secure-by-Design-Strategien, und bietet Unternehmen umsetzbare Erkenntnisse ➡ Weiterlesen

Mit KI-Technologie Geschäftsanwendungen sicher verwalten

Ein  Anbieter von Cybersicherheitslösungen, launcht die neueste Version seiner Sicherheitsmanagement-Plattform. Mithilfe von moderner KI-Technologie lassen sich Geschäftsanwendungen schnell und präzise ➡ Weiterlesen

Open-Source-Tool zur Analyse von Linux-Malware

Mit dem neuen Open-Source-Tool können SOC-Teams und Entwickler die Sicherheit überwachen und Bedrohungen untersuchen. Traceeshark kombiniert die dynamische Analyse von ➡ Weiterlesen

Cyberkriminalität: Aktuelle Bedrohungen und Taktiken

Ein Anbieter im Bereich Connectivity Cloud stellt seine Forschungsdaten zur weltweiten Cyberkriminalität der Allgemeinheit zur Verfügung. Sie haben Angreifer aufgespürt, ➡ Weiterlesen