Risiken durch generative KI

Risiken durch generative KI

Beitrag teilen

Generative KI-Systeme wie ChatGPT und Copilot haben ihren Siegeszug gestartet und werden sich nicht mehr stoppen lassen. Technologien, die eigenständig Texte und Bilder über einfache Prompts erstellen und Ideen generieren können, haben die Art, wie wir kreativ denken und Probleme lösen, in kurzer Zeit signifikant verändert.

Obwohl die (generative) KI anfangs auf einige Vorbehalte stieß – insbesondere, was den Verlust von Arbeitsplätzen angeht – wird immer deutlicher, dass diese Technologie menschliche Fähigkeiten eher ergänzen, aber nicht ersetzen kann. Die generative KI entwickelt sich weiter und setzt sich in der Geschäftswelt immer mehr durch. Die Technologie wird zunehmend eingesetzt, um die Produktivität zu steigern, Innovationen zu fördern und die Entscheidungsfindung zu optimieren. Doch wie bei jeder neuen Technologie gibt es nicht nur positive Seiten. Der Einsatz von generativer KI hält eine Reihe von Herausforderungen bereit, um die sich Unternehmen kümmern müssen.

Anzeige

Auswirkungen auf Arbeitsplätze

Ohne Frage wird der Einsatz von künstlicher Intelligenz repetitive, mechanische und wenig kreative Aufgaben komplett übernehmen können. Damit werden solche Arbeitsplätze obsolet, bei denen die immer gleichen Tätigkeiten anfallen. Dazu gehören beispielsweise wiederkehrende Analysen und Buchungsvorgänge.

Allerdings entstehen auch neue Arbeitsplätze: Die Nachfrage nach Arbeitskräften, die mit KI-Systemen gezielt arbeiten und sie steuern sowie für spezielle Fälle einsetzen können, wird steigen. Sam Altman, CEO von OpenAI, betont in diesem Zusammenhang stets, wie wichtig die menschliche Interaktion sei. Altman sagt, dass generative KI heute zwar „einen Teil“ der Arbeit gut erledigt, letztlich jedoch immer ein Mensch benötigt wird. Unternehmen sind daher gefordert, Arbeitsplatzfragen offen anzugehen. Die Anwendung von KI bietet die Chance, dem Fachkräftemangel effektiv zu begegnen, ohne Mitarbeitende entlassen zu müssen. Allerdings ist es dafür notwendig, Veränderungen aktiv durch Weiterbildungen zu begleiten.

Halluzinierte „Fakten“

Eine KI kennt weder Gut noch Böse. Ethische Fragen sind ihr fremd, sie kaut die Daten wieder, mit denen sie trainiert wurde. Sie kann daher unbeabsichtigte Vorurteile aufgreifen und sogar verstärken – was den öffentlichen Einsatz zu einem Risiko macht. Das Ausmaß der Vorurteile in der KI hängt dabei von den Daten ab, mit denen das KI-Modell trainiert wurde. Schwierig ist auch die Nutzung von datenschutzrechtlich sensiblen Daten, das Einholen von Genehmigungen für die Datennutzung (Copyright) und das Erstellen von Inhalten, die gegen geltendes Recht verstoßen (wie beispielsweise generierte freizügige Bilder von prominenten Personen). Generell ist auch das Erfinden von Fakten („halluzinieren“ genannt) ein kritisches Problem, das aktuellen KI-Implementationen noch nicht gelöst haben.

Um dieser Art von Problemen zu begegnen, ist es wichtig, KI-Systeme mit sorgfältig ausgewählten, zuverlässigen und vielfältigen Daten zu trainieren. Außerdem sollten diese Systeme regelmäßig überwacht und bewertet werden, um mögliche Vorurteile und Fehlinformationen zu erkennen und zu beseitigen sowie sicherzustellen, dass KI-Systeme zuverlässig und unparteiisch informieren. Darüber hinaus sind die Transparenz der Trainingsdaten und eine offene Kommunikation über mögliche Tendenzen und Fehler der KI von entscheidender Bedeutung ‒ nicht nur für die Menschen, die die KI nutzen, sondern für alle Beteiligten.

Gesetzliche Vorgaben

Auch wenn die Einführung von Gesetzen und Verordnungen wie dem kürzlich verabschiedeten EU AI Act in der Öffentlichkeit ambivalent bewertet wird, wird sie in Kraft treten und zu einer ethischen und verantwortungsvollen Entwicklung von KI-Technologien und deren Umsetzung führen. Das mag die eine oder andere Entwicklung bremsen ‒ ist aber besser, als wenn dieser Bereich unreguliert bliebe. Viele Unternehmen haben sich mit den rechtlichen Regelungen noch überhaupt nicht beschäftigt, was böse Überraschungen geben kann, wenn sie eine KI-Lösung auf den Markt bringen wollen und dann erst die rechtlichen Rahmenbedinungen betrachten.

Eine Lösung für dieses Problem ist ein offenes Gespräch zwischen der Europäischen Union und den Interessenverbänden. Unternehmen, die KI-Technologien entwickeln, implementieren oder nutzen, sollten abschätzen können, wie sich die verabschiedeten Vorschriften auf ihre Tätigkeit auswirken würden. Auch akademische Einrichtungen und Experten für KI und Ethik können wertvolle Einblicke in die technischen und ethischen Aspekte der KI-Vorschriften geben. Durch diese transparente, in beide Richtungen gehende Kommunikation haben die Interessengruppen auch die Möglichkeit, ihr Fachwissen und ihre Erkenntnisse einzubringen, um die Wirksamkeit kommender Gesetze und Vorschriften zu verbessern.

Nachhaltigkeit und Energieverbrauch

Große KI-Modelle benötigen viel Rechenleistung und damit auch viel Energie. Daher wird KI oft vorschnell als umweltbelastende Technologie abgestempelt. KI hat jedoch auch das Potenzial, einen positiven Umweltbeitrag zu leisten. So kann generative KI Prozesse optimieren, Produkte verbessern und Unternehmen in die Lage versetzen, proaktiv und effizient mit Umweltfragen umzugehen. Auf diese Weise können Unternehmen ihren ökologischen Fußabdruck verringern und zugleich Kosten sparen.

Die Bewertung der Nachhaltigkeit von KI sollte außerdem nicht nur vom Energieverbrauch abhängen, sondern auch davon, wie diese Energie erzeugt wird. Unternehmen sollten grüne, erneuerbare Energiequellen und intelligente Anwendungen priorisieren, um die Umweltlast zu begrenzen. Nutzt KI nur regenerativ erzeugten Strom, führen die per KI erarbeiteten Effizienzgewinne und die Senkung von Ressourcennutzung zu einer positiven Gesamtbilanz.

Fazit

Wie jede neue Technologie erfordert der Einsatz einer generativen künstlichen Intelligenz auch eine gründliche Risiko-Analyse. In den vier genannten Bereichen „Auswirkung auf Arbeitsplätze“, „Ethische Implikationen“, „Gesetzliche Rahmenbedingungen“ und „Umweltaspekte“ sind Unternehmen gefordert, Strategien zu entwickeln und umzusetzen. Hierbei können sie sich an Vorreitern in der Branche orientieren oder mit einem Beratungsunternehmen zusammenarbeiten, dass sich auf diesen Bereich spezialisiert hat. Dann steht einem produktiven und effizienten Einsatz von KI nichts mehr im Wege. (Ulrich Faisst, CTO für die Region Central Europe bei Cognizant)

Mehr bei Cognizant.com

 


Über Cognizant

Cognizant entwickelt moderne Unternehmen. Wir helfen unseren Kunden, Technologien zu modernisieren, Prozesse neu zu gestalten und Erfahrungen zu transformieren – damit sie in unserer sich schnell verändernden Welt an der Spitze bleiben. Gemeinsam verbessern wir das tägliche Leben.


 

Passende Artikel zum Thema

Report 2024: Phishing und genAI nehmen zu

Der Cloud & Threat Report 2024 zeigt, dass Mitarbeiter dreimal häufiger auf Phishing-Links geklickt haben als 2023. Er deckt wachsende ➡ Weiterlesen

IoT- und OT-Sicherheit 2025

Cybersecurity-Experten erwarten in diesem Jahr eine Zunahme der Angriffe auf kritische Infrastrukturen und auf die Produktionsindustrie. Vor allem Organisationen, mit ➡ Weiterlesen

Cybersicherheit: Darauf müssen KRITIS-Unternehmen achten

In 2024 war NIS2 ein großes Thema im Bereich der Cybersicherheit. Und auch in 2025 und den kommenden Jahren wird ➡ Weiterlesen

Trends 2025: Industrie setzt auf die Cloud

Ein Experte für die Sicherheit cyber-physischer Systeme zeigt drei Trends für 2025 auf: NIS2 wird das Bewusstsein für Cyersicherheit weiter ➡ Weiterlesen

KI basierte Cybersicherheitstools – eine Vertrauensfrage

Trotz Hype: Knapp 60 Prozent der deutschen Unternehmen sehen potenzielle Mängel in Cybersicherheitstools, die auf generativer KI basieren, als herausragendes ➡ Weiterlesen

Nur Hype oder Realität: Vorhersagen Cybersicherheit 2025 

Vorhersagen zur Cybersicherheit gibt es jährlich zuhauf, viele davon sind voller Übertreibungen. Sinnvoller ist es, den Blick auf Daten und ➡ Weiterlesen

Trend: Cyberkriminelle arbeiten weltweit zusammen

Cyberkriminelle werden immer agiler und arbeiten weltweit zusammen. Das belegt der neue Forschungsbericht „Bridging Divides, Transcending Borders: The Current State ➡ Weiterlesen

BYOD: 4 Tipps um Sicherheitsrisiken zu minimieren

BYOD (Bring Your Own Device) bedeutet, dass Mitarbeiter in Unternehmen ihre persönlichen Geräte für die Arbeit nutzen dürfen. Daraus können ➡ Weiterlesen