• Security

Smarter Fortschritt, sichere Zukunft: Chancen und Risiken von KI-Tools

ChatGPT-Konnektoren sind für Entscheider und Ideenmacher gleichermaßen essenziell, um die Chancen der Digitalisierung sicher und effizient zu nutzen.

Was sind die sogenannten ChatGPT-Konnektoren?

Konnektoren ermöglichen es ChatGPT, sicher eine Verbindung zu Drittanbieteranwendungen wie Google Drive oder SharePoint herzustellen, sodass Sie Dateien durchsuchen, Live-Daten abrufen und Inhalte direkt im Chat referenzieren können.

Schon vor dem ersten Kaffee sind alle Berichte griffbereit, Meetings werden auf Zuruf geplant und wichtige Informationen sind blitzschnell sortiert. So zahlt sich Digitalisierung aus: Alles geht schneller, klüger und viel entspannter.

Doch die Kehrseite: Kommt ein Account in falsche Hände, kann aus dem praktischen Helfer schnell eine gefährliche Schwachstelle werden – und das ganz ohne großes Hacker-Wissen. Dann reicht ein kurzer Befehl, um vertrauliche Daten wie Passwörter oder geheime E-Mails sichtbar zu machen.

Um einen noch besseren Überblick zu bekommen, haben wir dazu unseren Security Experten Roman Petek befragt.
Seit Jahren beschäftige ich mich mit Automatisierung und Cyber Security. Die Veröffentlichung von ChatGPT zeigte mir sofort, dass KI die IT-Security grundlegend verändern wird: Sie kann Bedrohungen erklären, Reports vereinfachen oder sogar selbst Teil von Angriffen werden
Roman Petek Security Experte von A1 Telekom Austria
Welche Technologie steckt hinter ChatGPT?
ChatGPT nutzt sogenannte Large Language Models, also neuronale Netze, die Milliarden Texte analysiert haben. Dadurch kann es Sprache verstehen, kontextbezogen antworten und Codes generieren. Technisch basiert ChatGPT auf maschinellem Lernen, Transformer-Architekturen und Reinforcement Learning mit menschlichem Feedback.

Wo liegen die Grenzen von ChatGPT?
ChatGPT erkennt nur Muster und kann überzeugend falsche Infos liefern, da Kontext fehlt. Deshalb ist immer ein menschlicher Review nötig. Beim Programmieren stößt ChatGPT an Grenzen: Der Code ist oft nur oberflächlich und berücksichtigt keine komplexen Abhängigkeiten oder Sicherheitsaspekte. Es eignet sich für Prototypen, aber nicht als Ersatz für erfahrene Entwickler.

Wie zuverlässig sind die von ChatGPT generierten Inhalte?
Für einfache Aufgaben wie Textentwürfe, Analysen oder Zusammenfassungen ist ChatGPT sehr zuverlässig. Kritisch wird es, wenn Fakten überprüfbar oder kontextabhängig sind. In der Cyber Security gilt daher: KI darf unterstützen, aber nie Entscheidungen treffen.

Welche typischen Irrtümer gibt es zu ChatGPT?
Viele glauben, ChatGPT „weiß“ etwas – das stimmt nicht. Es interpretiert Sprache, aber versteht nicht wie ein Mensch. Außerdem unterschätzen viele das Datenschutzrisiko, wenn sie vertrauliche Informationen in öffentliche KI-Tools eingeben.

Welche Haltung habt ihr im A1-Team zu ChatGPT?
Wir sehen ChatGPT als Werkzeug, nicht als Wahrheit. Es unterstützt uns in der Kommunikation, Dokumentation und Ideenfindung – aber jede sicherheitsrelevante Aussage wird durch Fachwissen und Technologie verifiziert. 

Wer sind typische Angreifer und welche Ziele verfolgen sie?
Von staatlich gesteuerten Gruppen über Cybercrime-Organisationen bis zu Hacktivisten – sie alle nutzen KI, um ihre Erfolgschancen zu erhöhen. Ziel ist fast immer finanzieller Gewinn, Datenexfiltration oder Sabotage.

Wie unterscheidet sich ein Angriff auf ChatGPT von einem klassischen Angriff?
Bei klassischen Angriffen wird Infrastruktur kompromittiert – bei KI-Angriffen Information und Verhalten. Man greift also das Modell selbst oder seine Antworten an, nicht den Server dahinter.

Wie kann man sicherstellen, dass ChatGPT verantwortungsvoll eingesetzt wird?
Verantwortung beginnt mit Transparenz und Governance: Unternehmen müssen klare Richtlinien schaffen, wo und wie KI eingesetzt wird. Besonders wichtig ist der Umgang mit sensiblen Daten – keine Eingabe von Kundendaten, Passwörtern oder internen Dokumenten.

Was versteht man unter Angriffsszenarien im Kontext von ChatGPT?
Das reicht von Prompt-Injection-Angriffen, bei denen ChatGPT manipuliert wird, über Datenleaks durch unbedachte Eingaben bis hin zu KI-generierten Fake-Inhalten, die Vertrauen untergraben sollen.

Wie sollten Unternehmen reagieren, wenn sie einen KI-basierten Angriff vermuten?
Schnell, strukturiert und professionell. Zuerst isolieren, dann analysieren – idealerweise mit einem Incident-Response-Team, das Erfahrung mit KI-basierten Angriffsmustern hat. Dokumentation, Beweissicherung und Meldepflichten sind essenziell.

Welche Schutzmaßnahmen empfehlen Sie gegen Angriffe über Sprachmodelle?
Bewusstsein ist der wichtigste Schutz. Unternehmen sollten KI-Awareness-Trainings, Policy-Guidelines, Content-Filter und Threat-Intelligence-Monitoring implementieren. Technisch ist es wichtig, KI-Integrationen zu kontrollieren und Datenflüsse zu überwachen.

Was sind die größten Vorteile beim Einsatz von ChatGPT?
Im Security-Bereich sorgt ChatGPT für Effizienz, erstellt schnell Reports und erklärt unbekannte Technologien mit Sicherheitsaspekten. Zudem übersetzt es komplexe IT-Themen verständlich fürs Management und unterstützt so die Cyber Security-Entscheidungsfindung.
  • Security

Security im Home-Office: Worauf Unternehmen & Mitarbeiterende achten sollen

  • Security

Cyber Security Experte Abdelkader Cornelius im Interview

  • Security

Security neu denken: Wie Unternehmen beim digitalen Arbeiten sicher bleiben

Form

Öffentliche Seitenkommentare und Antworten

Page Comments