Generative KI wie Microsoft Copilot und andere KI-Anwendungen revolutionieren die Arbeitswelt, bringen jedoch auch erhebliche Herausforderungen im Bereich der Datensicherheit mit sich. Oft können gut gemeinte, aber leichtsinnige Handlungen dazu führen, dass vertrauliche Informationen unbeabsichtigt an die Öffentlichkeit gelangen. Der Microsoft Purview AI Hub bietet dir eine umfassende Lösung, um solche Risiken zu minimieren und den sicheren Einsatz generativer KI in deinem Unternehmen zu gewährleisten.
Wenn Neugier zu Datenlecks führt
Stellen wir uns eine typische Situation vor: Thomas, ein Manager bei der Firma Falkenberg, arbeitet an einem streng vertraulichen Projekt namens „Project Obsidian“. Nur wenige Mitarbeitende wissen von diesem Projekt. Eines Tages erwähnt er dieses Projekt beiläufig gegenüber seinem Kollegen Daniel, einem Projektmanager. Daniel wird neugierig und fragt Microsoft Copilot, ob es Informationen zu dem Projekt gibt. Copilot liefert ihm prompt eine Zusammenfassung und einen Link zum Dokument.
Aus noch grösserer Neugierde kopiert Daniel das Dokument und lässt es sich in ChatGPT zusammenfassen. Da die Falkenberg keine Richtlinien für den Umgang mit sensiblen Daten in generativen KI-Anwendungen implementiert hatte, wird die vertrauliche Information unwissentlich Teil der ChatGPT-Trainingsdaten. Das Ergebnis: ein schwerwiegendes Datenleck, welches der Falkenberg einen immensen Imageschaden und finanzielle Verluste einbringen kann.
Wie der AI Hub von Microsoft Purview solche Risiken minimiert
Genau solche Szenarien lassen sich mit dem AI Hub in Microsoft Purview verhindern. Der Hub bietet dir praktische Tools und Richtlinien, die den Umgang mit generativer KI sicher machen. Hier ein paar der wichtigsten Funktionen im Überblick:
Information Protection zur automatischen Kennzeichnung sensibler Dokumente
Mit Microsoft Information Protection kannst du Sensitivitätslabels auf Dokumentbibliotheken anwenden, sodass neue Dokumente automatisch den gleichen Schutz erben. Durch trainierbare KI-Modelle lassen sich sensible Dokumente, etwa zu Fusionen und Übernahmen (M&A), erkennen und automatisch labeln. Diese Labels sorgen dafür, dass Copilot und andere KI-Tools nur gesicherte Informationen bereitstellen und sensible Daten verschlüsselt und zugriffsbeschränkt bleiben.
Data Loss Prevention (DLP)-Richtlinien zur Verhinderung ungewollter Datenübertragungen
Mit DLP-Richtlinien im AI Hub kannst du festlegen, dass sensible Informationen nicht in generativen KI-Anwendungen wie ChatGPT oder anderen Consumer-Apps verwendet werden dürfen. Diese Richtlinien verhindern, dass vertrauliche Inhalte über Browser wie Edge, Chrome oder Firefox kopiert und in ungesicherte KI-Umgebungen übertragen werden. So stellst du sicher, dass vertrauliche Informationen nicht versehentlich in KI-Tools gelangen, die dein Unternehmen nicht kontrolliert – eine kleine Massnahme mit grosser Wirkung.
Insider Risk Policies zur Überwachung von Zugriffsverhalten und KI-Nutzung
Der AI Hub ermöglicht es dir, Insider Risk Policies zu erstellen, die Aktivitäten von Nutzenden überwachen, um ungewöhnliche Zugriffe oder riskantes Verhalten zu erkennen. Eine spezifische Richtlinie könnte beispielsweise festlegen, dass das Browsen auf externe KI-Assistenten wie ChatGPT überwacht wird, um sicherzustellen, dass vertrauliche Daten im Unternehmen bleiben. Solche Richtlinien helfen dir dabei, sicherzustellen, dass deine Kollegen nur genehmigte und überwachte KI-Anwendungen nutzen.
KI-gestützte Datenanalyse und Risikoüberwachung
Der AI Hub liefert dir detaillierte Einblicke in das Nutzerverhalten und zeigt, wie KI-Tools wie Copilot auf sensible Daten zugreifen. Du siehst, welche generativen KI-Apps genutzt werden, welche sensiblen Daten durch die KI-Tools fliessen und welche Nutzenden oder Aktionen ein Risiko darstellen könnten. Mit diesen Infos kannst du Sicherheitsrichtlinien gezielt anpassen und die Datensicherheit kontinuierlich optimieren.
Fazit: Sicherer Einsatz von Generativer KI mit dem Microsoft Purview AI Hub
Der Microsoft Purview AI Hub ist deine zentrale Plattform, um die Vorteile von generativen KI-Tools sicher zu nutzen. Mit Funktionen wie Information Protection, DLP und Insider Risk Policies kannst du sicherstellen, dass Datenlecks vermieden werden, sensible Informationen geschützt bleiben und nur autorisierte KI-Tools im Unternehmen eingesetzt werden. Zusätzlich bieten dir die KI-gestützten Analysen des AI Hubs wertvolle Einblicke, mit denen du das Sicherheitsrisiko von generativer KI laufend bewerten und steuern kannst.