Steigern Sie die Verfügbarkeit von KI und reduzieren Sie Risiken

Decken Ihre GenAI-Tools Lücken im Bereich der Informationssicherheit auf?

Generative KI (GenAI) befindet sich an einem Wendepunkt. Der Einsatz in Unternehmen ist in vollem Gange und führt zu erheblichen Produktivitätssteigerungen. Und die Unternehmen stehen in den Startlöchern und planen, die Ausgaben für GenAI in diesem Jahr um das Zwei- bis Fünffache zu erhöhen, so das VC-Unternehmen Andreesen Horowitz.1

Der Markt ist voll von GenAI-Anbieterlösungen, die den Mitarbeitern die Möglichkeit der konversationellen Suche bieten. Die Aussicht ist verlockend: Inhalte, die normalerweise im Verborgenen liegen, werden mit Hilfe von KI in Antworten verwandelt.

Es gibt hierbei nur ein Problem: Dieses Versprechen entspricht nicht immer der Realität. Viele GenAI-Tools erzeugen möglicherweise mehr Rauschen und weniger Relevanz für die Nutzer. Das kann zu mangelhaften Antworten, schlechten Entscheidungen und einem Verlust des Vertrauens der Mitarbeiter führen. Noch bedenklicher ist es, dass vertrauliche Unternehmensinhalte offengelegt werden, wenn sie nicht vollständig auf KI vorbereitet sind. Das öffnet Tür und Tor für organisatorische Risiken.

Befürchten Sie, dass Ihre GenAI-Investitionen ins Leere laufen könnten? Lassen Sie uns einige häufige Lücken in der Informationssicherheit untersuchen und wie GenAI Content Management helfen kann, diese zu schließen.

Oversharing kann überfordernd sein

Stellen Sie sich vor, ein Mitarbeiter fragt GenAI: „Werde ich morgen gefeuert?“ Zu seinem Entsetzen wird die Frage beantwortet, und zwar mit einem Verweis auf eine interne Mitarbeiterliste, die von der Personalabteilung und der Geschäftsleitung zusammengestellt wurde. Diese Liste ist zwar nicht im täglichen Zugriff, aber dennoch in der Reichweite der KI.

Die gemeinsame Nutzung und Bearbeitung von Dokumenten ist zu einer gängigen Praxis der Zusammenarbeit geworden. Die Standardeinstellung für die gemeinsame Nutzung in den meisten Office Productivity Suites sieht vor, dass jeder, der Zugriff auf einen Link hat, Lese- oder Schreibzugriff erhält. Das Problem dabei ist: Auch GenAI hat Zugriff auf den Link. Das bedeutet, dass jeder in der Organisation, der GenAI nutzt, auch Zugriff auf den Inhalt des Dokuments hat, wenn er nur die richtige Frage stellt. Dieses Problem wurde als „Oversharing“ beschrieben und ist durchaus ein Problem, das sich auf Unternehmen auswirkt, die KI-Lösungen für ihre Office Productivity Suites einsetzen.

Schwachstellen in der Rechteverwaltung

Viele GenAI-Tools weisen Lücken im Berechtigungsmanagement des Unternehmens auf, da sie Antworten nicht filtern, wenn vertrauliche Inhalte unkenntlich gemacht wurden, weil sie nicht ordnungsgemäß freigegeben wurden.  Ohne die korrekte Anwendung von Berechtigungsgruppen und die Nutzung von Systemfunktionen innerhalb des KI-Tools selbst erhalten Mitarbeiter zu umfangreichem Zugriff. Dies verstößt gegen Datenschutzrichtlinien und kann zu Vorfällen in der Informationssicherheit führen.

Viele GenAI-Tools gehen auch davon aus, dass Unternehmen bereits einen hohen Reifegrad bei der Kennzeichnung, Klassifizierung und Überwachung von Content erreicht haben. Ohne die Möglichkeit, relevante Informationen für bestimmte Abteilungen, Projekte und Anwendungsfälle zu kuratieren, liefern diese Tools Zugang und Informationen, die weit über den gewünschten „Wissensbedarf“ hinausgehen. Sie generieren dann zu allgemeine oder zu weit gefasste Antworten, anstatt die Ergebnisse auf eine kleine Teilmenge von Informationen zu beschränken, um so die relevantesten und hilfreichsten Antworten zu liefern.

Frei verfügbare KI-Tools für Endverbraucher

Wenn Mitarbeiter eine schnelle Abfrage über öffentlich verfügbare KI-Apps für Endverbraucher durchführen, sind die Risiken größer als der Nutzen. Unternehmen haben kaum Einblick oder Kontrolle darüber, wie die Informationen verwendet oder verbreitet werden. Ein einziger Fehltritt eines Mitarbeiters kann das Unternehmen in Gefahr bringen, z. B. die Eingabe vertraulicher Informationen, die zu einem Verlust von geistigem Eigentum führt, oder die Nennung falscher Quellen. Dies kann rechtliche Konsequenzen nach sich ziehen.

Beseitigen Sie GenAI-Shortcuts, um skalierbaren Nutzen zu schaffen

Unternehmen experimentieren in unterschiedlichen Stadien mit GenAI. Die Phase der zögerlichen Annäherung an GenAI ist jedoch bereits vorbei. Eine Umfrage von Deloitte ergab, dass 47 Prozent der Unternehmen mit der Einführung von GenAI schnell vorankommen – bei Unternehmen mit sehr hohem Fachwissen steigt diese Zahl sogar auf 73 Prozent.2

Es ist an der Zeit, dass Unternehmen einen Schritt zurücktreten und GenAI Shortcuts identifizieren, die zu Lücken in der Informationssicherheit führen. Mit der richtigen Grundlage für das Informationsmanagement können Unternehmen ein ideales Gleichgewicht finden, die gewünschte Kontrolle erlangen und gleichzeitig sicherstellen, dass die Mitarbeiter die richtigen Informationen sehen (und nicht mehr!). Dadurch wird das Informationsrauschen unterdrückt, die Risiken gemindert und der Nutzen maximiert.

Die Vorlage und Strukturierung von Informationen ist der Ausgangspunkt für die Vorbereitung auf KI und sichere GenAI. Mit OpenText Business Workspaces wird Content über Geschäftsanwendungen und Geschäftsprozesse hinweg organisiert. Dabei werden Berechtigungen zum Schutz von Informationen zugewiesen, Content klassifiziert, um die Abfrage durch KI zu erleichtern, und genaue Geschäftsdaten für wertvolle und relevantere GenAI-Antworten erfasst.

Da die Informationen in den Kontext eines Geschäftsprozesses gestellt werden, gibt dieser Kontext Aufschluss darüber, wer die Informationen sehen darf und wer nicht. Mit detaillierten Metadaten grenzen Business Workspaces die in die KI einfließenden Informationen ein und strukturieren die Informationen über Vorlagenordner (für bestimmte Geschäftstransaktionen oder -fälle), so dass die Mitarbeiter leicht verstehen können, was sie abfragen.

Um GenAI zu stärken, müssen auch andere Aspekte berücksichtigt werden.

  • Führen Sie regelmäßig Stichproben und Berechtigungsprüfungen durch: Bei der Implementierung von KI-Anwendungen sollten Sie Qualitätssicherungstests durchführen, um sicherzustellen, dass die über GenAI-Tools eingehenden Informationen ordnungsgemäß freigegeben sind.
  • Erkennen Sie Ihre Risikotoleranz: Legen Sie fest, wie Sie die gewünschten Berechtigungen und die Sicherheit durchsetzen können, ohne die gewünschte Zusammenarbeit zu beeinträchtigen. Prüfen Sie, wie das Informationsmanagement die Produktivität steigern kann.
  • Arbeiten Sie mit einem verantwortungsvollen KI-Anbieter zusammen: Nicht alle GenAI-Tools wurden identisch entwickelt. Wir bei OpenText glauben fest an ethische Grundsätze, Ergebnisse und Verantwortlichkeit, was zur Erstellung unserer AI Bill of Obligations geführt hat. Wir sind auch der erste Unterzeichner des kanadischen Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems.

Mit konversationeller GenAI können Unternehmen mit großen Informationsmengen interagieren, um das Lernen zu beschleunigen und Mitarbeitern zu helfen, intelligenter und schneller zu arbeiten. Doch GenAI steht erst am Anfang, ist auf dem Weg zu Produktivitätssprüngen im großen Stil und wird die Zukunft der Innovation prägen.

OpenText™ Content Aviator, ein KI-gestützter Content-Assistent, sammelt die relevantesten Dokumente aus einem Geschäftsarbeitsbereich zur Analyse, filtert automatisch Dokumente und liefert Erkenntnisse und kontextbezogene Zusammenfassungen. Diese basieren nur auf zulässigen Inhalten, um Informationslecks und Oversharing zu verhindern.

Jetzt ist es an der Zeit, die Voraussetzungen für KI in Ihrem Unternehmen mit GenAI Content Management zu verbessern. Kontaktieren Sie einen OpenText-Experten, wenn Sie mehr über die Lösungen erfahren möchten. Wir unterstützen Sie gerne.

Testen Sie generative KI für das Content Management!
Hier können Sie eine interaktive Demo von OpenText Content Aviator anfordern.

[1] Marketing AI Institute, Enterprises Set to Increase Generative AI Spend, March 2024

[2] Deloitte AI Institute, State of Generative AI in the Enterprise, April 2024

Stephen Ludlow

Stephen ist Vice President, Product Marketing bei OpenText.

Weitere Artikel, die sie interessieren könnten

Schaltfläche "Zurück zum Anfang"