Copilot – Fluch und Segen
„With great power goes great resposibility“ – der Spruch stammt zwar entgegen den üblichen Popkultur-Mythen nicht vom Spiderman-Autor Stan Lee. Er hat ihn aber sehr bekannt gemacht. Und er trifft beim Thema KI einfach perfekt.
Copilot ist der Überbegriff für die neuen KI-Dienste, die Microsoft in beinahe hundert Diensten implementiert hat. Microsoft hat erkannt, dass KI das „neue heiße Ding ist“ und hat sich mit seiner gesamten Macht darauf gestürzt. Wie immer, wenn mit Gewalt versucht wird, ein Thema zu treiben, ist es auch hier keineswegs gut gelaufen. Der Softwareriese baut in jeden Dienst Copilot ein, hat aber gleichzeitig massive Probleme, die gewohnte Qualität zu halten: Teams verzeichnet Ausfälle, andere Dienste werden von Fehlern geplagt. Sicher wird es Microsoft mittelfristig schaffen, Copilot bereitzustellen UND die anderen Dienste sinnvoll zu betreiben und weiterzuentwickeln – wie lange das allerdings dauern wird, wird die Zeit zeigen müssen.
Das aktuelle Hype-Thema ist Copilot für Microsoft 365: Was sich wie ein einzelnes Produkt anhört, ist in Wirklichkeit eine Sammlung: Teams erhält einen Copilot-Chat, genau wie bislang der Copilot-Chat in Bing funktioniert, zusätzlich erhalten die Office-Applikationen ebenfalls Copilot-Komponenten. Der große Unterschied zu dem, was wir bisher gesehen haben, liegt im Datenbestand: Während der allgemein zugängliche Copilot die Daten global verwaltete und damit potenziell Firmengeheimnisse hätte ausplaudern können, ist Copilot for Enterprise in Edge für das eigene Unternehmen separiert und schützt Firmendaten, die ihm mitgeteilt werden. Copilot für M365 geht noch einen Schritt weiter: Er schützt nicht nur die Firmendaten, er nutzt sie aktiv. Er hat ähnlich dem bekannten Suchdienst für M365 Zugriff auf die für den User jeweils zugänglichen Daten. Werden im Chat Fragen gestellt, versucht Copilot zuerst in den Unternehmensressourcen fündig zu werden und dann im Internet. Copilot für Word erstellt auf Wunsch automatisch Texte basierend auf der Aufgabe und verwendet auf Wunsch Vorlagen des Unternehmens. Das hört sich nach einer riesigen Arbeitserleichterung an, und das ist es auch. Aber...
Das große „Aber“ musste natürlich kommen. Als Verantwortliche für unsere Kundenumgebungen können wir uns nicht von den vielversprechenden Zusicherungen einnebeln lassen, ohne ein paar Fragen in den Raum zu werfen:
„Nur weil man oft genug etwas Falsches behauptet, wird es nicht wahr.“
Dieser universelle Leitsatz trifft bei Copilot leider nicht zu. Copilot ist in Wirklichkeit natürlich NICHT intelligent. Copilot ist aber in der Lage, sehr schnell sehr viele Informationen in Kontext zu setzen. Damit wird der Anschein von Intelligenz erzeugt. Forscher haben festgestellt, dass sämtliche KI-Chats latent rassistisch sind. Die Erklärung ist frappierend einfach: Das Internet ist ebenfalls latent rassistisch. Da die Chats alle auf Informationen aus dem Netz basieren, erben sie die Fehler und Schwächen. Das Gleiche gilt für Copilot. Und genau an dieser Stelle wird es spannend:
Hand aufs Herz: wie viele Dokumente liegen im eigenen OneDrive, die nicht fertig sind, die inhaltliche Fehler enthalten, die veraltet oder die gar nicht geprüft sind, weil sie z. B. aus Fremdquellen heruntergeladen wurden. Copilot hält diese Dokumente vollständig für die Wahrheit und für Fakten. Die Antworten von Copilot basieren auf diesen Dokumenten! Egal, wie falsch sie sind.
Datenbestand: Wer von uns hat seinen Sharepoint im Griff? Saubere Gruppenstrukturen? Check. Saubere Dateiablagen? Check. Klassifizierung der Dokumente? Öhem...
Ohne Klassifizierung nutzt Copilot einfach alles. Sofern der User ein Dokument mindestens lesen darf, fließen die Infos in die Antworten von Copilot ein. Die Antwort auf die Frage „Welche Kernfunktionen hat unser Produkt xyz“ kann unternehmensweit unbrauchbar gemacht werden, indem ein User am richtigen Platz ein ungeeignetes Dokument ablegt.
Datenbestand: Wer von uns kann von seinem Sharepoint behaupten, er hätte dieses Thema vollumfänglich im Griff? Wer von uns hat seinen Sharepoint im Griff? Saubere Gruppenstrukturen? Check. Saubere Dateiablagen? Eher nicht.
Hand aufs Herz, die Zweite: Wer hat noch nie „Personen meines Unternehmens“ zum Teilen verwendet, obwohl er eigentlich nur mit einem kleinen Kreis teilen wollte. Danach wird der Link einfach nur den richtigen Leuten geschickt. Fertig. Solange der Rest der User nichts von der Freigabe weiß, findet er sie ja nie. Jeder einzelne Tenant weist solche Fälle auf. Das Problem: Copilot interessiert sich nicht dafür, ob ein User weiß, dass er Zugriff auf ein Dokument hat oder nicht – er nutzt es gnadenlos. Damit werden plötzlich Informationen geteilt, die keineswegs geteilt werden sollten.
Datenbestand, die Zweite: Stellen wir uns vor, Copilot erstellt für uns wunderbare Dokumente: „Copilot für Word, schreibe mir eine fünfseitige Vorstellung für unser Produkt ‚Gebrauchte Katzen‘.“ Genau das tut Copilot. Ob das Ergebnis korrekt ist oder nicht, steht in den Sternen. Und exakt hier wird es spannend: Derjenige, der nicht garantieren kann, dass er die Ergebnisse von Copilot sorgfältig prüft und bei Bedarf korrigiert, darf Copilot keinesfalls in die Finger bekommen. Das wäre, als würde man einem Kleinkind ein höllisch scharfes Messer in die Hand drücken und sagen „schneide dich nicht“.
Warum ist das so? Wer schon einmal mit Bing Chat oder ähnlichen Chats gearbeitet hat, hat gemerkt, dass die Systeme gelegentlich vollkommen daneben liegen und vehement völlig falsche Aussagen treffen. Stellt man sich vor, ein Dokument wird auf Basis solcher Fehlinformationen erstellt und der User prüft es nicht sorgfältig, sondern speichert es einfach im Sharepoint. Das führt dazu, dass ein Dokument des Users im Sharepoint liegt und Copilot bei zukünftigen Fragen dieses Dokument als korrekt und wahr annimmt. Copilot glaubt also sozusagen den eigenen „Lügen“. Dieser Effekt kaskadiert sich, je häufiger User ungeprüfte Dokumente ablegen. Die KI schafft sich nach und nach eine eigene Wahrheit, die nichts mit der Realität zu tun hat: Copilot glaubt also sozusagen den eigenen „Lügen“
Microsoft hatte Copilot für M365 anfangs nur für Enterprise-Umgebungen mit mehr als 300 Usern angeboten. Das ist nicht ohne Grund geschehen: solche Kunden haben die Themen Klassifizierung und Bereinigung von Daten zwangsläufig eher im Griff als kleinere Kunden. Dort herrscht die Mentalität der Jäger und Sammler. Keinesfalls irgendwas löschen. Speicherplatz ist ausreichend vorhanden. Bisher war es ja auch egal, was da im System rumliegt. Jetzt plötzlich nicht mehr.
Was bedeutet das für Copilot-Interessierte?
Wer Copilot als Chat-Dienst mit Enterprise-Schutz nutzen will, kann dies problemlos tun – da hier keine Firmendaten genutzt werden, ist die Qualität letzterer völlig irrelevant.
Wer allerdings Copilot für M365 nutzen will, muss vorher sorgfältig Hausaufgaben machen: neben einer klaren Datenstruktur und eindeutigen Richtlinien ist eine ständige Überwachung der Datenstrukturen und Freigaben unumgänglich. Zu guter Letzt ist Copilot zwar extrem intuitiv zu bedienen, erfordert aber ein fundiertes Verständnis der User, die das Produkt einsetzen.