«Copilot brauche ich nicht, das geht mir viel zu lange. Ich mach’ alles mit ChatGPT»
Gilt das auch für dich? – Ja? Dann darfst du auf keinen Fall diesen Artikel verpassen!
Copilot vs. ChatGPT als würden sich Bruder und Schwester zanken. Beide basieren nämlich auf derselben OpenAI Technologie und wurden entwickelt, um menschliche Unterhaltungen zu imitieren und auf Fragen oder Kommentare ansprechend zu antworten.
ChatGPT ist Copilot an Schnelligkeit einiges voraus, ist aber im Unternehmenskontext nicht die richtige Wahl. Copilot kann in fast allen M365 Apps und Services verwendet werden und konsultiert neben des Large Language Model (LLM), also den öffentlich zur Verfügung stehenden Informationen, auch deine Unternehmensdaten und liefert dir – wenn auch etwas langsamer – daher die relevanteren Antworten.
ChatGPT nutzt deine Prompts (deine Eingaben) dafür, sein zugrundeliegendes Modell zu trainieren, was bei Copilot nicht der Fall ist. Das heisst für den Nutzer, jegliche Eingabe kann später bei einer ähnlichen kontextuellen Abfrage als Antwort wiedergegeben werden. Das wollen wir natürlich im Unternehmenskontext auf jeden Fall vermeiden. Wir begegnen daher immer öfter der Situation, dass Unternehmen die Nutzung von ChatGPT unterbinden. Wir raten grundsätzlich: ChatGPT für Privates, Copilot fürs Business.
Lass uns etwas genauer anschauen was hinter den Kulissen abgeht:
Copilot fühlt sich etwas langsamer an, weil im Hintergrund viel mehr abgeht als bei ChatGPT. Nach dem Senden des Prompts passiert als erstes das sogenannte Grounding oder Pre-processing. Wir tauchen tief ins Microsoft Datenökosystem, den Microsoft Graph, ein und grasen dort die Unternehmensdaten ab. Es wird geschaut, ob relevante E-Mails, Files, Meetings, Chats, Kalendereinträge, Kontakte usw. vorhanden sind. Die Suche kann mittels Plugins auch auf weitere, sogar externe Datenquellen erweitert werden, wenn das von der Unternehmung zugelassen ist. Erst jetzt wird unsere Anfrage ans Large Language Model (LLM) weitergegeben, wo unsere Anfrage durch relevante öffentliche Informationen ergänzt wird.
Auf dem Rückweg vom LLM passiert nochmal etwas ganz Wichtiges: die Compliance und Purview, das Post-processing. Hier wird sichergestellt, dass die Antwort nur Angaben enthält die der Benutzer, der die Anfrage gestellt hat, auch sehen darf, d.h. die entsprechenden Berechtigungen hat, zu sehen. Aber nicht nur das, spätestens hier wird auch gecheckt, ob die Antwort den ethischen Richtlinien und den responsable AI-Praktiken1,2 von Microsoft entspricht. Zu guter Letzt, wird unsere Anfrage, die jetzt noch mehr Kontext erhalten hat, nochmal durch den Microsoft Graph geschickt und ggf. mit weiteren Informationen angereichert, bevor uns die Antwort ausgegeben wird.
Das ist der Grund, warum Copilot der Langsamere ist von beiden.
Bei ChatGPT korrespondieren wir quasi direkt mit dem Large Language Model, was natürlich deutlich schneller geht.
Brauchst du eine Geburtstagskarte für einen Arbeitskollegen, dann nutze den schnelleren Bruder, oder teste die Gedicht-Funktion in Outlook – möchtest du eine interne Chat-Kommunikation oder eine Präsentation verbessern, nutze Copilot.
Wie du richtig mit Copilot kommunizierst liest du hier.
Viel Spass!
Nicole
PS: Copilot ist auch eine Suchmaschine und liefert dir die Infos als ansprechende, konversationsähnliche Antwort, mit Angabe der Quellen. Das finde ich einiges angenehmer als durch die Google Treffer zu scrollen. Ganz nach dem Moto: Nicht verzagen, Copilot fragen.
Referenzen:
1 Responsible AI Principles and Approach | Microsoft AI
2 Empowering responsible AI practices | Microsoft AI