
Is CO-PILOT het ei van Columbus?
Zoeken in blog
HTML-box
Salesdesk
Werkdagen 09:00 tot 17:30
Telefoon: +31(0)35-5885775
E-mail: info@ctidistribution.nl
Werkdagen 09:00 tot 17:30
Telefoon: +31(0)35-5885775
E-mail: info@ctidistribution.nl
Save products on your wishlist to buy them later or share with your friends.
Wilt u uw facturen op een ander emailadres van bijvoorbeeld deboekhoudafdeling ontvangen dan kunt u dit opgeven in de Uw account pagina. Wij werken continu aan de kwaliteit van deze website om u nog beter van dienst te kunnen zijn, heeft u hier ideeën over dan horen wij die graag, u kunt deze ideeën kwijt bij onze afdeling web developementvia het contact formulier.
Copilot voor Microsoft 365 kan de productiviteit verhogen als u het compliance-mijnenveld overleeft.
Er zijn een hoop bestuurskwesties om je zorgen over te maken, en de kans is groot dat er complete onzin wordt gespuid.
Zorgen over data governance hebben een aantal Copilot-projecten opgehouden, omdat zakelijke klanten overwegen hoe ze het beste de service integreren in hun organisaties, en Microsoft's Transparantienota waarschuwt dat beheerders de toegang van gebruikers moeten controleren. correct geconfigureerd voordat er iets wordt uitgerold.
De notitie maakt het is duidelijk: "Copilot voor Microsoft 365 heeft alleen toegang tot gegevens die een individuele gebruiker heeft bestaande toegang tot, op basis van bijvoorbeeld bestaande Microsoft 365 op rollen gebaseerde toegangscontroles."
Copilot voor Microsoft 365 is een add-on waarvoor Microsoft $ 30 per gebruiker per maand verwacht, met een jaarabonnement. Het gebruikt grote taalmodellen (LLM's) en integreert gegevens met Microsoft Graph en Microsoft 365-apps en -services om inhoud samen te vatten, te voorspellen en te genererenOp het eerste gezicht lijkt de service is onschuldig genoeg. Het krijgt input van een gebruiker in een app, zoals Word. Die gebruikersprompt wordt vervolgens geparseerd om de kans op het verkrijgen van iets te vergroten nuttig uit de dienst en vervolgens naar de LLM gestuurd voor verwerking. Wat komt uit de LLM wordt nabewerkt voordat het wordt teruggestuurd naar de gebruiker.
Volgens Microsoft: "Deze nabewerking omvat andere aardingsoproepen naar Microsoft Graph, verantwoordelijke AI-controles zoals inhoudsclassificatoren, beveiligings-, nalevings- en privacycontroles, en "Opdrachtgeneratie."
Naast het waarborgen van de toegang van gebruikers is correct geconfigureerd, waarschuwt de Transparantienota organisaties om Houd rekening met juridische en nalevingskwesties bij het gebruik van de service, vooral in gereguleerde sectoren.
"Microsoft onderzoekt wettelijke vereisten die van toepassing zijn op Microsoft als aanbieder van de technologie en deze binnen het product aanpakken via een proces van "Continue verbetering", aldus het document.
Dan er is de aanbeveling om Copilot voor Microsoft 365 toe te staan referentiewebinhoud van Bing om de "kwaliteit, nauwkeurigheid en relevantie" van zijn antwoorden. Toestaan dat Microsoft Graph wordt uitgebreid met bronnen zoals CRM-systemen, externe bestandsopslagplaatsen en andere organisatiegegevens zijn een andere aanbeveling die nodig zal zijn ondernemingen om goed naar hun bestuur te kijken.
Microsoft's Transparantienota voor Copilot voor Microsoft 365 is een nuttig document, benadrukkend dat ondernemingen rekening moeten houden met de implicaties van de service implementeren.
Vorige maand zei Jack Berkowitz, hoofd data Securiti-functionaris vertelde ons dat grotere bedrijven Copilot hebben gepauzeerd implementaties omdat de tool toegang heeft tot gegevens en "agressief" samenvattende informatie" waar bepaalde werknemers geen toegang toe zouden moeten hebben – salarissen bijvoorbeeld.
"Nu, misschien als je een totaal "Als we de Microsoft-omgeving vanaf dag één zouden opruimen, zou dat een stuk makkelijker worden", zei hij. zei. "Maar niemand heeft dat. Mensen hebben deze systemen al meer dan eens geïmplementeerd. tijd, met name echt grote bedrijven. En je krijgt deze tegenstrijdige autorisaties of conflicterende toegang tot gegevens."
De veelgeprezen De productiviteitswinst van de AI-dienst moet in evenwicht zijn met de risico's ervan – Zelfs Microsoft merkt op dat "gebruikers altijd voorzichtig moeten zijn en hun beste oordeel bij het gebruik van de uitvoer van Copilot voor Microsoft 365" – en Zorgen over naleving en databeheer moeten worden aangepakt voordat de service op een organisatie loslaten.