Brugen af GenAI skal hvile på et Zero Trust-baseret fundament, hvor man blandt andet bruger sikkerhedsværktøjer med AI-funktionalitet til automatisk at foregribe og mitigere datakompromitteringer
Af Jesper Krogh og Peder Lind Sørensen, Globeteam
Generativ AI – eller bare GenAI – indeholder indiskutabelt en række spændende muligheder for at effektivisere arbejdsgange, forbedre processer, skabe indhold og meget andet. Det har vi allerede set mange eksempler på. Men med brugen af GenAI følger også nye risici.
Det er ret uskyldigt for almindelige brugere at interagere med en generativ sprogmodel, hvis man skal have hjælp til dagligdagsopgaver i en privat kontekst. Det er noget helt andet, når man anvender GenAI i en virksomhedskontekst, hvor sprogmodellen får adgang til forretningsdata. Hvis man ikke på forhånd har brugt ressourcer på at definere og begrænse sprogmodellens adgang til virksomhedsdata, er det endda sandsynligt, at brugen af en GenAI-model vil føre til en datakompromittering.
Derfor er vores klare opfordring, at man endnu ikke ruller GenAI-løsninger ud i stor skala, men fortsætter i en pilotfase, hvor man i høj grad fokuserer på at bygge et solidt sikkerhedsfundament. Hvis vi skal blive mere konkrete, anbefaler vi, at man bruger Zero Trust-sikkerhedsparadigmet som pejlemærke for anvendelsen af en GenAI-model. Zero Trust bygger på ideen om, at alle anmodninger om at tilgå virksomhedens digitale ressourcer kommer fra ondsindede aktører. Man agerer som om, et angreb er i gang, og at det herfra handler om at begrænse skadevirkningerne.
Hvis man vil læse mere om, hvordan man helt konkret kan implementere Zero Trust-principperne i en Microsoft Copilot-løsning, kan man læse denne artikel på Microsofts website, hvor de kommer med konkrete forslag til, hvordan man bygger en sikkerhedsplatform. Hovedpointerne er:
- Verificér altid og hele tiden brugeradgange, enheder og systemtilladelser
- Sørg for at brugerne har mindst mulig adgang til de digitale ressourcer
- Lad som om I er angrebet ved at inddæmme evt. følgevirkninger og anvende segmentering
Der er flere gode sikkerhedsråd i Microsofts vejledning så hermed en stor opfordring til at læse den.
Beskyt AI med AI
Noget af det definerende ved nutidens sikkerhedsangreb er den hastighed, hvormed de rammer en virksomhed. Der går meget kort tid, fra en sårbarhed opdages, til truslen udvikler sig. Det skyldes blandt andet, at cyberkriminelle benytter AI og dermed automatiseringsteknologi til at lancere deres angreb. Hvis virksomheder vil beskytte sig mod AI-baserede angreb, skal de selv benytte AI-kapabiliteter til at automatisere mitigerende handlinger i deres sikkerhedsplatform.
I Microsoft-regi betyder det, at det er rigtig svært at opnå den tilstrækkelige sikkerhed på en Microsoft 365 E3-licens; man er nødt til at have 365 E5-licensen, som indeholder sikkerhedsværktøjer med indbygget AI-funktionalitet. E5-licensen gør det blandt andet muligt at give dokumenter et sikkerhedslabel, der automatisk beskytter organisationen mod utilsigtet eksponering af fortrolige oplysninger; man får adgang til Threat Detection-funktionalitet, der automatisk blokerer for usædvanlig aktivitet på netværket såsom mistænkelig adfærd relateret til lokationer, systemadgange og enheder; og man kan opsætte Conditional Access-politikker, hvor elementer såsom IP-adresse, lokation, brugeres normale adfærd etc. indvirker på, hvor høj en risikofaktor sessionen har. Baseret på den vurdering bliver der automatisk foretaget mitigerende sikkerhedsforanstaltninger.
Globeteam Readiness Assessments
I Globeteam har vi mange års erfaring med Microsoft 365-platformen. I GenAI-sammenhæng tilbyder vi to typer af Microsoft 365 Copilot Readiness Assessments, der vurderer en organisations modenhed til at implementere en Copilot-løsning.
Vores tekniske Readiness Assessment afdækker risici og giver et overblik over rettigheder og datasikkerhed forud for udrulningen af Microsoft 365 Copilot. Globeteam 365 Copilot Teknisk Readiness Assessment er baseret på Microsofts anbefalinger og indeholder gennemgange af Identity and Access Management, Tenant Readiness, Microsoft Teams/SharePoint/OneDrive, Data Security and Governance samt Data Compliance (DLP, datapolitikker). Med andre ord vil modenhedsanalysen pege på eventuelle sikkerhedshuller forud for implementeringen af Microsoft Copilot.
Derudover kan vi også udarbejde en organisatorisk Readiness Assessment, der fokuserer på de strategiske aspekter af Copilot-løsningen, og hvordan man får den ønskede effekt. Vi kigger på, hvordan eksisterende brugergrupper løser deres arbejdsopgaver, og hvordan Microsoft 365 Copilot kan optimere arbejdsprocesser. Vi hjælper med at opstille målsætninger for implementeringen, så der løbende kan styres efter kriterier for gevinstrealisering. Og vi hjælper med at identificere organisationens teknologiske kompetenceniveau, og hvordan man ved hjælp af træning kan lære brugerne at blive fortrolige med den nye AI-assistent.
Globeteam er Copilot for Microsoft 365 jump start partner
I Globeteam er vi som en af de eneste danske partnere blevet inviteret til at deltage i Microsofts “Copilot for Microsoft 365 jumpstart program”.
Programmet giver os adgang til at teste alle mulighederne i Copilot for Microsoft 365, lave demo for vores kunder og dele vores erfaringer fra egen brug af Copilot.
Samtidig betyder det også, at vi bliver briefet om nye muligheder og udviklingen i roadmappet for Copilot for M365, samt at vi får mulighed for sparring med Microsofts egne eksperter. Både om konkrete kunder, men også om eventuelle problemstillinger vedr. Copilot for M365, så vi hele tiden kan yde vores kunder den bedste rådgivning.
Vil du høre mere?
Vil du høre mere om, hvordan Globeteam kan hjælpe jer med at få styr på sikkerheden i jeres Copilot-implementering? Så kontakt mig gerne på +45 3074 7474 eller pls@globeteam.com