Förbud mot AI i sekretessavtal – praktiskt ogenomförbart?
När företag och organisationer vill skydda sin information, är sekretessavtalet ett användbart verktyg. Men med den snabba utvecklingen inom artificiell intelligens har det börjat införas AI-förbud i NDA:er. Formuleringar som “den mottagande parten får inte använda någon AI-tjänst i samband med hantering av konfidentiell information” blir allt vanligare. Frågan är om de faktiskt ger det skydd som avses – eller om de skapar ett avtalsrättsligt problem i sig.
AI-förbud är svåra att följa i praktiken
Ur ett avtalsjuridiskt perspektiv kan ett generellt AI-förbud vara vilseledande. Det signalerar kontroll – men innebär i praktiken svårigheter att efterleva. I dag finns AI inte bara i fristående plattformar som ChatGPT eller Gemini. Det är en integrerad del av vanliga arbetsverktyg:
- E-postklienten föreslår rubriker och autosvar.
- Ordbehandlare ger AI-baserade förslag på formulering.
- Verktyg för digital signering sammanfattar innehållet i avtal.
- Projektverktyg prioriterar automatiskt uppgifter baserat på historik.
Ett förbud mot all AI skulle därmed tekniskt omfatta nästan allt normalt kontorsarbete – även där ingen aktiv AI-användning av känsliga uppgifter sker. Resultatet: en avtalsklausul som är i ständig risk att överträdas.
Därför räcker det inte att förbjuda AI i sekretessklausuler
Istället för att förbjuda en teknikkategori behöver sekretessavtalet eller sekretessklausulen utgå från det faktiska skyddsintresset: att konfidentiell information inte lagras, analyseras, delas eller återanvänds på ett sätt som riskerar röjande. Det är skillnad på:
En AI-tjänst som tränar på användardata.
- En AI-tjänst som bara behandlar data lokalt utan lagring.
- En AI-funktion som endast påverkar användargränssnittet (exempelvis förslag på formuleringar).
Villkoren skulle exempelvis kunna innehålla:
- Förbjuda användning av publika AI-tjänster som tränar på användarens innehåll.
- Tillåta AI-verktyg som är inbyggda i godkänd programvara och där data inte lagras.
- Kräva att parterna informerar varandra om vilka verktyg som används.
- Det ger en bättre balans mellan teknikanvändning och informationssäkerhet och undviker att leda till avtalsbrott.
AI finns redan i verktygen som används dagligen
Oavsett bransch, storlek eller teknikanvändning är AI redan en del av arbetsmiljön. Det gäller allt från offentlig sektor till små konsultbyråer och stora industrikoncerner. AI används i e-postklienter, ordbehandlare, kundsystem, interna chattar, analysverktyg och molntjänster – ofta utan att användaren själv reflekterar över det. Funktionen är helt enkelt inbakad i verktygen som används varje dag.
Att i en sekretessklausul eller sekretessavtal utesluta all AI-användning blir därför inte bara opraktiskt – det riskerar att undergräva avtalets trovärdighet. När den som omfattas av avtalet inte med rimliga medel kan förstå vad som faktiskt förbjuds, skapas osäkerhet om vad som är tillåtet, vad som utgör ett brott mot avtalet och hur avtalet ska efterlevas i praktiken.
Det handlar alltså inte längre om om AI får användas – utan hur, i vilka verktyg, och under vilka förutsättningar. Genom att reglera detta tydligt skapas ett sekretessvillkor som både skyddar informationen och går att följa i en AI-integrerad arbetsvardag.
På Morling Consulting hjälper våra avtalsjurister företag att skriva och granska sekretessavtal som fungerar – även i en AI-integrerad arbetsvardag.