Anthropic meddelar nu en stor förändring i hur deras AI-tjänst Claude hanterar användardata. För första gången kommer företaget att börja använda användarnas chattar för att träna och förbättra sina AI-modeller.
Alla användare får valet att delta eller inte – men man måste aktivt ta ställning innan den 28 september 2025 för att kunna fortsätta använda tjänsten.
Viktigt att veta
- Anthropic kommer nu att använda chattar från Claude för att träna AI-modellen, om du inte väljer bort det.
- Nya användare får välja vid registrering, befintliga användare får en popup med alternativ.
- Du kan när som helst stänga av datainsamling under Inställningar > Sekretess.
- Opt-in innebär att Anthropic sparar data i upp till fem år. Utan opt-in sparas data i 30 dagar.
- Raderade konversationer används inte för framtida träning.
- Förändringen gäller alla på Claude Free, Pro och Max – men inte företagstjänster som Claude for Work eller API-användning.
Så fungerar det nya systemet
Tidigare har Anthropic inte använt vanliga användarkonversationer för att träna Claude. Bara explicit feedback har lagrats och använts. Med de nya villkoren ändras detta.
- Opt-in: Om du accepterar kommer nya och återupptagna chattar kunna användas för träning. Dina konversationer lagras i upp till fem år.
- Opt-out: Om du tackar nej fortsätter Anthropic att spara data i 30 dagar, enbart för felsökning och säkerhet, precis som idag.
Popupen som visas för befintliga användare har rubriken ”Updates to Consumer Terms and Policies”. Här finns en kryssruta märkt ”You can help improve Claude”. Genom att avmarkera rutan stoppar du att dina chattar används.
Anledningen: bättre modeller och ökad säkerhet
Anthropic framhåller att användardata hjälper dem att bygga ”ännu mer kapabla och användbara modeller” och samtidigt förbättra skydden mot skadligt användande, exempelvis nätbedrägerier eller missbruk av AI.
Företaget säger sig använda en kombination av automatiska filter och verktyg för att rensa bort känslig information och betonar att inga uppgifter säljs till tredje part.

Så här stänger du av datainsamlingen själv
- Gå till Settings i Claude.
- Välj Privacy.
- Klicka på knappen Review
- Kryssa AV alternativet för ”You can help improve Claude”
- Klicka på Accept
Det går att ändra valet när som helst.
FAQ
Måste jag välja något för att fortsätta använda Claude?
Ja. Senast den 28 september 2025 måste du aktivt välja om du vill tillåta träning eller inte.
Vad händer om jag inte gör något val?
Du får en påminnelse. Om du inte svarar kommer du inte kunna använda Claude förrän du har tagit ställning.
Vad innebär fem års datalagring?
Om du väljer att bidra används dina nya chattar och sparas i upp till fem år. Syftet är att förbättra framtida AI-modeller.
Kan jag radera mina konversationer?
Ja. Raderade chattar används inte i modellträning, oavsett om du har opt-in eller inte.
Gäller detta även företagstjänster?
Nej. Claude for Work, Claude Gov, Claude for Education och API-tjänster omfattas inte av ändringen.
Hur skyddas känslig information?
Anthropic använder automatiska filter och processer för att upptäcka och maskera känsliga uppgifter. Data delas inte med tredje part.












Lämna ett svar
Visa kommentarer