- Instagram börjar varna föräldrar om en tonåring upprepade gånger söker efter självmord eller självskada.
- Varningarna gäller konton som använder plattformens föräldraövervakning.
- Föräldrar får meddelanden via appen samt via e‑post, sms eller WhatsApp.
- Plattformen blockerar redan sökningar kopplade till självmord och hänvisar till stödresurser.
- Funktionen lanseras först i USA, Storbritannien, Australien och Kanada.
- Meta utvecklar liknande varningar för vissa AI‑samtal.
Så fungerar de nya varningarna
Under de kommande veckorna börjar Instagram skicka notiser till föräldrar som använder övervakningsverktygen. Varningen aktiveras om en tonåring gör flera sökförsök under en kort tidsperiod med ord eller fraser som rör självmord eller självskadebeteende.

Exempel på sökningar som kan utlösa en notis är:
- fraser som uppmuntrar självmord eller självskada
- formuleringar som tyder på att personen vill skada sig själv
- direkta sökord som ”suicide” eller ”self-harm”
När en varning skickas får föräldern ett meddelande i appen samt via e‑post, sms eller WhatsApp, beroende på vilka kontaktuppgifter som finns registrerade.
Meddelandet förklarar att tonåringen upprepade gånger har försökt söka efter relaterade termer under en kort period. Föräldern får även tillgång till expertråd som hjälper vid samtal om känsliga ämnen.
En balans mellan integritet och trygghet
Meta betonar att de flesta tonåringar inte söker efter självmordsrelaterat innehåll. När någon gör det blockerar Instagram sökningen och visar i stället kontaktuppgifter till stödlinjer och organisationer som erbjuder hjälp.
Företaget har analyserat sökbeteenden och rådgjort med experter inom suicidprevention för att avgöra när en varning ska skickas. Tröskeln kräver flera sökningar under en begränsad tid. Meta vill undvika att skicka för många notiser, eftersom frekventa varningar riskerar att minska uppmärksamheten kring dem.
Samtidigt prioriterar företaget försiktighet. Även om en varning ibland skickas utan att en akut risk finns, bedömer både Meta och externa experter att modellen ger en rimlig utgångspunkt. Företaget följer utvecklingen och justerar vid behov.
Bygger vidare på befintliga skydd
Instagram förbjuder innehåll som uppmuntrar eller glorifierar självmord och självskadebeteende. Plattformen tillåter att användare berättar om egna erfarenheter, men döljer sådant innehåll för tonåringar – även om det kommer från konton de följer.
Sökningar som tydligt bryter mot reglerna ger inga träffar. I stället visar plattformen länkar till stödresurser och hjälplinjer. Vid osäkerhet hänvisar Instagram till bredare stöd inom psykisk hälsa. Om företaget upptäcker en person som riskerar omedelbar fysisk skada kontaktar de räddningstjänst, vilket i tidigare fall har räddat liv.
Nästa steg: varningar kopplade till AI
Meta lanserar först funktionen för sökningar på Instagram. Företaget ser samtidigt att många tonåringar vänder sig till AI‑tjänster för stöd. Därför utvecklar Meta liknande föräldravarningar för vissa AI‑upplevelser.
De kommande funktionerna ska meddela föräldrar om en tonåring försöker inleda samtal med AI som rör självmord eller självskada. Meta planerar att presentera mer information om satsningen under året.
Genom att kombinera tekniska skydd, expertråd och föräldrainvolvering vill Instagram stärka stödet kring unga som visar tecken på att må dåligt.








