Apple förbjuder sina anställda från att använda AI-tjänsten ChatGPT. Anledningen är att bolaget vill stoppa företagshemligheter från att läcka ut. Förbudet gäller inte bara ChatGPT, utan även flera andra AI-tjänster som finns idag.
Det säger The Wall Street Journal som skriver att Apple även blockerat Githubs Copilot vilket är en tjänst för att automatiskt skriva kod med hjälp av Open AI Code.
Lästips: Officiella ChatGPT-appen för iPhone är här
Apple vill stoppa hemligheter från att läcka ut
Att Apple försöker hindra företagshemligheter från att läcka ut är knappast någon stor nyheter. Företaget har länge arbetat hårt för att minimera riskerna för läckor och slår notoriskt ner på alla som försöker dela interna uppgifter med omvärlden. I de fallen när de faktiskt hittar de som delar uppgifterna vill säga.
Men att Apple stoppar AI-tjänster är helt nytt, även om det inte är speciellt förvånande. Företaget arbetar idag på en egen språkmodell för AI och vi kan räkna med att det pågår mer arbete kring artificiell intelligens bakom kulisserna som vi inte känner till.
Apple är långt ifrån ensam om att förhindra sina anställda från att använd AI-tjänster som ChatGPT.
Samsung har stoppat AI-tjänster efter läckor
Vi har tidigare rapporterat att Samsung stoppat sina anställda efter att upprepade läckor gjort att företagshemligheter och intern data läckt ut på internet. Och även bolag som JPMorgan, Bank of America och Citigroup har begränsat hur sina anställda får använda ChatGPT.
ChatGPT har haft stora problem kring hanteringen av säkerhet och integritet med bland annat läckor av kunddata och annat som ställt till det. Så pass illa att tjänsten temporärt blockerades i Italien tills moderbolaget OpenAI kunde påvisa att de vidtagit nödvändiga säkerhetsåtgärder.
Idag går det att ställa in ChatGPT till att inte spara konversationerna och att inte använda frågeställningar för att träna den bakomliggande språkmodellen. Du gör det via inställningarna när du är inloggad i webbläsaren eller via mobilappen.
Lämna ett svar
Visa kommentarer