Sydkoreanska Samsung är garanterat inte nöjda över faktumet att deras anställda har läckt känslig företagsinformation via ChatGPT.
Enligt uppgift har det skett läckor hela tre gånger via den populära AI-tjänsten. Bland annat skyddade mått på hårdvara och information om avkastning.
Bland annat berörs Samsungs enhets- och halvledaravdelningar av läckorna.
Lästips: ChatGPT läcker känslig information
Samsung har tidigare förbjudit ChatGPT
Samsung har tidigare förbjudit sina anställda att använda ChatGPT tidigare. Ett förbud som togs bort den 11 mars i år.
Efter att förbudet togs bort så ska en anställd ha laddat upp intern programkod som krånglat. Målet var att hitta en lösning med hjälp av den artificiella intelligensen.
Problemet med det är att den hemliga koden omedelbart laddades upp till ChatGPT och tjänstens servrar – bortom Samsungs räckhåll. Och det gjorde att den blev åtkomlig som lärodata för OpenAI, och tillgänglig för alla som använder ChatGPT.
Det var tillräckligt för att information som inte skulle lämna Samsung blev åtkomlig utanför bolaget utan de anställdas kännedom.
Lästips: Åldersgräns för ChatGPT – så gammal måste du vara
Samsung vill begränsa hur ChatGPT används
I ett försök att begränsa läckorna så har Samsung försökt minska uppladdningskapaciteten till ChatGPT. Genom att dra ner den till 1 024 byte så minskar möjligheten att ställa avancerade frågor och ChatGPT kan inte göra analyser större textmängder.
Trots läckorna så har Samsung valt att inte stoppa användandet av AI-tjänster helt.
Men om det skulle hända igen så kommer tillverkaren att förbjuda ChatGPT helt.
Via Economist
Lämna ett svar
Visa kommentarer