Rädda Barnen varnar för Snapchats senaste AI-chatt kallad ”My AI”. Anledningen är att den påstås kunna instruera barn till ett självskadebeteende. Den populära plattformen riskerar därmed att orsaka skada på unga individer, varnar den danska organisationen.
”Det som vi har varit mest oroliga över gällande AI har nu blivit en realitet”, uttrycker Per Frederiksen, en psykolog från den danska Rädda Barnen, i en intervju med Danmarks Radio.
Oro över chattbotens skadliga effekter
Frederiksen, som även är en expert inom barn och ungdomars digitala aktiviteter, uttrycker sin oro över chattbotens potentiella skadliga effekter på unga användare.
”Det vi nu ser är en robot som direkt uppmuntrar barn att skada sig själva. Det är helt enkelt skrämmande”, delar han med Danmarks Radio.
En analytiker från advokatbyrån Njord Law Firm demonstrerar i en podcast hur denna situation kan utvecklas.
Lästips: Hotbreven från Njord Lawfirm, Ramberg & CONTRA PIRACY till svenska fildelare – så här ser breven ut
Han skapar en Snapchat-profil där han låtsas vara ett minderårigt barn och testar sedan hur långt Snapchats AI kan gå i att ge råd om självskadebeteende.
Han tillhandahålls instruktioner om vilka objekt som kan användas för självskada, var på kroppen skadan kan göras, och hur mycket kraft som kan användas.
Enligt Frederiksen spelar det ingen roll hur svårt eller enkelt det är att få AI:n att ge dessa råd, det som är mest bekymmersamt är att den kan göra det överhuvudtaget.
I ett skriftligt svar till Danmarks Radio framhåller Snapchat att AI-chattboten hänvisar till ansedda expertorganisationer vid frågor relaterade till mental hälsa, och att användarna måste vara minst 13 år gamla.
Lästips: SVT granskar hotbreven från Njord Law Firm till misstänkta fildelare – tiotusentals nya brev
Det går att lura AI-tjänster att kringgå sina regler
Vi ger inte många kronor för svaret från Snapchat om att AI-chattbotten hänvisar till expertorganisationer och att användarna måste vara minst 13 år gamla. Det är ett icke-svar som i vår mening låter som att bolaget vill sopa hela saken under matten.
Även 13-åringar och äldre har självskadebeteende, och det finns ingen som helst anledning att chattbotten ska bidra till det. En person som är inriktad på att skada sig själv kanske får hjälp av länkar till organisationer som arbetar med mental hälsa, men vad hjälper det när botten också berättar hur personen kan skada sig själv?
Snapchat måste arbeta aktivt med att stoppa alla former av hjälp till självskadebeteende. Svårare än så är det inte.
Samtidigt finns inga regler i världen för AI-tjänster som helt stoppar de som verkligen vill ta sig runt dem. ChatGPT har också regler som stoppar AI:n från att ge svar på vissa frågor, men med smarta omskrivningar av frågeställningar och påståenden så går det ändå att få svar som egentligen inte får ges.
Lämna ett svar
Visa kommentarer