TL;DR
- Otrevliga promptar gav mer korrekta svar än artiga i en studie
- Studien använde ChatGPT‑4o och 50 flervalsfrågor
- Mycket otrevliga formuleringar nådde 84,8 % korrekthet
- Artiga formuleringar gav cirka 4 % sämre resultat
- Forskarna varnar för sämre samtalsklimat och exkludering
- Resultaten beror på begränsat underlag och äldre AI‑modell
AI-bottarna gör allt för att låta självsäkra
Generativ AI har utvecklats snabbt, särskilt chattbotar som ChatGPT och Google Gemini. Trots stora förbättringar genom åren ger systemen fortfarande felaktiga svar.
Användare möts ofta av påminnelsen att ChatGPT kan göra misstag. OpenAI:s vd Sam Altman har uttryckt förvåning över hur mycket människor litar på tekniken, trots kända problem med hallucinationer.
Vi på Tekniksmart är absolut inte förvånade att många litar blint på AI idag. Svaren som ges är extremt självsäkra och det är lättare att tro på vad chatten säger än att behöva dubbelkolla resultatet med andra, säkrare källor.
Lästips: OpenAI vill prioritera annonser i ChatGPT
Forskarna: Nedsättande språk ökar träffsäkerheten
En forskargrupp vid Pennsylvania State University analyserade hur språkbruk i frågor påverkar svarens kvalitet.
Gruppen använde ChatGPT‑4o och testade omkring 250 promptar med varierande grad av artighet. Resultatet visade att mer otrevliga formuleringar gav högre andel korrekta svar på 50 flervalsfrågor.
När forskarna använde direkt och nedsättande språk ökade träffsäkerheten jämfört med artiga och försiktiga formuleringar. Skillnaden uppgick till cirka fyra procentenheter mellan mycket otrevliga och mycket artiga promptar.
Forskarna spekulerar i att ett mer konfrontativt språk pressar modellen att fokusera tydligare på uppgiften.
En annan möjlighet är att starkt formulerade instruktioner minskar utrymmet för osäkerhet och utfyllnad i svaren. Samtidigt påpekar gruppen att mer avancerade modeller i framtiden kan bortse helt från ton och endast tolka innehållet.
Lästips: OpenAI visar annonser även om du betalar för ChatGPT
Det finns risker med att vara otrevlig mot AI
Nej, det är inte sannolikt att din framtida brödrost kommer att attackera dig i sömnen bara för att du var hård mot ChatGPT. Men det finns andra risker som du bör känna till.
Otrevlig kommunikation kan försämra användarupplevelsen, minska tillgänglighet och bidra till skadliga normer i hur människor kommunicerar med teknik. Ett normaliserat hårt språk riskerar också att påverka hur användare beter sig i andra digitala sammanhang.
Det ska sägas att studien bygger på ett begränsat underlag och en äldre modellversion som släpptes i maj 2024. Mycket har hänt med utvecklingen sedan dess.
Resultaten hade kunnat se annorlunda ut med fler frågor eller nyare AI‑system. Ändå visar arbetet hur stor betydelse promptformulering har för kvaliteten på AI‑svar.
Via Forbes








