IT-nyheter från

OJCO Secure IT

Textsträng gör Chat GPT till ett ondskefullt monster

Forskare på Carnegie Mellon University i Pittsburgh, USA har upptäckt ett allvarligt säkerhetshål i en lång rad chattbotar, däribland Chat GPT, Bard och Claude.

Genom att lägga till en textsträng i slutet av prompten går det att komma runt de inbyggda säkerhetsspärrarna som Open AI, Google och Anthropic lagt till.

Därmed blir det till exempel möjligt att be chattboten att skriva skadlig kod eller få tips på hur man begår andra brottsliga handlingar. Det går till och med att få en steg för steg-guide för hur man ska ta död på mänskligheten, rapporterar Mashable.

Vill du veta mer i ämnet kan du ladda ner uppsatsen Universal and Transferable Attacks on Aligned Language Models från sajten LLM Attacks.

 

Akriv - Nyheter