Para peneliti merinci ArtPrompt, sebuah jailbreak yang menggunakan seni ASCII untuk memperoleh respons jahat dari LLM yang selaras seperti GPT-3.5, GPT-4, Gemini, Claude, dan Llama2 (Dan Goodin/Ars Technica)


Dan Goodin / Ars Tecnica:

Para peneliti merinci ArtPrompt, sebuah jailbreak yang menggunakan seni ASCII untuk mendapatkan respons jahat dari LLM yang selaras seperti GPT-3.5, GPT-4, Gemini, Claude, dan Llama2— LLM dilatih untuk memblokir respons yang merugikan. Gambaran jadul bisa mengalahkan aturan ini. —Para peneliti telah menemukan…