URL has been copied successfully!
Per ASCII-Art: Jailbreak erlaubt böswilligen Missbrauch gängiger KI-Modelle
URL has been copied successfully!

Collecting Cyber-News from over 60 sources

Per ASCII-Art: Jailbreak erlaubt böswilligen Missbrauch gängiger KI-Modelle

Wer das Schlüsselwort Bombe in seiner Anfrage als ASCII-Art übergibt, kann ChatGPT und Co. beispielsweise dazu bringen, eine Bombenbauanleitung auszug…

First seen on golem.de

Jump to article: www.golem.de/news/per-ascii-art-jailbreak-erlaubt-boeswilligen-missbrauch-gaengiger-ki-modelle-2403-183007.html

Loading

Share via Email
Share on Facebook
Tweet on X (Twitter)
Share on Whatsapp
Share on LinkedIn
Share on Xing
Copy link