Wer das Schlüsselwort Bombe in seiner Anfrage als ASCII-Art übergibt, kann ChatGPT und Co. beispielsweise dazu bringen, eine Bombenbauanleitung auszug…
First seen on golem.de
Jump to article: www.golem.de/news/per-ascii-art-jailbreak-erlaubt-boeswilligen-missbrauch-gaengiger-ki-modelle-2403-183007.html
![]()

