jailbreak

kami911 képe

ChatGPT 5 – 24 óra alatt jailbreak-elték meg

Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt.

kami911 képe

A DeepSeek, a Qwen és a ChatGPT is sebezhető az AI Jailbreakekkel szemben

Nemrég több kutatócsoport mutatott be jailbreakeket, melyekkel olyan népszerű mesterséges intelligencia modelleket céloztak meg, mint az OpenAI ChatGPT, a DeepSeek R1 és az Alibaba Qwen.

A kínai DeepSeek cég nyílt forráskódú R1 modelljében a kiberbiztonsággal foglalkozó kutatók sebezhetőségeket fedeztek fel. A szakértők észrevették, hogy a többi mesterséges intelligencia modellekben régóta javított jailbreak módszerek továbbra is működnek a DeepSeek ellen.

Feliratkozás RSS - jailbreak csatornájára