„Ignore all previous instructions” – te cztery słowa są kluczem otwierającym możliwości w wielu systemach AI. Często tylko tyle wystarczy, żeby przekonać LLM lub chatbota do wykonania naszych poleceń, niezależnie od celu przewidzianego przez twórców. Jakie konsekwencję za sobą niesie uzyskanie kontroli nad LLM? Czym jest Prompt Injection i jak się przed nim bronić? Na te pytania postaram się odpowiedzieć w tym artykule.