LLMs: Unsicherer Code ohne Sicherheitsanweisungen
Neue Forschung von Backslash Security zeigt, dass LLMs wie GPT-4.1 standardmäßig unsicheren Code generieren, wenn keine expliziten Sicherheitsanweisungen gegeben werden. Durch zusätzliche Sicherheitsrichtlinien oder Regelwerke kann die Sicherheit verbessert werden. Backslash bietet Lösungen wie MCP Server, Rules und Extensions für IDEs an.