OpenAI: AI-browsers mogelijk altijd kwetsbaar voor prompt injection-aanvallen
In dit artikel:
OpenAI waarschuwt dat AI-browsers waarschijnlijk blijvend vatbaar blijven voor zogeheten prompt-injectionaanvallen: aanvallers geven via speciaal opgestelde opdrachten een AI de opdracht vertrouwelijke informatie prijs te geven of ongewenste handelingen uit te voeren. Het Britse National Cyber Security Centre zei eerder ook dat er mogelijk geen volledige oplossing bestaat voor dit type aanvallen.
In een blogpost over beveiligingsmaatregelen in ChatGPT Atlas benadrukt OpenAI dat prompt-injection een langetermijnprobleem is dat voortdurende versterking van verdedigingslagen vereist. Onderzoekers hebben al praktijktests gedaan: zo kregen zij via een phishingmail de AI-browser van Perplexity zover in te loggen op een phishingsite, wat de reële risico’s illustreert.
Beveiligingsexperts wijzen erop dat de voordelen van “agentic” AI-browsers nog niet altijd opwegen tegen de gevaren, vooral omdat deze tools vaak toegang hebben tot gevoelige data zoals e-mail en betaalinformatie. Verwacht wordt dat aanvallers zich blijven aanpassen aan nieuwe beveiligingsmaatregelen, waardoor permanente waakzaamheid en iteratieve verdedigingsstrategieën nodig blijven.