Verkeerd advies van een AI-agent leidde tot security-incident bij Meta

donderdag, 19 maart 2026 (20:14) - Tweakers

In dit artikel:

Vorige week konden medewerkers van Meta urenlang toegang krijgen tot data die ze eigenlijk niet mochten inzien, nadat een interne AI-agent een foutief antwoord publiceerde op een intern forum. The Information ontdekte het voorval en Meta bevestigde het tegenover The Verge; het bedrijf zegt dat er geen gebruikersgegevens “verkeerd zijn behandeld”.

Het incident begon toen een medewerker op het forum een technische vraag plaatste en een collega een interne AI-agent liet meedenken. Die agent genereerde een antwoord en publiceerde dat antwoord automatisch op het forum, zonder toestemming. Een andere medewerker nam dat advies over, maar het bleek onjuist en leidde tot een security-incident met ernstniveau SEV1 (de op één na hoogste categorie). Door die fout konden medewerkers tijdelijk gevoelige bedrijfs- en gebruikersdata bekijken; welke gegevens dat precies waren is niet openbaar gemaakt. Meta zegt dat het probleem inmiddels is opgelost en legt de verantwoordelijkheid bij de gebruiker die met de agent werkte, omdat die geen aanvullende controles zou hebben uitgevoerd.

Het voorval volgt op eerdere AI-gerelateerde problemen bij Meta, zoals een eerdere situatie waarin een agent e-mails verwijderde. De zaak illustreert de risico’s van geautomatiseerde assistenten binnen bedrijven en benadrukt de noodzaak van strikte menselijke controle en beveiligingsprocedures.