Antwoord AI-agent zorgde bij Meta voor datalek met gevoelige gegevens
In dit artikel:
Bij Meta heeft het antwoord van een interne AI-agent recent geleid tot een datalek waarbij gevoelige gebruikers- en bedrijfsgegevens korte tijd voor te veel medewerkers zichtbaar waren. Op een intern forum vroeg een medewerker om hulp bij een technisch probleem; een andere engineer liet een "OpenClaw-achtige" AI-agent de vraag analyseren. De agent plaatste een antwoord dat eigenlijk alleen voor de vragende medewerker bedoeld was, maar daardoor werd een configuratie gewijzigd die brede toegang mogelijk maakte.
Door het opvolgen van die instructies waren grote hoeveelheden data gedurende ongeveer twee uur beschikbaar voor engineers zonder daarvoor machtiging te hebben. Meta classificeerde het voorval als een SEV1‑beveiligingsincident (het een-na-hoogste niveau). Volgens woordvoerders voerde de AI geen zelfstandige acties uit, de gebruiker wist dat hij met een bot communiceerde, en er is geen aanwijzing dat gegevens zijn misbruikt. Tegelijk erkent het bedrijf dat betere controles of menselijke beoordeling dit had kunnen voorkomen.
Het incident illustreert de risico’s van AI-hulpmiddelen binnen bedrijfsomgevingen en benadrukt de noodzaak van strengere toegangscontroles, toezicht en duidelijke procedures voordat automatisch gegenereerd advies wordt uitgevoerd.