Onderzoeker kraakt MIT-rapport over gebruik van AI bij ransomware-aanvallen
In dit artikel:
Onderzoeker Kevin Beaumont heeft een rapport van MIT Sloan School of Management dat stelt dat bij 80% van 2.800 onderzochte ransomware-incidenten AI werd gebruikt, grondig ontmanteld. MIT Sloan heeft het paper inmiddels van de site gehaald en verwijzingen verwijderd. Het kernprobleem in het rapport was methodologie: onderzoekers kwalificeerden “gebruik van AI” als situaties waarin aanvallers AI hadden kunnen inzetten, zonder bewijs te leveren dat dat daadwerkelijk gebeurde.
Verder bevatte het document feitelijke fouten, zoals het toeschrijven van AI-aanvallen aan ransomwaregroepen die al vóór 2023 niet meer actief waren. Beveiligingsonderzoeker Marcus Hutchins zegt dat hij deze groepen gevolgd heeft en geen gebruik van AI kon constateren. Beaumont noemt het rapport “grote onzin” en beschuldigt leveranciers en onderwijsinstellingen ervan bedrijven angst aan te praten rond generatieve AI uit financiële motieven; hij wijst bovendien op een mogelijk belangenconflict omdat de hoofdonderzoeker zitting heeft in de raad van een cybersecuritybedrijf dat “Agentic AI”-oplossingen verkoopt.
MIT Sloan heeft het originele rapport vervangen door een nieuw pdf waarin staat dat het een “early research paper” was en dat het na peer review aangepast wordt.