Anthropic: AI-modellen kunnen nu zelf kritieke kwetsbaarheden vinden
In dit artikel:
Anthropic zegt een nieuw taal-/code-AI te hebben gebouwd, Claude Mythos Preview, dat zelfstandig kritieke fouten in complexe software kan opsporen en zelfs werkende exploits kan genereren. Het model is niet publiek toegankelijk, maar is gedeeld met grote tech- en beveiligingsbedrijven — onder andere Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA en Palo Alto Networks — zodat zij hun eigen code kunnen scannen.
Volgens Anthropic heeft Mythos duizenden kwetsbaarheden gedetecteerd in alle grote besturingssystemen en browsers, waaronder een fout in OpenBSD die al 27 jaar bestaat, en een Linux-kernelzwakte waarmee een aanvaller rechten kan escaleren tot root. Het bedrijf stelt dat deze capaciteiten niet het resultaat zijn van gerichte training voor aanvallen, maar emergente effecten van verbeterd codebegrip, redeneervermogen en autonomie — eigenschappen die zowel bij patchen als bij misbruik helpen.
Anthropic wil het model voorlopig niet publiek maken en zegt eerst aanvullende beveiligingslagen te willen ontwikkelen die gevaarlijke output herkennen en blokkeren voordat vergelijkbare AI-modellen breder beschikbaar worden gesteld. Dit benadrukt de dubbele gebruiksrisico’s van krachtige codeer-AI en de noodzaak van verantwoordelijke inzet en disclosurepraktijken.