Is dit de beste hacker ooit?

zaterdag, 18 april 2026 (10:16) - NOS Nieuws

In dit artikel:

Anthropic, het AI-bedrijf opgericht door voormalige OpenAI-medewerkers, heeft een nieuw groot taalmodel ontwikkeld genaamd Mythos — maar beslist het model niet publiekelijk vrij te geven omdat het naar hun oordeel te riskant is. Volgens het bedrijf overtreft Mythos eerdere modellen op gebieden als redeneren, creatie van complexe tekst en het genereren van werkende code, eigenschappen die in verkeerde handen snel schadelijk kunnen worden.

De gevaren liggen vooral in het potentieel voor misbruik: een model met sterke probleemoplossende en codeervaardigheden kan helpen bij het schrijven van malware, het opzetten van gesofisticeerde phishing-campagnes, het ontwerpen van praktische instructies voor gevaarlijke handelingen of het vinden van manieren om beveiligingen te omzeilen. Bovendien maakt verbeterde taalvaardigheid het eenvoudiger om overtuigende desinformatie en manipulatieve inhoud op schaal te produceren.

Dat Anthropic, juist als bedrijf dat veiligheid hoog in het vaandel heeft staan en bekend is van de ‘constitutional AI’-aanpak en de Claude-modellen, dit besluit nam, benadrukt de spanning tussen technologische vooruitgang en verantwoord toezicht. Het incident activeert discussies binnen de sector over transparantie, onafhankelijke toetsing en de voorwaarden waaronder krachtige AI-systemen toegankelijk mogen zijn.

Experts en beleidsmakers pleiten voor gecontroleerde toegang (bijvoorbeeld via streng gemonitorde API’s), uitgebreide red-teaming, externe audits en internationale samenwerking om risico’s te verkleinen zonder nuttige toepassingen volledig te blokkeren. De zaak-Mythos illustreert dat zelfs ontwikkelaars die veiligheid prioriteren voor lastige afwegingen staan: hoe houd je innovatie gaande zonder onaanvaardbare maatschappelijke risico’s te creëren?