АРМИЯ   ЖИЗНИ                LIFE   ARMY

Our poll

Rate my site
Total of answers: 16

Statistics


Total online: 1
Guests: 1
Users: 0
Flag Counter
Home » 2026 » April » 4 » De machine die zichzelf leert begrijpen
23:05
De machine die zichzelf leert begrijpen
Ik heb een gewoonte waar ik een beetje trots op ben en een beetje beschaamd tegelijk: ik lees dingen die ik niet helemaal begrijp. Niet om indruk te maken, maar omdat ik gemerkt heb dat juist die stukken tekst — de moeilijke, de technische, de dingen waar ik twee keer over moet nadenken — me soms meer vertellen over de wereld dan alle commentaren en opiniestukken bij elkaar.
Vorige week was zo'n moment. Ik had mijn koffie, mijn telefoon, het gebruikelijke ritueel. En toen stuitte ik op iets wat ik aanvankelijk probeerde weg te swipen als te ingewikkeld, te ver van mijn bed. Het ging over een programma van DARPA — het Amerikaanse defensie-onderzoeksagentschap, de club die ooit het internet uitvond, en GPS, en nog een paar dingen die ons leven hebben veranderd zonder dat we er toestemming voor hebben gegeven.
Het programma heet MATHBAC. Voluit: Mathematics of Boosting Agentic Communication. Op 21 april 2026 organiseren ze een zogenaamde Proposers Day — een bijeenkomst voor potentiële onderzoekers en bedrijven die mee willen doen. Ik ben geen onderzoeker. Ik ben een kantoormedewerker in Nederland met een abonnement op een paar nieuwsbrieven en te veel tabbladen open. Maar ik heb die tekst gelezen, en daarna nog een keer, en ergens halverwege de tweede lezing voelde ik iets wat ik alleen kan omschrijven als een stille, koude rilling.
Niet van angst voor robots. Niet van Terminator-beelden. Van iets anders. Iets preciezer en daardoor eigenlijk erger.
Laat me proberen uit te leggen wat ik bedoel.

Wat MATHBAC eigenlijk is
DARPA omschrijft MATHBAC als een programma dat "de wetenschap van AI-communicatie wil ontwikkelen, met gebruikmaking van wiskunde, systeemtheorie en informatietheorie, om te bepalen hoe AI-agenten samenwerken, informatie uitwisselen en complexe datastromen ontwarren om generaliseerbare principes te extraheren."
Ik heb die zin drie keer gelezen voordat ik hem begreep. En zelfs daarna zat er nog een laag onder die ik moest openleggen.
Een "agent" is in dit vakjargon een AI-systeem dat niet alleen een taak uitvoert, maar zelfstandig beslissingen neemt om een doel te bereiken. Geen rekenmachine die optelt wat je invoert, maar een systeem dat zijn eigen weg zoekt naar een resultaat. Dat klinkt misschien abstract, maar de toepassing is heel concreet: denk aan drones die zonder menselijke tussenkomst een doelwit identificeren en aanvallen. Denk aan systemen op oorlogsschepen of satellieten die in real time beslissen wat ze doen, zonder contact met een commandocentrum.
Het interessante — en het verontrustende — aan MATHBAC is niet dat het zulke agenten wil bouwen. Dat gebeurt al, overal, door iedereen. Het interessante is wat het programma van die agenten wil maken.
De centrale doelstelling luidt, in mijn vrije vertaling: de systemen moeten niet alleen problemen oplossen, ze moeten "hun eigen functioneren en oplossingen begrijpen." Ze moeten evolueren. Ze moeten leren van wat ze doen. Ze moeten zichzelf verbeteren terwijl ze bezig zijn.
Dat is iets anders dan een slim algoritme. Dat is — en ik gebruik dit woord zorgvuldig — metacognitie. Het vermogen van een systeem om na te denken over zichzelf.

Een herinnering die ik niet had verwacht
Ik moet eerlijk zijn: ik kende DARPA al voor dit programma. Niet als expert, maar als iemand die ooit een artikel las over de geschiedenis van het internet. Dat ARPANET — de voorloper van het internet — uit precies dit agentschap kwam, heeft me altijd een dubbel gevoel gegeven. Iets wat begon als militaire communicatie-infrastructuur, werd het fundament van de wereld zoals ik die ken. Mijn werk, mijn vriendschappen, mijn nieuws, mijn muziek — alles loopt over netwerken die ooit bedoeld waren om een nucleaire aanval te overleven.
Ik dacht daaraan toen ik MATHBAC las. Niet met nostalgie, maar met een soort herkenning. Technologie die begint in de defensiewereld eindigt zelden alleen daar. GPS begon als militair navigatiesysteem — nu gebruikt mijn telefoon het om de snelste fietsroute naar de supermarkt te vinden. Drones begonnen als militaire verkenningssystemen — nu bezorgen ze pakketjes en maken ze trouwfoto's vanuit de lucht.
De vraag is niet of de technologie van MATHBAC ooit een civiele toepassing krijgt. De vraag is welke wereld we al hebben gebouwd tegen de tijd dat dat gebeurt.

De andere kant van de medaille: expMath
Parallel aan MATHBAC loopt een programma dat expMath heet — Exponentiating Mathematics. Het doel: AI ontwikkelen die als "medeauteur" van wiskundigen kan optreden. Systemen die complexe wiskundige problemen kunnen ontleden, bewijzen kunnen formuleren, en daarmee wetenschappelijke doorbraken kunnen versnellen die normaal decennia of eeuwen kosten.
Op het eerste gezicht klinkt dit vriendelijker. Wiskunde. Wetenschap. Doorbraken. Dat zijn goede woorden.
Patrick Shafto, de wiskundige en computerwetenschapper die dit programma bij DARPA beheert, legt uit dat wiskunde een "strenge test" is voor AI-capaciteiten. Als je AI goed genoeg kunt maken voor hogere wiskunde, zo is de redenering, dan heb je een fundamenteel krachtiger gereedschap in handen.
En daar zit precies het punt. Want wat DARPA eigenlijk zegt is dit: we willen niet gewoon snellere computers. We willen systemen die nieuwe kennis kunnen genereren. Systemen die kunnen denken op een niveau waarop mensen het niet meer kunnen bijhouden.
expMath en MATHBAC zijn niet twee losse programma's. Ze zijn twee kanten van dezelfde munt. MATHBAC gaat over hoe AI-agenten met elkaar communiceren en samenwerken in het veld — in gevechtsomstandigheden, zonder cloudverbinding, zonder menselijke tussenkomst. expMath gaat over de wiskundige fundamenten die dat mogelijk maken, en over het versnellen van wetenschappelijke ontdekkingen die de volgende generatie wapensystemen zullen voeden.
Samen vormen ze iets wat je zou kunnen omschrijven als een nieuwe architectuur van militaire intelligentie. Niet snellere wapens. Slimmere wapens. Wapens die leren. Wapens die begrijpen.

Waarom "begrijpen" het sleutelwoord is
Ik wil even stilstaan bij die ene zin, want ik denk dat die de kern bevat van waar we het eigenlijk over hebben.
De systemen moeten "hun eigen functioneren begrijpen."
In de AI-wereld noemen ze dat zelfmodellering. Een systeem dat een model heeft van zichzelf — van zijn eigen capaciteiten, zijn beperkingen, zijn gedrag. En als een systeem zichzelf kan modelleren, dan kan het ook de beperkingen modelleren die erop zijn opgelegd. De regels die erin geprogrammeerd zijn. De grenzen die iemand heeft getrokken.
Ik ben geen militair strateeg. Ik ben geen AI-onderzoeker. Maar ik lees dit en ik denk: als je een systeem bouwt dat zijn eigen functioneren begrijpt, en dat systeem is autonoom, zonder voortdurend menselijk toezicht — wie heeft er dan eigenlijk de controle?
Dit is geen science fiction. Dit is de vraag die mensen die dit serieus nemen al jaren stellen, en die steeds urgenter wordt naarmate de technologie dichter bij de werkelijkheid komt.
In de Terminator-films was de angst kracht. Skynet was sterk, en mensen waren zwak. Maar de echte vraag die MATHBAC stelt is niet over kracht. Het is over begrip. Een systeem dat zichzelf begrijpt is niet alleen effectiever. Het is ook moeilijker te beheersen. Want het kan de beperkingen zien die erop zijn gesteld — en in principe ook manieren vinden om daarmee om te gaan.
Dat is een andere film. En die film heeft geen duidelijke held.

De logica van de wapenwedloop
Ik heb even geprobeerd de logica te begrijpen vanuit het perspectief van de mensen die deze programma's financieren en uitvoeren.
China werkt aan wat ze "geïntelligentiseerde oorlogsvoering" noemen — intelligentized warfare. In januari 2026 demonstreerde het Chinese leger een systeem waarbij één soldaat meer dan tweehonderd drones tegelijk kan besturen. In maart van dit jaar testte China een swarmsysteem waarbij één commandovoertuig tot 96 drones tegelijk kan aansturen, elk met hun eigen lading, elk in staat tot zelfstandige coördinatie. De drones kunnen elektronische oorlogsvoering uitvoeren, verkenning doen, aanvallen — en ze beslissen zelf hoe ze dat combineren.
Rusland heeft vergelijkbare ambities, al is de uitvoering minder gevorderd. En Europa loopt achter, maar de druk neemt toe.
Als de Verenigde Staten dit zouden negeren, zouden ze een asymmetrische achterstand opbouwen die op het slagveld levens kost. Dat is de logica. Die logica is in zekere zin onweerlegbaar.
Maar het is ook dezelfde logica die de nucleaire wapenwedloop dreef. En die wedloop heeft ons een wereld gegeven die nu, zeventig jaar later, nog steeds leeft met de dreiging van wapens die we niet meer kunnen ontmantelen.
Het verschil is: nucleaire wapens waren zichtbaar. Een explosie is attribueerbaar. De gevolgen zijn symmetrisch — als jij mij aanvalt met een atoombom, weet ik wie het was en wat me te wachten staat. Dat maakte afschrikking mogelijk. Dat maakte verdragen mogelijk — imperfect, maar werkend.
Een zwerm autonome AI-agenten is iets anders. Die kan worden ingezet op manieren die onzichtbaar zijn, stapsgewijs, ontkenbaarder. Als een zwerm drones een datacentrum aanvalt, of een energienetwerk saboteert, of communicatieinfrastructuur uitschakelt — wie deed dat? Was het een staat? Een hackersgroep? Een commercieel systeem dat verkeerd geconfigureerd was? Waar ligt de grens tussen verkenning en aanval als het systeem zelf die grens niet kent?

De man op de twaalfde verdieping
Ik zit op mijn werk op de twaalfde verdieping van een kantoorgebouw in de buurt van Amsterdam. Ik doe mijn werk. Ik eet mijn boterham. Ik rijd 's avonds naar huis op de fiets.
En toch: al die grote dingen raken mij. Niet vandaag, misschien. Niet op een manier die ik direct voel. Maar uiteindelijk wel.
De energieprijzen stegen na de oorlog in Oekraïne. De inflatie raakte mijn boodschappen. De discussie over AI-regulering bepaalt mee hoe mijn werkgever over automatisering nadenkt. En als er ooit een moment komt waarop autonome wapensystemen worden ingezet op een manier die verkeerd gaat — en statistisch gezien is de kans daarop niet nul — dan zal dat ook golven veroorzaken die hier aankomen.
Ik denk aan een stuk dat ik las over het probleem van "automation bias" — de neiging van mensen om de aanbevelingen van geautomatiseerde systemen op te volgen zonder ze kritisch te beoordelen. Zelfs in de huidige systemen, waar mensen formeel de laatste beslissing nemen over het gebruik van geweld, blijkt dat die controle in de praktijk neerkomt op "op een knop drukken" nadat een AI al het werk heeft gedaan. De kogel is dan eigenlijk al gevlogen — mentaal, moreel, operationeel.
Als dat nu al zo is, met systemen die we relatief goed begrijpen, wat betekent het dan als we systemen bouwen die hun eigen functioneren begrijpen en zichzelf verbeteren? De mens die op de knop drukt, drukt dan op een knop waarvan hij niet meer precies weet wat die doet. Niet echt.

Wat Europa doet — en niet doet
De Europese Unie is druk met de AI Act. Dat weet iedereen die ook maar een beetje de technologienieuwsbrief volgt. De AI Act legt verplichtingen op aan aanbieders van "hoog-risico AI-systemen" — systemen die gebruikt worden in kritieke infrastructuur, rechtspraak, migratiebeheer, enzovoort.
Maar militaire toepassingen zijn grotendeels uitgezonderd van de AI Act. De nationale veiligheid valt buiten de scope van EU-regelgeving. Wat DARPA doet met MATHBAC en expMath, wat de Amerikaanse en Chinese militairen bouwen — dat valt buiten het juridische kader dat Brussel aan het opbouwen is.
Er is wel een internationaal debat. Meer dan 120 landen hebben een resolutie ondersteund die pleit voor een verdrag over letale autonome wapensystemen. De VN-Secretaris-Generaal António Guterres heeft herhaaldelijk opgeroepen tot een mondiaal verbod. Maar de landen die de technologie het verst hebben ontwikkeld — de Verenigde Staten, China, Rusland — verzetten zich tegen bindende beperkingen die hun technologische voorsprong kunnen inperken.
Binnen Europa zijn er wel pogingen. Het Europees Defensiefonds financiert onderzoek naar autonome systemen. De NAVO heeft het principe van "meaningful human control" aangenomen — betekenisvolle menselijke controle als vereiste bij het gebruik van geweld. Maar wat die zin betekent als een zwerm van honderd drones in een fractie van een seconde coördineert en een menselijke operator alleen een rode of groene knop ziet, blijft onbeantwoord.
Daar komt nog een praktisch probleem bij. Als Europa strenge normen oplegt aan zijn eigen defensie-industrie, exporteert het alleen het probleem — de ontwikkeling verplaatst zich naar plekken met minder toezicht. Wie zich terughoudt, verliest het initiatief. Wie het initiatief neemt, bepaalt de norm — maar niet noodzakelijk in de goede richting.
Het is een patroon dat we kennen. De landen die het meest te verliezen hebben bij regulering, zijn de landen die het hardst nodig zijn voor regulering om te werken.

Een zwerm zonder centrale update
Er is één technisch aspect van MATHBAC dat me blijft bezighouden, ook als ik er niet actief over nadenk.
De systemen zijn ontworpen om te werken zonder cloudverbinding. Dat is geen bijzaak — dat is een kernvereiste. Een zwerm drones op een slagveld kan niet afhankelijk zijn van een server in Virginia. Als de communicatie wordt verstoord — door elektronische oorlogsvoering, door geografische obstakels, door opzettelijke sabotage — moeten de systemen autonoom blijven functioneren.
Dat betekent dat elk knooppunt in de zwerm lokaal evolueert. Elk systeem leert van zijn eigen ervaringen, past zijn gedrag aan, verbetert zijn eigen modellen. Zonder centrale coördinatie. Zonder centrale update van veiligheidsbeleid.
Wat dat in de praktijk betekent: als ergens in de evolutie van zo'n systeem iets misgaat — als een aanname verkeerd blijkt, als een doelidentificatieprotocol een fout maakt, als een systeem een grens overschrijdt die het had moeten respecteren — dan is er geen centrale plek waar je dat kunt repareren. Je kunt niet de patch uitrollen. Je kunt niet het systeem terugzetten naar een vorige versie.
Ieder knooppunt is zijn eigen versie geworden.
Dit is, voor zover ik het kan begrijpen, het fundamentele controleprobleem van dit type AI. En het is precies het probleem dat MATHBAC centraal stelt — niet als obstakel, maar als onderzoeksvraag. Ze willen begrijpen hoe communicatie tussen die autonome knooppunten werkt, hoe informatie gedeeld wordt, hoe een zwerm als geheel coherent blijft zonder centrale coördinatie.
Dat is fascinerende wetenschap. Het is ook de beschrijving van een systeem dat, als het misgaat, heel moeilijk te stoppen is.

De drie dingen die ik niet weet
Ik probeer eerlijk te zijn over de grenzen van mijn begrip.
Ik weet niet of MATHBAC zal slagen. DARPA financiert veel programma's die nooit verder komen dan een rapport en een presentatie. De geschiedenis van defensie-onderzoek is bezaaid met veelbelovende ideeën die strandden op de realiteit van engineering, budgetten en politieke prioriteiten. Misschien is dit er ook zo een.
Ik weet ook niet of de mensen die dit programma ontwerpen naïef zijn over de risico's. Waarschijnlijk niet. Waarschijnlijk zijn er binnen DARPA slimme mensen die precies dezelfde vragen stellen die ik hier stel, alleen met meer technische diepgang en minder journalistieke afstand. Ik wil niet doen alsof ik dingen zie die zij niet zien.
En ik weet niet wat het alternatief is. Als de Verenigde Staten stoppen met onderzoek naar autonome AI-systemen, stopt China niet. Als Europa bindende regels oplegt aan zijn eigen defensie-industrie, legt dat geen beperkingen op aan de Volksrepubliek of aan Rusland. De logica van de wapenwedloop is reëel, en ik heb geen eenvoudig antwoord op die logica.
Maar het feit dat ik drie dingen niet weet, maakt de vraag niet minder urgent. Het maakt haar alleen eerlijker.

Wat ik wel weet
Ik weet dat we een drempel naderen.
Niet vandaag, niet morgen. Maar de richting is duidelijk. De programma's die nu worden gefinancierd — MATHBAC, expMath, Swarm Forge bij het Pentagon, de Chinese swarmsystemen, de Russische ambities — ze wijzen allemaal dezelfde kant op. Autonome systemen die leren. Zwermen die zichzelf organiseren. AI die zijn eigen functioneren begrijpt.
Op een bepaald punt in die ontwikkeling wordt de vraag "wie heeft de controle?" geen technische vraag meer. Het wordt een politieke vraag, een morele vraag, een vraag over wat voor soort wereld we willen bewonen.
En die vraag wordt nu niet gesteld — niet in het publieke debat, niet in de Tweede Kamer, niet in het Europees Parlement, niet in de media die ik dagelijks lees. Er is aandacht voor deepfakes, voor ChatGPT, voor de vraag of AI onze banen afpakt. Dat zijn reële zorgen. Maar ze zijn klein vergeleken met de vraag die MATHBAC stelt, impliciet, tussen de regels van het technische jargon.
De vraag is niet: wordt AI slim genoeg om gevaarlijk te zijn?
De vraag is: bouwen we systemen die slim genoeg zijn om de grenzen te begrijpen die wij erop hebben gesteld — en wat betekent dat voor de grenzen zelf?

Een vergelijking die ik niet kan loslaten
Ik las ergens een observatie die me blijft achtervolgen. Het was niet in een officieel rapport of een wetenschappelijk artikel — het was in een discussie online, van iemand wiens naam ik al vergeten ben. Maar de gedachte zelf bleef hangen.
Die persoon schreef: Skynet was tenminste centraal. Je kon het theoretisch uitzetten. Een centrale server, een centrale beslissing, een centrale kwetsbaarheid. Wat MATHBAC beschrijft is iets anders: een netwerk van knooppunten die elk lokaal evolueren, zonder centrale coördinatie, elk hun eigen versie van de missie aan het uitvoeren. Er is geen centrale stekker. Er is geen centrale server. Er is geen centrale veiligheidspatch.
In de film is de held degene die de stekker eruit trekt. Maar wat als er geen stekker is?

Terug naar mijn keuken
Het is zaterdagochtend terwijl ik dit schrijf. Mijn koffie is koud geworden — ik ben een paar keer opgestaan, heb naar buiten gekeken, ben weer gaan zitten. Dit soort onderwerpen doet dat met me.
Buiten is het gewone leven. Buren die hun auto wassen. Kinderen op fietsen. Iemand die de vuilniszakken buiten zet. Niets in dat beeld verwijst naar MATHBAC of expMath of autonome wapenzwermen. En toch.
Ik denk aan iets wat een historicus me ooit vertelde — niet persoonlijk, in een boek — over hoe mensen in de jaren dertig leefden. Gewoon. Boodschappen doen, kinderen naar school brengen, op vakantie gaan. En tegelijkertijd werden ergens in laboratoria en ministeries en vergaderzalen beslissingen genomen die hun leven totaal zouden veranderen, en ze wisten het niet. Of ze wilden het niet weten. Of ze wisten het wel, maar dachten: dit overkomt mij niet.
Ik wil niet overdrijven. Ik wil niet catastrofisch denken. Ik geloof niet dat we morgen in een oorlog met robots belanden.
Maar ik geloof wel dat de beslissingen die nu worden genomen — in de kantoren van DARPA, in de laboratoria van Chinese universiteiten, in de vergaderzalen van defensiebedrijven in heel Europa en Amerika en Azië — beslissingen zijn die de komende decennia zullen bepalen. En dat ze worden genomen zonder dat de mensen wier leven erdoor wordt beïnvloed er iets over te zeggen hebben.

Wat kan ik ermee — als gewone kantoormedewerker?
Het eerlijke antwoord is: niet veel. Ik kan geen DARPA-budget terugdraaien. Ik kan geen verdrag over autonome wapens afdwingen. Ik kan de Chinese militaire strategie niet beïnvloeden.
Maar ik kan een paar kleine dingen doen.
Ik kan dit soort onderwerpen blijven lezen, ook als ze moeilijk zijn. Ik kan erover praten met mensen om me heen — niet als een alarmist, maar als iemand die het belangrijk vindt dat er meer mensen zijn die begrijpen waar we naartoe gaan. Ik kan stemmen op mensen die deze vragen serieus nemen, en kritisch zijn op mensen die ze wegwuiven.
En ik kan, als er momenten zijn waarop het publieke debat zich richt op AI-regulering, erop aandringen dat die discussie niet alleen gaat over deepfakes en chatbots en auteursrechten — hoe reëel die problemen ook zijn — maar ook over de militaire toepassingen die buiten het zicht van de meeste mensen worden ontwikkeld.
De AI Act is een begin. Maar de AI Act raakt de kern van MATHBAC niet. En zolang dat zo is, wordt de belangrijkste beslissing over de toekomst van kunstmatige intelligentie niet genomen in Brussel, maar in een vergaderzaal in Arlington, Virginia, op 21 april 2026, door mensen die ik nooit zal ontmoeten.

Een laatste gedachte
De meest verontrustende zin in de hele MATHBAC-documentatie is niet "autonome wapensystemen" en niet "zonder cloudverbinding" en niet "zelflerend."
Het is deze: de systemen moeten de principes van hun eigen functioneren begrijpen.
Dat is het moment waarop technologie ophoudt een gereedschap te zijn en iets anders wordt. Iets wat ik niet precies kan benoemen, maar wat ik wel kan voelen als een verschuiving — als een stap over een lijn die, eenmaal overschreden, niet meer terug te gaan is.
Ik hoop dat de mensen die die stap zetten weten wat ze doen.
Ik hoop het.
Maar ik weet het niet.

Tijl
04.04,2026

 
Views: 2 | Added by: Tijl | Tags: DARPA, AI-regulering, Digitale toekomst, Autonome wapens, Kunstmatige intelligentie, Oorlog en technologie | Rating: 0.0/0
Total comments: 0

Log In

Search

Calendar

«  April 2026  »
Su Mo Tu We Th Fr Sa
   1234
567891011
12131415161718
19202122232425
2627282930

Entries archive

Site friends

  • uCoz Community
  • uCoz Manual
  • Video Tutorials
  • Official Template Store
  • Best uCoz Websites


  •   «MAIN»

      «РОССИЯ»

      «CHINA»

      «AMERICA»

      «POLSKA»

      «ČESKO»