Nieuw onderzoek van Johns Hopkins University toont aan dat de keuze van architectuur in kunstmatige intelligentie (AI) een grote invloed heeft op hoe snel en hoe mensachtig visuele systemen kunnen functioneren. Wetenschappers ontdekten dat AI-modellen met biologisch geïnspireerde bouwplannen activiteitspatronen vertonen die lijken op die in het menselijke brein, zelfs voordat deze modellen enige training ondergaan.
Architectuur versus eindeloze training
Veel hedendaagse benaderingen in AI vertrouwen op enorme datasets en langdurige training, wat enorme rekenkracht en energie vereist. De studie in Nature Machine Intelligence suggereert dat de onderliggende structuur van een model — de zogenaamde blauwdruk — soms belangrijker kan zijn dan jaren aan leerervaring. Volgens Mick Bonner, assistent-professor in cognitieve wetenschappen aan Johns Hopkins University en eerste auteur van de studie: “The way that the AI field is moving right now is to throw a bunch of data at the models and build compute resources the size of small cities. That requires spending hundreds of billions of dollars. Meanwhile, humans learn to see using very little data.”
Bonner stelt verder: “Evolution may have converged on this design for a good reason. Our work suggests that architectural designs that are more brain-like put the AI systems in a very advantageous starting point.” Die observatie leidde het team ertoe drie prominente netwerkklassen te onderzoeken die vaak als basis dienen voor moderne visuele AI-systemen.
Methoden: drie blauwdrukken onder de loep
De onderzoekers bouwden tientallen ongebruikte (niet-getrainde) neurale netwerken door systematisch variaties aan te brengen in drie hoofdtypen architecturen: transformers, volledig verbonden netwerken (fully connected networks) en convolutionele neurale netwerken (convolutional networks). Daarna werden deze netwerken blootgesteld aan beelden van objecten, personen en dieren.
De reacties van de modellen werden vergeleken met hersenactiviteit van mensen en primaten die naar dezelfde beelden keken. Deze directe vergelijking tussen ongeïnformeerde modellen en biologische waarnemers bood een unieke blik op de mate waarin structuur alleen al gedrags- en activiteitspatronen kan voorspellen.

Belangrijkste bevindingen
De belangrijkste uitkomst was dat het aanpassen van transformers en volledig verbonden netwerken door simpelweg veel meer knooppunten (neuronen) toe te voegen weinig effect had op de mate waarin hun activiteitsprofielen leken op die van het brein. Bij convolutionele netwerken bleek dat anders: door de architectuur te verfijnen konden de wetenschappers ongeëvenaarde, breinachtige activiteitspatronen genereren in niet-getrainde modellen.
Met andere woorden: ongecorrigeerde convolutionele netwerken konden, zonder miljoenen trainingsbeelden, al resultaten laten zien die rivaliseerden met conventionele systemen die juist veel training en voorbeelden vereisen. Dat onderstreept dat architectuurkeuzes een krachtige hefboom kunnen zijn voor het versnellen van visueel leren in AI.
Implicaties en vervolgonderzoek
De bevindingen impliceren dat er winst valt te behalen door meer aandacht te besteden aan hoe modellen zijn opgebouwd in plaats van alleen te focussen op schaalvergroting van data en rekenkracht. Als architectuur al een aanzienlijk deel van de benodigde representaties levert, zou dat kunnen betekenen dat toekomstige AI-systemen veel efficiënter kunnen leren wanneer ze vanaf een betere startpositie beginnen.
De onderzoekers werken nu aan eenvoudige, biologisch geïnspireerde leeralgoritmen die deze architecturale inzichten kunnen aanvullen. Het doel is een nieuw kader voor deep learning te ontwikkelen dat minder afhankelijk is van grootschalige datasets en zware rekeninfrastructuren.

| Architectuur | Wijzigingen getest | Effect op brein-lijkeness |
|---|---|---|
| Transformers | Vergroting van neuronenaantal | Weinig verandering |
| Fully connected networks | Vergroting van neuronenaantal | Weinig verandering |
| Convolutional networks | Architectuurverfijning en variaties | Significante toename in brein-lijkeness |
De tabel hierboven vat samen welke typen aanpassingen zijn geprobeerd en welk effect die hadden op de overeenkomsten tussen modelactiviteit en biologische hersenactiviteit. Deze compacte vergelijking maakt helder dat convolutionele bouwprincipes bijzondere potentie tonen voor visuele representatievorming.
De studie, met als titel “Convolutional architectures are cortex-aligned de novo”, is opgesteld door Atlas Kazemian, Eric Elmoznino en Michael F. Bonner. Het artikel bevat ook een DOI: 10.1038/s42256-025-01142-3.
Veelgestelde vragen (FAQ)
-
Wat betekent 'breinachtige' architectuur in AI?
Met 'breinachtige' architectuur wordt bedoeld dat de organisatie van lagen, filters en verbindingspatronen in een kunstmatig netwerk vergelijkbare activiteitsdynamiek en responsprofielen oplevert als waargenomen in biologische cortex. Vooral convolutionele principes bootsen onderdelen van visuele verwerking na.
-
Waarom zijn convolutionele netwerken effectiever zonder training?
Convolutionele netwerken gebruiken lokale receptieve velden en gewichtsdeling, ontwerpen die lijken op hoe visuele cortex informatie verwerkt. Die structurele eigenschappen geven ze van zichzelf al een voorsprong bij het extraheren van visuele patronen, zelfs voorafgaand aan leerprocessen.
-
Betekent dit het einde van grootschalige training?
Niet per se. Grootschalige training blijft waardevol voor veel toepassingen. De bevindingen wijzen echter op mogelijkheden om trainingen efficiënter te maken door te beginnen met betere, meer biologisch geïnspireerde blauwdrukken, gecombineerd met nieuwe leeralgoritmen.
-
Hoe verandert dit toekomstige AI-ontwikkeling?
Ontwikkelaars kunnen meer prioriteit geven aan architectonisch ontwerp en aan het integreren van biologische inzichten. Dit kan leiden tot energiezuinigere en snellere leerprocessen, met gevolgen voor onderzoek, industrie en toepassingen in de gezondheidszorg en robotica.