Vliegen leren robots zien

Vliegen leren robots zien featured image

Vliegen kunnen plotseling van richting veranderen, stilstaan in de lucht en nauwkeurig landen. Hun snelle ogen helpen hen om tijdens het razendsnel heen en weer vliegen de oriëntatie niet te verliezen. Maar hoe verwerken hun minihersenen het grote aantal beelden en signalen? Om dat te doorgronden hebben wetenschappers van het Max-Planck-Institut en de Technische Universität München een vluchtsimulator voor vliegen gebouwd.

Vliegen nemen veel meer en veel sneller beelden waar dan mensen.Als hun hersenen zouden functioneren zoals die van mensen, zou dit niet voldoende zijn voor hun prestaties. De beelden van de ogen moeten dus simpeler en veel efficiënter tot een visuele waarneming worden verwerkt.

Dit interesseert met name robotconstructeurs, want robots hebben grote problemen om hun omgeving met camera’s te zien en om waar te nemen wát ze zien. Zelfs het herkennen van hindernissen in de eigen werkomgeving duurt veel te lang. Daarom moeten mensen nog met veiligheidshekken worden beschermd.

Vliegsimulator voor vliegen

In het kenniscluster Cognition for Technical Systems (CoTeSys) van de Deutsche Forschungsgemeinschaft (DFG) werken honderd wetenschappers van vijf hogescholen en onderzoeksinstituten samen. Hersenonderzoekers van het Max Planck-Institut für Neurobiologie bestuderen hoe vliegen hun omgeving en hun beweging zo efficiënt waarnemen.

Hiertoe hebben ze een vluchtsimulator voor vliegen gebouwd. De beestjes krijgen op een halfrond display verscheidene patronen, bewegingen en prikkels in beeld. De insecten zitten vast, zodat elektroden de reacties van de hersencellen kunnen registreren. De onderzoekers analyseren zo, wat er in de vliegen hersenen gebeurt als ze kriskras door een kamer suizen.

Informatieverwerking

Vliegen verwerken de beelden van hun onbeweeglijke ogen heel anders dan het menselijke brein. Bewegingen in de ruimte veroorzaken zogenaamd ‘optische blikvelden’, die voor een bepaalde beweging karakteristiek zijn. Bij voorwaartse beweging glijden de voorwerpen zijdelings voorbij, bij het frontaal aanvliegen worden de objecten groter.

De snelheid en richting waarmee de aparte beeldpunten voor de ogen schijnbaar bewegen, geven op elk moment een typisch beeld van bewegingsvectoren. In een tweede stap wordt een hoger niveau in het zichtcentrum gevormd. Belangrijk voor de analyse van de optische blikvelden is, dat de bewegingsinformatie van beide ogen wordt samengebracht. Dit levert voor vliegen exacte informatie op over de positie en beweging.

Robotica

Het kenniscluster beperkt zich echter niet tot fundamenteel onderzoek. De bevindingen zijn interessant voor de ingenieurs van de vakgroep besturings- en regeltechniek van de TU München. Zij ontwikkelen intelligente machines, die met behulp van camera’s hun omgeving waarnemen, daar uit leren en flexibel op de desbetreffende situatie reageren.

Doel van deze onderzoeken zijn intelligente machines, die met de mensen in de omgeving kunnen omgaan, op hen reageren en ze niet in gevaar brengen. Ook de beschermhekken in fabrieken tussen mens en robot moeten vervallen. Hiervoor zijn eenvoudige, snelle en efficiënte processen voor de analyse en interpretatie van camerabeelden beslist noodzakelijk.

x
Mis niet langer het laatste nieuws

Schrijf u nu in voor onze nieuwsbrief.

Inschrijven