Il ne s’agit effectivement pas d’une connexion directe entre le cerveau et le membre articulé. Voici ce que j’écris dans l’article à ce propos :
« Dans le cas des prothèses développées par APL, la commande du bras robotisée ne passe pas par une connexion directe au cerveau. Ce sont les nerfs sectionnés du bras, qui sont réutilisés, et, par une technique appelée TMR (Targeted Muscle Reinnervation - ou réinnervation musculaire ciblée), connectés sur certains muscles du patient (en l’occurrence, des muscles de la région pectorale). Le patient apprend petit à petit à exciter correctement les nerfs détournés de leur fonction première pour commander les mouvements qu’il souhaite effectuer. Le bras robotisé détecte alors les commandes envoyées par les nerfs réinnervés grâce à des capteurs de l’activité musculaire positionnés précisément sur les muscles cibles de la région pectorale. »
Ce type d’interface non invasive (le patient peut « débrancher » sa prothèse quand il le souhaite) permettra pourtant à terme un contrôle fin des articulations du bras et des doigts, y compris avec un retour sensoriel. Il est en effet possible de réinnerver par cette technique plusieurs dizaines de fibres musculaires, et d’exciter en retour des zones de la peau dédiées au contrôle de la prothèse.
A plus long terme, je ne pense pas que les implants cérébraux seront nécessaires pour améliorer encore les prothèses robotisées, mais plutôt une meilleure connaissance des fibres nerveuses et de la technique de réinnervation. Après tout, cette « connectique » naturelle du nerf au cerveau est bien plus efficace pour le contrôle de la motricité qu’une connexion au cerveau par des implants (ce qui nécessite une cartographie de la région motrice du cortex d’une précision que nous n’avons pas). Je précise que j’ai également enquêté sur des travaux sur les implants cérébraux chez le chimpanzé (travaux de Miguel Nicolelis notamment).
Je rappellerais également les succès de l’implant cochléaire, qui est une prothèse auditive connectée directement au nerf auditif. Les informations sonores captées par un microphone sont transformées en excitations nerveuses du nerf auditif. Ces excitations sont ensuite traitées au niveau du cerveau comme si elles provenaient de la cochlée (le capteur naturel qui transforme les sons en excitations nerveuses dans le corps humain).
Pour conclure, je pense que, pour toutes les fonctions musculaires ou sensorielles, le plus judicieux, et le plus efficace restera la connexion aux nerfs, qui sont après tout les meilleures voies pour accéder aux zones du cerveau qui pilotent aux fonctions à remplacer.
En revanche, l’interface cerveau-machine, qui peut être invasive (électrodes implantées dans le cerveau) ou non invasive (capteurs de l’activité cérébrale, à la surface du crâne), est surtout prometteuse pour inaugurer un nouveau mode de contrôle des machines, et notamment des machines dites « intelligentes » comme les ordinateurs. Il ne s’agira donc plus de remplacer des fonctions existantes du corps humain (un membre ou un sens perdu), mais de gérer des fonctions nouvelles, des extensions artificielles du corps.
Ces interfaces qui n’existaient jusqu’à aujourd’hui que sous des formes indirectes (le clavier, le joystick,la souris, l’écran tactile, le volant, le « eyetracker » qui suit le mouvement des yeux) connaît aujourd’hui ces premières formes directes, comme l’interface d’Hitachi (mais d’autres ont déjà été présentées depuis plusieurs années).
Ce type d’interface, conjugué aux interfaces que nous connaissons déjà (l’écran notamment) permettra par exemple de naviguer plus rapidement sur internet ou d’accéder à des données sur un disque dur à la vitesse de la pensée. C’est en cela que j’évoquais la capacité future d’une extension de certaines capacités cérébrales. Et cela ne nécessite pas une compréhension exhaustive du fonctionnement du cerveau. L’essentiel des connaissances techniques pour le faire est presque déjà à notre disposition...
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe