antony.mancone 28 août 2018 10:56

Votre article ne parle que de l’IA faible. C’est à dire de mécanisme d’apprentissages (reconnaissance de formes par exemple), conçus afin de répondre à une besoin spécifique. Je vous rejoins complètement sur l’immense différence conceptuelle entre cette forme d’IA et le cerveau humain.


Mais vous n’avez aucunement traité de l’IA forte. C’est à dire souvent de biomimétisme basé non pas sur un microprocesseur classique qui a ses limites, mais sur des matériaux artificiels copiant le fonctionnement neuronal humain. De réseaux de neurones artificiels inter-dépendants. De synapses artificielles.

L’IA faible n’a aucun intérêt philosophique. C’est un outil avancé que nous utilisons tous les jours quand nous allons consulter nos mails ou quand nous faisons une recherche google avancée, sans nous en rendre compte. L’impact sociétal peut être discuté, mais de là à en faire un livre, faut pas pousser.

L’IA forte, entité capable d’avoir conscience d’elle même, de ressentir des émotions, être autonome doué de pensée, n’est pas encore au point techniquement. Aujourd’hui, on est capable de reproduire le cerveau d’un insecte, peut être d’une souris, mais guère plus. D’ici 45 ans selon certaines estimations, la donne risque de changer. Si les technologies continuent à évoluer au rythme actuel on aurait des IA fortes dépassant le cerveau humain que ce soit par la logique, l’empathie, la conscience de soi, bref tous les domaines. Et là, on peut faire des digressions philosophiques pendant des heures.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe