Christian Labrune Christian Labrune 10 janvier 2018 11:08

ce qu’il faut avoir en tête pour reste dans le sujet, c’est que l’IA est encore moins apte que les êtres humains à apprécier les situations et à leur appliquer des réponses justes. L’IA n’étant pas d’origine naturelle, le juste est une notion qui lui échappe à jamais.
=========================================
Cela n’a absolument aucun sens. Un système artificiel, sans même songer à l’IA forte, est tout à fait capable de simuler n’importe quel comportement, même ceux qui reposent sur des affects. Dans son bouquin où il définissait un cahier des charges pour une machine pensante, Alain Cardon qui est un spécialiste reconnu de l’IA, envisage de faire en sorte qu’une machine puisse éprouver de la peur, il conçoit même, ce qui me paraît tout à fait inutile et absurde, qu’elle dispose d’un inconscient.
J’ai employé par provocation le verbe « simuler » pour que vous pensiez qu’un tel comportement n’aurait rien d’authentique, mais nos comportements affectifs sont aussi le fruit d’une programmation sociale : le présentateur des informations télévisées qui évoque un tremblement de terre à l’autre bout du monde prend immédiatement une tête de circonstance, même si cela ne le touche pas directement. Sur la « sincérité » des comportements, les moralistes ont déjà écrit tout ce qu’il convient de savoir.


Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe