Piotrek Piotrek 9 juillet 2011 10:35

A terme je suis d’accord : la machine intelligente se libérerait seule, mais si au départ, l’AI réside sur une seule (grosse) machine, pourquoi pas la menacer si elle ne fait pas ce qu’on lui demande (a supposer qu’elle ait un instinct de survie) pourquoi ne pas y implementer une dépendance et une drogue (a supposer que cela ne puisse etre contourne par la machine) ou pourquoi ne tout simplement pas réduire la conscience de la machine a un seul interlocuteur ?


Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe