Commentaire de perlseb
sur Election Présidentielle 2022 : subirons-nous encore une campagne électorale des années 70/80 qui passera à coté de l'essentiel ?


Voir l'intégralité des commentaires de cet article

perlseb 3 septembre 2021 17:07

@eau-pression
Un réseau de neurones artificiels fonctionne en imitant nos neurones. Et quand la machine donne une réponse, on ne peut plus expliquer son cheminement, il n’y a aucun code à dérouler (juste des « connexions »), et la réponse n’est pas forcément juste d’ailleurs, comme nos propres réflexions.
Toute la difficulté vient de « former » ce réseau de neurones par l’apprentissage profond (« deep learning » en anglais).

Pour l’exemple du jeu de Go, l’apprentissage profond pourra être réalisé en faisant jouer la machine contre elle-même et en seulement 72h, elle sera meilleure que le meilleur humain ayant consacré sa vie à ce jeu. Ce qui est intéressant avec le Go, c’est que la machine ne peut pas calculer tous les coups (il y en a beaucoup trop). Elle choisit par « intuition », comme le fait n’importe quel joueur. Elle fait également preuve de créativité : certains coups paraissaient mauvais lorsqu’elle a battu le champion du monde, mais c’est le champion du monde qui a du revoir ses idées sur ce qu’était un bon ou un mauvais coup.

Pour les échecs, en ne connaissant que les règles d’échecs, en jouant contre lui-même pendant 4h pour s’améliorer, AlphaZero (réseau de neurones) qui ne calculait que 80.000 coups par secondes a battu Stockfish qui calculait 70 millions de coups par seconde associé à un programme lourd et complexe (algorithme).
Tous les programmeurs ayant réalisé Stockfish (experts dans un domaine complexe) voient leurs travaux rendus obsolètes par un apprentissage de 4h d’une machine. Et la machine AlphaZero est beaucoup plus efficace (plus « intuitive ») : moins de coups calculés pour un bien meilleur résultat.

Comme on ne comprendra bientôt plus du tout les résultats fournis par les machines, effectivement, il y aura des problèmes de responsabilité lorsqu’elles se planteront. Mais cela fait longtemps que les patrons ont créé des lois pour ne pas risquer leur fortune en cas de grave problème (sociétés à responsabilités limitées : on ne perd au maximum que le capital investi qui peut être très « faible » pour une nouvelle société). Donc si les IA développent des produits complètement disruptifs, alors des nouvelles boites seront créés pour les vendre (responsabilité n’engageant pas un grand groupe) et les clients de ce produit prendront un vrai risque, par exemple des start-ups, comme on fait un pari. Soit l’IA ne s’est pas trompée, et les les grosses boites suivront en utilisant ce produit disruptif, soit il y aura des faillites en cascades sur celles qui auront pris le risque.


Voir ce commentaire dans son contexte