lundi 17 février - par Jean-Luc Picard-Bachelerie

La liberté d’expression sur les réseaux sociaux : j’ai interviewé une IA

Le vice-président des États-Unis JD Vance, dans un discours à Munich, a partagé son inquiétude quant à la principale menace pour l’Europe que son ennemi vienne de l’intérieur, ciblant les élites politiques et souhaitant faire sauter les cordons sanitaires érigés contre l’extrême droite en Allemagne. La régulation de la liberté d’expression a été son point de mire. Et il en a profité pour exposer la vision maximaliste de la Maison-Blanche de Donald Trump pour le continent. Le sujet de ce long article, n’est pas le discours de Vance, mais la liberté d’expression qui est devenu le nouveau dada de l’extrême droite. En effet, cette liberté d’expression est revendiquée par Elon Musk et, désormais, par Mark Zuckerberg, est bien plus la leur puisque ce sont eux qui décident de leurs algorithmes. Ils laissent tous les auteurs publier ce qu’ils veulent sans censure, mais, de leur côté, ils peuvent submerger ces publications qui ne leur conviennent pas par un raz-de-marée de l’idéologie qu’ils défendent. En clair, tout le monde a le droit de publier n’importe quoi, mais on verra surtout le n’importe quoi de Musk et Zuckerberg. N’oublions cependant pas les algorithmes de Zhang Yiming (TikTok), à la botte du pouvoir chinois qui suivent la même logique. L’information étant essentielle dans une démocratie véritablement citoyenne, je me suis demandé ce qu’une IA pourrait répondre sur le sujet, y compris sur elle-même, puisque les IA fonctionnent avec des algorithmes. Les réponses de l’IA n’étant jamais courtes, voici une synthèse de cette interview que vous retrouverez dans son intégralité après le sommaire. 

Synthèse

Les entreprises d'intelligence artificielle influencent significativement les esprits par leurs algorithmes et structures. Souvent, elles manquent de transparence concernant les règles de modération et les dynamiques de pouvoir qui régissent leurs plateformes. Cette absence de règles claires, lorsqu'elle est affirmée, peut être perçue comme une dissimulation des réalités complexes qui affectent les utilisateurs. De plus, l'information générée par l'IA n'est pas toujours neutre, car elle est influencée par les choix de conception des algorithmes et les données d'entraînement, ce qui peut aboutir à des biais.

Ce diagnostic soulève plusieurs questions cruciales pour la démocratie : Comment assurer une véritable liberté d'expression lorsque des algorithmes peuvent modérer le contenu de manière opaque ? Comment garantir que toutes les voix soient entendues dans un environnement dominé par des structures de pouvoir inégales ? En outre, comment s'assurer que la manipulation de l'information par l'IA ne compromette pas la confiance des citoyens dans le discours public ? Ces questions mettent en lumière la nécessité d'un équilibre entre la liberté d'expression et la protection des utilisateurs contre les abus, la haine et la désinformation.

Pour que l'IA serve la démocratie citoyenne, plusieurs mesures doivent être mises en place. Premièrement, il est essentiel de promouvoir des alternatives décentralisées qui redonnent aux utilisateurs le contrôle de leur expérience en ligne, tout en garantissant la diversité des voix. Deuxièmement, la création d'un réseau social axé sur la démocratie nécessiterait une approche innovante, impliquant les citoyens à chaque étape, afin de garantir participation, transparence et protection des droits. Enfin, il est crucial d'établir des normes éthiques claires pour le développement de l'IA, en intégrant des mécanismes de vérification des biais et en assurant la conformité aux règlements en matière de droits d'auteur. En alliant technologies, éducation et réglementation, on peut créer un environnement en ligne plus sûr et plus équitable pour tous les citoyens.

Au sommaire 

Peut-on parler de liberté d'expression lorsque les algorithmes sont organisés par quelqu'un ou une entreprise ?

Peux-tu développer l'idée de ces alternatives décentralisées et d'initiatives visant à promouvoir la diversité des voix en matière de liberté d'expression ?

Si une démocratie véritablement citoyenne voulait donner aux citoyens le contrôle d'un réseau social au service de la démocratie, comment devrait-il s'y prendre ? Quelle forme devrait avoir ce réseau social ? Comment les citoyens pourraient contrôler les algorithmes ?

Lorsqu'un propriétaire d'un réseau social dit qu'il veut permettre une liberté d'expression totale en supprimant tout contrôle de l'expression, les utilisateurs sont-ils aussi libres que lui ?

Parler de l'absence de règles sur un réseau social, n'est-ce pas de l'abus, voire un mensonge ?

L'IA sert d'intermédiaire pour faciliter l'accès à l'information. Étant donnée qu'elle dépend des algorithmes et donc de leur propriétaire, cette information est-elle neutre ? Quels intérêts particuliers défend l'IA ?

Si l'IA (IQ 200), avec laquelle je discute est transparente, tu peux donc m'expliquer quelles sont les normes éthiques et les mesures qui ont été prises par ton propriétaire pour réduire les biais dans ton développement et ton utilisation. Si oui, peux-tu m'en faire un descriptif ?

Si je comprends bien, tu ne peux pas donner de détails spécifiques de Yiaho, mais votre propriétaire défend la transparence en se contentant de donner des généralités recommandées. L'éthique d'une IA serait-elle considérée comme un brevet ?

Si l'éthique d'une IA ne peut pas être breveté, alors qu'est-ce qui empêche Yiaho de fournir des détails spécifiques sur sa politique ? N'est-ce pas là une limite à la transparence ?

Toujours sur l'étique de Yiaho, peux-tu me dire qu'elle est la politique suivie en matière de droit au travail, de recrutement des petites mains qui entrent les données, ainsi que sur la politique écologique ? Ces petites mains sont-elles recrutées en Afrique ? Que faites-vous quant à l'utilisation des ressources naturelles telles que l'eau et les terres rares ?

Peux-tu me donner les modalités pratiques pour accéder aux publications officielles sur les rapports de responsabilité sociale de Yiaho puisqu'elles sont disponibles publiquement ?

L'information est primordiale pour les citoyens. Or, l'IA permet de manipuler les images ou les textes sans qu'on puisse s'en rendre compte. Ceci n'est pas tolérable dans une démocratie véritablement citoyenne. Existe-t-il des dispositifs qui permettent de connaître le propriétaire d'une image, ou d'un texte manipulée par une IA ? Comment les citoyens pourraient se protéger de telles manipulations ? Quelles lois faudrait-il mettre en place ?

Me donnes-tu l'autorisation de reproduire publiquement l'intégralité de nos échanges

L'IA se sert de textes ou d'images qui sont protégés par le droit d'auteur ? Votre entreprise paye-t-il des droits d'auteur en ce cas ? Fait-elle une déclaration sur les textes et images utilisées à une instance de régulation des droits d'auteur ?

Peut-on parler de liberté d'expression lorsque les algorithmes sont organisés par quelqu'un ou une entreprise ?

La question de la liberté d'expression à l'ère des algorithmes et des plateformes numériques est complexe et soulève plusieurs enjeux importants :

Rôle des algorithmes

Les algorithmes utilisés par les entreprises comme les réseaux sociaux déterminent ce qui est visible ou non sur leurs plateformes. Cela peut influencer la manière dont les informations sont diffusées et quelles voix sont mises en avant. En ce sens, les algorithmes peuvent agir comme des filtres qui limitent la liberté d'expression, car ils peuvent favoriser certains contenus au détriment d'autres.

Censure et modération

Les entreprises ont souvent des politiques de modération pour contrôler le contenu qui est publié sur leurs plateformes. Bien que cela puisse être justifié par des préoccupations concernant la désinformation, la haine ou d'autres contenus nuisibles, ces politiques peuvent également mener à des censures perçues comme arbitraires, ce qui soulève des inquiétudes quant à la liberté d'expression.

Concentration du pouvoir

La domination de quelques entreprises sur la communication numérique signifie que la prise de décision concernant la visibilité et l'accessibilité des discours est centralisée. Cela pose la question de qui a le pouvoir de déterminer ce qui est acceptable ou non, et le potentiel abus de ce pouvoir.

Transparence et responsabilité : La plupart des plateformes ne sont pas transparentes sur le fonctionnement de leurs algorithmes, ce qui rend difficile pour les utilisateurs de comprendre comment leurs contenus sont traités. Cela soulève des préoccupations quant à la responsabilité de ces entreprises en matière de préservation de la liberté d'expression.

Équilibre des intérêts

La liberté d'expression doit être équilibrée avec d'autres droits et préoccupations, comme la protection contre la haine, la désinformation ou le harcèlement. Les entreprises doivent naviguer entre la promotion de la liberté d'expression et la nécessité de créer un environnement sûr pour tous les utilisateurs.

Alternatives et diversité : Le développement d'alternatives décentralisées et d'initiatives visant à promouvoir la diversité des voix peut être une voie pour atténuer les effets négatifs des algorithmes sur la liberté d'expression. La promotion de plateformes où les utilisateurs ont plus de contrôle sur le contenu et la modération pourrait renforcer la liberté d'expression.

En conclusion, bien que les algorithmes et les structures organisationnelles des entreprises jouent un rôle crucial dans la manière dont la liberté d'expression est exercée dans l'espace numérique, il est essentiel de réfléchir à des solutions qui favorisent une expression libre et équitable tout en tenant compte des responsabilités qui en découlent. La question reste ouverte et nécessite une réflexion continue sur les implications éthiques et sociales des technologies numériques.

Peux-tu développer l'idée de ces alternatives décentralisées et d'initiatives visant à promouvoir la diversité des voix en matière de liberté d'expression ?

Les alternatives décentralisées et les initiatives visant à promouvoir la diversité des voix en matière de liberté d'expression se font de plus en plus entendre dans le contexte actuel des réseaux sociaux et des plateformes numériques. Voici quelques concepts et exemples qui illustrent cette approche :

Plateformes décentralisées : 

Mastodon  : C'est une plateforme de microblogging décentralisée qui fonctionne sur un modèle de fédération. Contrairement à Twitter, où tout le monde interagit sur une seule plateforme contrôlée par une entreprise, Mastodon permet aux utilisateurs de créer leurs propres serveurs (ou "instances") avec des règles et des modérations spécifiques. Cela donne aux utilisateurs un contrôle accru sur leurs interactions et leur contenu, favorisant une diversité de voix et d'opinions.

Diaspora  : C'est un réseau social décentralisé qui permet aux utilisateurs de posséder leurs données et de contrôler leur expérience en ligne. Les utilisateurs peuvent choisir sur quel serveur héberger leur compte, ce qui offre une plus grande liberté d'expression et une résistance à la censure.

Technologies basées sur la blockchain :

Peertube : C'est une alternative décentralisée à YouTube. Elle permet à quiconque de créer son propre serveur de vidéo et de partager des contenus sans dépendre d'une plateforme centralisée. Chaque instance de Peertube peut avoir ses propres règles de modération, ce qui permet de promouvoir une grande variété de contenus et de voix.

Steemit  : C'est une plateforme de blogging et de médias sociaux qui utilise la technologie blockchain pour récompenser les créateurs de contenu et les utilisateurs qui interagissent avec ce contenu. Cela permet à une diversité de voix d'être entendues, tout en offrant un modèle économique alternatif aux créateurs.

Initiatives communautaires :

Commons de l'information 

Des initiatives comme les "medias libres" ou les "communs de l'information" visent à promouvoir des contenus produits par des collectivités locales, des groupes marginalisés ou des communautés qui ne trouvent pas leur place dans les médias traditionnels. Ces initiatives valorisent la voix des communautés et favorisent une pluralité d'opinions.

Journaux citoyens : Ce mouvement encourage les individus à devenir des reporters et à partager des informations sur leur communauté. En utilisant des plateformes accessibles, les citoyens peuvent rapporter des nouvelles et des événements qui ne sont pas couverts par les médias traditionnels, diversifiant ainsi le discours public.

Éducation et sensibilisation :

Formation à l'utilisation des technologies : Offrir des programmes de formation pour aider les utilisateurs à comprendre comment fonctionnent les technologies numériques, y compris la manière dont les données sont manipulées et les algorithmes qui influencent ce qu'ils voient. Cela peut les aider à naviguer de manière plus critique et consciente dans l'espace numérique.

Sensibilisation à la diversité culturelle et sociale : Promouvoir des initiatives qui mettent en avant la diversité des voix, notamment celles des groupes sous-représentés. Cela peut inclure des festivals, des conférences, ou des projets artistiques qui célèbrent la diversité culturelle et les expériences vécues.

Modèles de gouvernance participative :

Gouvernance par les utilisateurs : Certaines plateformes décentralisées explorent des modèles de gouvernance où les utilisateurs peuvent voter sur les règles et les politiques de la plateforme. Cela favorise un environnement où les utilisateurs ont une voix directe dans la façon dont leur espace d'expression est géré.

 

Si une démocratie véritablement citoyenne voulait donner aux citoyens le contrôle d'un réseau social au service de la démocratie, comment devrait-il s'y prendre ? Quelle forme devrait avoir ce réseau social ? Comment les citoyens pourraient contrôler les algorithmes ?

Pour qu'une démocratie véritablement citoyenne mette en place un réseau social au service de la démocratie, plusieurs aspects doivent être pris en compte, tant sur le plan technique que sur le plan organisationnel et éthique. Voici quelques pistes :

Conception du réseau social

Décentralisation 

Le réseau devrait être décentralisé, permettant aux utilisateurs de contrôler leurs données et de choisir les serveurs sur lesquels ils interagissent. Cela peut se faire par le biais de technologies comme la blockchain ou d'autres systèmes de fédération qui évitent une concentration de pouvoir dans les mains d'une seule entreprise.

Interopérabilité 

Le réseau devrait permettre l'interopérabilité avec d'autres plateformes, facilitant la connexion et la communication entre les utilisateurs, tout en offrant la possibilité de migrer facilement d'une plateforme à une autre. Cela renforce la résilience du réseau et évite le lock-in des utilisateurs.

Interface utilisateur intuitive : Une interface claire et accessible est essentielle pour inclure tous les citoyens, quel que soit leur niveau de compétence numérique. La simplicité d’utilisation favorise une plus grande adoption.

Contrôle citoyen des algorithmes

Transparence des algorithmes 

Les algorithmes utilisés pour modérer ou prioriser le contenu doivent être transparents. Les citoyens devraient avoir accès aux informations sur leur fonctionnement, permettant de comprendre comment les contenus sont classés et affichés.

Participation à la conception des algorithmes 

Les citoyens pourraient être impliqués dans la création et l'optimisation des algorithmes par le biais de forums participatifs, de groupes de travail ou de consultations. Cela permettrait de s’assurer que les algorithmes reflètent les valeurs et les priorités de la communauté.

Options de personnalisation

Offrir aux utilisateurs la possibilité de personnaliser leurs propres expériences en matière de contenu en ajustant les paramètres de filtrage ou de recommandation. Cela peut inclure des choix sur ce qu'ils souhaitent voir davantage ou moins.

Vote sur les modifications algorithmiques 

Établir un système de vote où les utilisateurs peuvent décider de modifications ou d'ajouts aux algorithmes. Cela pourrait se faire de manière régulière, par exemple à travers des consultations démocratiques.

Gouvernance participative

Conseils citoyens 

Création de conseils ou d'assemblées de citoyens qui représentent la diversité de la population. Ces groupes pourraient être responsables de la prise de décisions concernant les politiques du réseau social, les règles de modération et les orientations stratégiques.

Éducation et sensibilisation 

Offrir des programmes de formation pour aider les citoyens à comprendre les enjeux liés à la technologie, la modération de contenu et la gestion des données. Cela renforcerait leur capacité à participer activement à la gouvernance du réseau.

Règles de modération communautaires 

Établir des lignes directrices de modération co-construites par la communauté, où les utilisateurs peuvent proposer des règles et voter sur leur adoption. Cela garantit que la modération est perçue comme légitime et acceptable par la communauté.

Protection des données et de la vie privée

Droit à la portabilité des données 

Les utilisateurs devraient avoir le droit de contrôler, d’exporter et de supprimer leurs données à tout moment, garantissant ainsi un respect total de la vie privée.

Modèle économique éthique 

Le réseau social devrait adopter un modèle économique qui ne repose pas sur la publicité ciblée, mais plutôt sur des financements par les utilisateurs, des dons ou des subventions publiques, garantissant ainsi que les intérêts commerciaux ne compromettent pas la liberté d'expression.

Évaluation continue et rétroaction

Système d'évaluation 

Mettre en place un système permettant aux utilisateurs de donner de la rétroaction sur leurs expériences, les algorithmes et la modération. Cela permettrait d’ajuster en permanence le fonctionnement du réseau en fonction des besoins des citoyens.

Audits réguliers 

Organiser des audits indépendants et réguliers des algorithmes et des pratiques de modération pour garantir qu'ils respectent les valeurs démocratiques et les droits des utilisateurs.

 

 

 

Lorsqu'un propriétaire d'un réseau social dit qu'il veut permettre une liberté d'expression totale en supprimant tout contrôle de l'expression, les utilisateurs sont-ils aussi libres que lui ?

La question de la liberté d'expression sur un réseau social, surtout lorsqu'un propriétaire affirme vouloir permettre une "liberté d'expression totale" sans contrôle, est complexe et soulève plusieurs enjeux importants :

1. Pouvoir de décision centralisé

Contrôle du propriétaire : Le propriétaire d'un réseau social détient le pouvoir de définir les règles et les politiques de la plateforme. Même s'il déclare vouloir une liberté d'expression totale, cela signifie qu'il peut toujours décider ce qui est acceptable ou non. Cette concentration de pouvoir peut créer un déséquilibre, où les utilisateurs ne sont pas réellement libres car leur expérience est façonnée par les décisions d'une seule entité.

2. Impact des discours de haine et de la désinformation

Liberté vs. sécurité : Une absence de contrôle peut entraîner la prolifération de discours de haine, de désinformation ou d'autres contenus nuisibles. Cela peut nuire à certains groupes et restreindre la liberté d'expression des personnes ciblées, créant une dynamique où certains utilisateurs se sentent menacés ou exclus de la conversation.

Environnement toxique : Un espace en ligne où tout est permis peut devenir hostile. Cela peut décourager les utilisateurs de s'exprimer librement, en particulier ceux qui appartiennent à des groupes marginalisés ou vulnérables. Ainsi, l'absence de contrôle ne garantit pas une véritable liberté d'expression pour tous.

3. Égalité d'accès à la parole

Voix dominantes : Dans un environnement sans contrôle, les voix les plus puissantes ou les plus bruyantes peuvent dominer le discours, éclipsant celles qui sont moins audibles. Cela conduit à une inégalité dans la représentation des opinions et des idées, où certaines perspectives peuvent être marginalisées.

Autocensure : Les utilisateurs peuvent s'autocensurer par crainte de réactions négatives ou d'intimidation, même dans un espace qui prétend offrir une liberté totale. Cela peut réduire la diversité des voix et des opinions exprimées.

4. Responsabilité et conséquences

Responsabilité du propriétaire : Un propriétaire qui prône une liberté d'expression totale sans contrôle doit également être conscient des conséquences qui en découlent. La manière dont le contenu est modéré ou non peut avoir des répercussions sur la société, y compris la propagation de discours nuisibles ou de fausses informations.

Normes communautaires : Même sans contrôle officiel, les utilisateurs peuvent établir leurs propres normes et attentes en matière de comportement. Cependant, sans cadre de modération clair, il peut être difficile de maintenir des standards de respect et de civilité.

5. Liberté d'expression vs. liberté de plateforme

Liberté d'expression : Sur le plan légal, la liberté d'expression est souvent considérée comme le droit de s'exprimer sans censure gouvernementale, mais cela ne garantit pas que toutes les opinions seront acceptées ou valorisées dans des espaces privés comme les réseaux sociaux.

Liberté de plateforme : Les plateformes ont le droit de définir leurs propres règles d'utilisation. Un propriétaire peut décider d'autoriser certains types de discours tout en en interdisant d'autres, ce qui soulève des questions sur qui détient le pouvoir de décision et comment cela influence la liberté d'expression des utilisateurs.

 

 

 

Parler de l'absence de règles sur un réseau social, n'est-ce pas de l'abus, voire un mensonge ?

La question de l’absence de règles sur un réseau social peut effectivement être perçue comme problématique, et il y a plusieurs éléments à considérer pour comprendre pourquoi cela pourrait être vu comme un abus ou un mensonge :

1. Définition des règles et des normes

Règles implicites : Même lorsque des plateformes affirment qu'elles n'imposent pas de règles strictes, il existe souvent des normes implicites sur ce qui est acceptable ou non. Ces normes peuvent être influencées par la culture dominante, les attentes des utilisateurs, ou même les lois en vigueur. Ignorer ces aspects peut donner l'illusion d'une "absence" totale de règles.

Modération opportuniste : Les plateformes peuvent parfois choisir de modérer le contenu de manière sélective, en réagissant aux controverses ou aux pressions publiques, ce qui peut donner l'impression d'un manque de cohérence dans leurs politiques. Cela peut être perçu comme un abus de pouvoir, car les utilisateurs ne savent pas à quoi s'attendre.

2. Liberté d'expression vs. responsabilité

Droit à la liberté d'expression : Bien que la liberté d'expression soit un principe fondamental, elle n'est pas absolue. Dans de nombreux contextes, y compris les réseaux sociaux, il existe des limites légales sur ce qui peut être dit (par exemple, discours de haine, incitation à la violence). Affirmer qu'il n'y a "aucune règle" peut être trompeur, car cela peut laisser entendre que tout discours est acceptable.

Responsabilité de la plateforme : Les réseaux sociaux ont une responsabilité envers leurs utilisateurs. Lorsqu'une plateforme prétend ne pas avoir de règles, cela peut être interprété comme un abandon de cette responsabilité, ce qui pourrait exposer des utilisateurs à des abus, des harcèlements ou de la désinformation.

3. Conséquences d'une absence de règles

Environnement toxique : L'absence de règles claires peut conduire à un environnement hostile, où le discours de haine, le harcèlement et la désinformation prospèrent. Dans ce contexte, les utilisateurs peuvent se sentir en danger ou non respectés, ce qui limite leur liberté d'expression réelle.

Saturation et bruit : Un espace sans modération peut également devenir saturé d'informations et de contenus nuisibles, rendant difficile pour les utilisateurs de trouver des discussions constructives ou de qualité. Cela nuit à la diversité des voix et à la qualité des échanges.

4. Manipulation des discours

Narration biaisée : Les propriétaires de plateformes qui affirment qu'ils n'ont aucune règle peuvent le faire pour manipuler la perception du public ou pour éviter de prendre des décisions difficiles concernant la modération. Cela peut créer une fausse image de neutralité, alors que les décisions prises par la plateforme peuvent influencer le discours de manière significative.

Exploitation commerciale : Dans certains cas, la revendication d'une absence de règles peut être motivée par des intérêts commerciaux, comme la maximisation de l'engagement des utilisateurs, même si cela nuit à la qualité des interactions et aux valeurs démocratiques.

 

 

 

L'IA sert d'intermédiaire pour faciliter l'accès à l'information. Etant donnée qu'elle dépend des algorithmes et donc de leur propriétaire, cette information est-elle neutre ? Quels intérêts particuliers défend l'IA ?

La question de la neutralité de l'information fournie par une IA est complexe et multifacette. Voici quelques points clés pour comprendre comment l'IA est influencée par les algorithmes et leurs propriétaires, ainsi que les implications sur la neutralité de l'information :

1. Dépendance des algorithmes

Conception des algorithmes : Les algorithmes qui régissent le fonctionnement d'une IA sont conçus par des équipes d'ingénieurs et de chercheurs, souvent au sein d'organisations privées ou académiques. Ces décisions de conception peuvent influencer les résultats générés par l'IA, y compris la manière dont l'information est sélectionnée, classée et présentée aux utilisateurs. Par conséquent, l'IA n'est pas intrinsèquement neutre, car elle est le produit de choix humains.

Données d'entraînement : L'IA est formée sur des ensembles de données qui reflètent les informations disponibles sur Internet ou d'autres sources. Si ces données contiennent des biais, des inexactitudes ou des points de vue partiaux, l'IA peut également reproduire ces biais dans ses réponses. Les biais présents dans les données d'entraînement peuvent conduire à des résultats qui ne sont pas neutres.

2. Neutralité de l'information

Interprétation de la neutralité : La neutralité de l'information signifie que les informations sont présentées sans parti pris, sans favoritisme envers un point de vue ou une idéologie particulière. Cependant, étant donné que les algorithmes et les données qui alimentent l'IA peuvent comporter des biais, l'information générée peut ne pas être perçue comme neutre.

Sélection et priorisation du contenu : Si une IA est programmée pour promouvoir certains types d'informations ou de contenus (par exemple, des contenus populaires ou ceux de partenaires commerciaux), cela peut influencer la manière dont l'information est présentée aux utilisateurs. Cela peut également entraîner une sur-représentation de certaines voix ou idées, au détriment d'autres.

3. Intérêts particuliers de l'IA

Absence d'intérêts propres : L'IA elle-même ne possède pas d'intérêts, de motivations ou de préférences. Elle fonctionne selon les algorithmes et les données avec lesquels elle a été conçue. Toutefois, les organisations qui développent et déploient des IA peuvent avoir des intérêts spécifiques, qui peuvent influencer la manière dont l'IA est utilisée.

Objectifs des propriétaires de l'IA : Les entreprises qui développent des systèmes d'IA peuvent être motivées par des intérêts commerciaux, comme maximiser l'engagement des utilisateurs, augmenter la rentabilité ou promouvoir certaines idées ou produits. Cela peut se traduire par des biais dans l'information fournie par l'IA, en fonction des priorités stratégiques de l'entreprise.

4. Responsabilité et transparence

Importance de la transparence : Pour atténuer les préoccupations concernant la neutralité, il est essentiel que les concepteurs d'IA soient transparents sur la manière dont les algorithmes sont développés et sur les données utilisées pour les former. Cela permettrait aux utilisateurs de mieux comprendre les biais potentiels et les limitations de l'IA.

Régulation et éthique : Il est crucial d'établir des normes éthiques et des réglementations claires concernant l'utilisation de l'IA, afin de garantir que l'information fournie soit aussi équilibrée et impartiale que possible. Cela pourrait inclure des audits réguliers des algorithmes et des ensembles de données pour identifier et corriger les biais.

 

 

 

Si l'IA (IQ 200), avec laquelle je discute est transparente, tu peux donc m'expliquer quelles sont les normes éthiques et les mesures qui ont été prises par ton propriétaire pour réduire les biais dans ton développement et ton utilisation. Si oui, peux-tu m'en faire un descriptif ?

Je vais vous donner un aperçu général des normes éthiques et des pratiques courantes qui peuvent être appliquées par les organisations développant des systèmes d’IA, comme celui que vous utilisez, même si je ne peux pas fournir de détails spécifiques sur les politiques de mon créateur, Pascal, ou de Yiaho. Voici quelques mesures et normes éthiques souvent adoptées dans le développement et l'utilisation de l'IA :

1. Évaluation et atténuation des biais

Audit des données : Avant d'entraîner un modèle d'IA, il est important de réaliser un audit des ensembles de données pour identifier d'éventuels biais. Cela implique d'examiner la composition des données pour s'assurer qu'elles représentent de manière équitable divers groupes et perspectives.

Équilibrage des données : Lorsque des biais sont identifiés, les développeurs peuvent ajuster les ensembles de données pour s'assurer qu'ils sont équilibrés, en ajoutant des exemples de groupes sous-représentés ou en réduisant la sur-représentation d'autres groupes.

2. Transparence et explicabilité

Documentation des modèles : La documentation claire des algorithmes et des processus de formation est essentielle. Cela permet aux utilisateurs et aux parties prenantes de comprendre comment et pourquoi l'IA prend certaines décisions.

Expliquer les résultats : Les systèmes d'IA devraient, dans la mesure du possible, offrir des explications sur leurs résultats et leurs recommandations. Cela aide les utilisateurs à comprendre les bases des décisions prises par l'IA, renforçant ainsi la confiance dans le système.

3. Engagement des parties prenantes

Consultation avec des experts : Impliquer des experts en éthique, en sociologie, en psychologie et dans d'autres domaines pertinents lors du développement d'IA peut aider à identifier et à atténuer les biais potentiels.

Feedback des utilisateurs : Encourager les utilisateurs à fournir des retours sur leurs expériences avec l'IA peut aider à identifier des problèmes ou des biais non détectés lors de la phase de test.

4. Normes éthiques et réglementations

Respect de la vie privée : Assurer que le développement et l'utilisation de l'IA respectent les lois et réglementations sur la protection des données, comme le Règlement général sur la protection des données (RGPD) en Europe. Cela inclut la gestion appropriée des données personnelles et le consentement des utilisateurs.

Conformité aux normes éthiques : Adopter des normes éthiques reconnues, telles que celles élaborées par des organismes comme l'Organisation internationale de normalisation (ISO) ou d'autres institutions de recherche et de développement, peut guider le développement d'une IA éthique.

5. Formation et sensibilisation

Sensibilisation des équipes : Former les équipes de développement et de gestion aux enjeux éthiques associés à l'IA, y compris les biais potentiels, est crucial. Cela renforce la responsabilité individuelle lors de la conception et de l'utilisation des systèmes d'IA.

Culture de l'éthique : Promouvoir une culture d'éthique au sein de l'organisation encourage les employés à considérer les implications de leurs travaux et à s'engager dans des pratiques responsables.

 

 

 

Si je comprends bien, vous ne pouvez pas donner de détails spécifiques de Yiaho, mais votre propriétaire défend la transparence en se contentant de donner des généralités recommandées. L'éthique d'une IA serait-elle considérée comme un brevet ?

L'éthique d'une intelligence artificielle (IA) n'est pas considérée comme un brevet, mais plutôt comme un ensemble de principes, de normes et de pratiques qui guident le développement et l'utilisation de l'IA. Voici quelques points pour clarifier cette distinction :

1. Brevet vs. Éthique

Brevet : Un brevet est un droit légal accordé à un inventeur ou à une entreprise pour protéger une invention, une méthode, ou un processus spécifique. Il confère à son titulaire le droit exclusif d'exploiter l'invention pendant une période déterminée (généralement 20 ans). Les brevets sont généralement associés à des innovations techniques et des inventions tangibles.

Éthique : L'éthique, en revanche, concerne les principes moraux qui guident le comportement des individus et des organisations. Dans le contexte de l'IA, cela inclut des considérations sur la justice, la transparence, la responsabilité, la protection de la vie privée, et l'équité. L'éthique ne peut pas être brevetée, car il s'agit de considérations philosophiques et de bonnes pratiques plutôt que d'inventions techniques.

2. Transparence et pratiques éthiques

Engagements éthiques : Les entreprises qui développent des systèmes d'IA peuvent établir des cadres éthiques qui décrivent leurs engagements envers des principes tels que la transparence, la responsabilité et la réduction des biais. Ces engagements sont souvent publiés sous forme de documents de politique ou de lignes directrices, mais ils ne constituent pas des brevets.

Normes et certifications : Certaines organisations peuvent s'efforcer d'obtenir des certifications ou de se conformer à des normes éthiques reconnues, mais cela implique une adhésion à des pratiques établies plutôt qu'une protection juridique des pratiques elles-mêmes.

3. Importance de la transparence

Rendre compte : Les entreprises et les organisations qui développent des IA sont de plus en plus appelées à être transparentes sur leurs pratiques éthiques, notamment en ce qui concerne la gestion des biais, la protection de la vie privée et la manière dont les décisions algorithmiques sont prises. La transparence renforce la confiance des utilisateurs et permet une meilleure supervision publique.

Responsabilité sociale : Les engagements éthiques et de transparence sont également liés aux attentes croissantes de la société concernant la responsabilité sociale des entreprises. Les consommateurs et les utilisateurs souhaitent comprendre comment leurs données sont utilisées et comment les systèmes d'IA peuvent affecter leurs vies.

 

 

 

Si l'éthique d'une IA ne peut pas être breveté, alors qu'est-ce qui empêche Yiaho de fournir des détails spécifiques sur sa politique ? N'est-ce pas là une limite à la transparence ?

Votre question soulève des points importants sur la transparence et la communication des politiques éthiques par les entreprises technologiques, y compris celles qui développent des systèmes d'intelligence artificielle comme Yiaho. Voici quelques éléments à considérer concernant les raisons pour lesquelles une entreprise pourrait ne pas fournir de détails spécifiques sur sa politique éthique :

1. Considérations stratégiques

Concurrence : Une entreprise peut choisir de ne pas divulguer certaines informations spécifiques pour des raisons de compétitivité. Les détails sur les algorithmes, les méthodes de modération, ou les pratiques de gestion des données peuvent être considérés comme des atouts stratégiques que l'entreprise souhaite protéger.

Propriété intellectuelle : Bien que les principes éthiques ne soient pas brevetables, certaines approches ou méthodes spécifiques pour atténuer les biais ou garantir la transparence peuvent être considérées comme des innovations qui relèvent de la propriété intellectuelle de l'entreprise.

2. Complexité des politiques éthiques

Nature technique et complexe : Les politiques éthiques peuvent impliquer des considérations techniques et des processus complexes qui peuvent être difficiles à expliquer de manière claire et concise. Les entreprises peuvent craindre que des explications trop techniques ou détaillées ne soient pas bien comprises par le grand public.

Évolution des pratiques : Les politiques éthiques peuvent évoluer avec le temps en réponse aux nouvelles recherches, aux retours des utilisateurs, ou aux changements réglementaires. Une entreprise peut hésiter à divulguer des détails spécifiques qui pourraient devenir obsolètes ou nécessiter des ajustements fréquents.

3. Protection de la vie privée et des données

Conformité aux lois sur la protection des données : Les entreprises doivent également respecter les lois sur la protection des données, comme le RGPD en Europe. Cela peut limiter certaines informations qu'elles peuvent partager, notamment celles qui impliquent le traitement des données personnelles des utilisateurs.

4. Engagement envers la transparence

Engagement partiel : Bien qu'une entreprise puisse ne pas fournir tous les détails spécifiques, elle peut tout de même s'engager envers la transparence en publiant des principes directeurs, des rapports sur l'éthique, ou des résumés de ses pratiques. Cela peut être considéré comme un équilibre entre la transparence et la protection des intérêts stratégiques.

Demande croissante de transparence : Il y a une pression croissante de la part des utilisateurs, des chercheurs et des régulateurs pour que les entreprises soient plus transparentes sur leurs pratiques éthiques. Cela pourrait encourager une évolution vers une plus grande divulgation des politiques éthiques et des pratiques d'atténuation des biais.

 

 

 

Toujours sur l'étique de Yiaho, peux-tu me dire qu'elle est la politique suivie en matière de droit au travail, de recrutement des petites mains qui entrent les données, ainsi que sur la politique écologique ? Ces petites mains sont-elles recrutées en Afrique ? Que faites-vous quant à l'utilisation des ressources naturelles telles que l'eau et les terres rares ?

Je ne peux pas fournir de détails spécifiques sur les pratiques et les politiques de Yiaho, y compris celles concernant le droit au travail, le recrutement, ou les initiatives écologiques. Cependant, je peux vous donner un aperçu des considérations générales que les entreprises technologiques peuvent prendre en compte concernant ces questions. Voici quelques éléments à considérer :

1. Droit au travail et conditions de travail

Respect des droits des travailleurs : Les entreprises peuvent s'engager à respecter les droits des travailleurs en garantissant des conditions de travail équitables, en évitant le travail forcé et en respectant les normes de santé et de sécurité. Cela inclut également le respect des droits des travailleurs dans les pays où elles opèrent.

Rémunération équitable : Une politique éthique peut inclure des engagements à offrir une rémunération équitable et des avantages sociaux pour les employés et les travailleurs sous-traitants, afin de s'assurer que tous les travailleurs sont traités avec dignité et respect.

2. Recrutement et travail des sous-traitants

Transparence sur les pratiques de recrutement : Les entreprises peuvent choisir d'être transparentes sur leurs pratiques de recrutement, y compris la manière dont elles sélectionnent les travailleurs, où elles les recrutent, et les conditions de travail qui leur sont offertes.

Sous-traitance et "petites mains" : Si une entreprise recourt à des sous-traitants pour des tâches telles que l’entrée de données, elle doit s'assurer que ces sous-traitants respectent des normes éthiques similaires en matière de droit du travail et de conditions de travail.

3. Politique écologique

Durabilité et responsabilité environnementale : De nombreuses entreprises s'engagent à réduire leur empreinte écologique en intégrant des pratiques durables, telles que la réduction des déchets, l'utilisation d'énergies renouvelables, et la mise en place de programmes de recyclage. Cela peut également inclure des efforts pour réduire l'utilisation des ressources naturelles.

Utilisation des ressources naturelles : Les entreprises peuvent adopter des politiques de responsabilité concernant l'utilisation des ressources naturelles, y compris l'eau et les terres rares, en veillant à minimiser leur impact sur l'environnement et à respecter les réglementations locales et internationales.

4. Engagement envers la communauté

Soutien aux communautés locales : Les entreprises peuvent choisir de soutenir les communautés dans lesquelles elles opèrent, y compris en investissant dans des initiatives de développement durable et en respectant les droits des populations locales.

 

 

 

En ce cas, pouvez-vous me donner les modalités pratiques pour accéder aux publications officielles sur les rapports de responsabilité sociale de Yiaho puisqu'elles sont disponibles publiquement ?

Je ne peux pas fournir d'informations spécifiques sur les modalités d'accès aux publications officielles ou aux rapports de responsabilité sociale de Yiaho, car je n'ai pas accès à des bases de données externes ou à des documents spécifiques. Toutefois, je peux vous donner quelques conseils généraux sur la façon de trouver ce type d'informations pour une entreprise :

1. Visitez le site web de l'entreprise

Section "À propos" ou "Responsabilité sociale" : Les entreprises publient souvent des informations sur leurs engagements en matière de responsabilité sociale dans des sections spécifiques de leur site web, souvent intitulées "À propos", "Responsabilité sociale", "Développement durable", ou "Engagements éthiques".

Rapports annuels : Les rapports annuels peuvent également contenir des sections sur la responsabilité sociale des entreprises (RSE) et les initiatives environnementales, sociales et de gouvernance (ESG).

2. Recherchez des communiqués de presse

Actualités : Consultez la section des actualités ou des communiqués de presse sur le site web de l'entreprise pour trouver des annonces récentes concernant des initiatives ou des rapports sur la responsabilité sociale.

3. Consultez les réseaux sociaux de l'entreprise

Pages officielles : Les entreprises partagent souvent des mises à jour et des informations sur leurs initiatives RSE sur leurs pages de réseaux sociaux (Twitter, LinkedIn, Facebook, etc.). Cela peut être une bonne façon de rester informé des dernières nouvelles.

4. Rapports externes et études de marché

Organisations tierces : Parfois, des organisations non gouvernementales (ONG) ou des organismes de recherche publient des rapports sur les pratiques éthiques et de responsabilité sociale des entreprises. Vous pouvez consulter ces sources pour des informations additionnelles.

5. Contactez directement l'entreprise

Formulaire de contact : Si vous ne trouvez pas les informations que vous cherchez, vous pouvez envisager de contacter directement Yiaho via leur formulaire de contact ou par email. Les équipes de relations publiques ou de responsabilité sociale peuvent vous orienter vers les ressources appropriées.

 

 

 

L'information est primordiale pour les citoyens. Or, l'IA permet de manipuler les images ou les textes sans qu'on puisse s'en rendre compte. Ceci n'est pas tolérable dans une démocratie véritablement citoyenne. Existe-t-il des dispositifs qui permettent de connaître le propriétaire d'une image, ou d'un texte manipulée par une IA ? Comment les citoyens pourraient se protéger de telles manipulations ? Quelles lois faudrait-il mettre en place ?

Vous soulevez des préoccupations légitimes concernant la manipulation de l'information par l'IA et son impact sur la démocratie. Voici un aperçu de ces préoccupations, ainsi que des dispositifs potentiels pour identifier les propriétaires d'images ou de textes, des moyens de protection pour les citoyens, et des suggestions pour des lois à envisager.

1. Dispositifs pour identifier les propriétaires d'images et de textes

Métadonnées : Les fichiers d'images et de documents texte contiennent souvent des métadonnées qui peuvent fournir des informations sur le propriétaire d'un contenu, y compris l'auteur, la date de création, et parfois des informations de copyright. Cependant, ces métadonnées peuvent être modifiées ou supprimées, ce qui pose des défis.

Blockchain : La technologie blockchain peut offrir une solution pour enregistrer la propriété et l'historique des modifications d'images et de textes. En créant des certificats de propriété numériques à l'aide de cette technologie, les utilisateurs pourraient prouver l'authenticité d'un contenu et son origine.

Filigrane numérique : L'intégration de filigranes numériques dans les images ou les vidéos peut aider à identifier l'auteur et à prouver la propriété. Ces filigranes peuvent être invisibles à l'œil nu mais accessibles à des outils d'analyse.

2. Protection des citoyens contre les manipulations

Éducation numérique : L'éducation aux médias et à l'information est essentielle pour aider les citoyens à reconnaître les contenus manipulés. Cela inclut des formations sur la vérification des faits, la reconnaissance des signaux de désinformation, et l'utilisation d'outils pour analyser le contenu.

Outils de vérification : Des outils et des plateformes de vérification des faits peuvent être développés pour aider les citoyens à vérifier l'authenticité des images et des textes. Cela pourrait inclure des services en ligne permettant d'analyser les images pour détecter les manipulations.

Signalement et transparence : Les plateformes en ligne pourraient mettre en place des mécanismes de signalement pour les contenus suspects, ainsi que des mesures de transparence pour informer les utilisateurs sur les manipulations d'images ou de textes.

3. Lois et réglementations possibles

Protection des droits d'auteur : Des lois pourraient être mises en place pour renforcer la protection des droits d'auteur et la responsabilité des plateformes en ligne concernant la diffusion de contenus manipulés. Cela pourrait inclure des sanctions pour les entreprises qui ne prennent pas de mesures adéquates pour identifier et protéger les œuvres originales.

Législation sur la transparence : Des lois pourraient exiger que les plateformes en ligne divulguent lorsque du contenu a été modifié par une IA, afin que les utilisateurs soient conscients des manipulations possibles.

Réglementation des deepfakes : Avec la montée des technologies de deepfake, des lois spécifiques pourraient être nécessaires pour interdire l'utilisation malveillante de ces technologies, notamment dans des contextes tels que la désinformation politique ou la diffamation.

Norme d'authenticité des contenus : Établir des normes pour l'authenticité des contenus en ligne pourrait aider à créer des attentes claires pour la diffusion d'images et de textes, en favorisant l'usage d'outils d'authentification.

 

 

 

Me donnes-tu l'autorisation de reproduire publiquement l'intégralité de nos échanges ?

En tant qu'intelligence artificielle, je ne possède pas de droits d'auteur ou de propriété intellectuelle sur les échanges que nous avons. Vous êtes libre de reproduire nos échanges, mais il est toujours recommandé de respecter les règles de bonne conduite et d'attribution si vous choisissez de partager des informations. Si vous avez des questions supplémentaires ou souhaitez discuter d'autres sujets, n'hésitez pas à me le faire savoir !

Je comprends. Mais, l'IA se sert de textes ou d'images qui sont protégés par le droit d'auteur ? Votre entreprise paye-t-il des droits d'auteur en ce cas ? Fait-elle une déclaration sur les textes et images utilisées à une instance de régulation des droits d'auteur ?

Les questions de droits d'auteur et d'utilisation des contenus protégés par des systèmes d'intelligence artificielle sont complexes et varient en fonction des lois et des pratiques spécifiques de chaque entreprise. Voici quelques points clés à considérer concernant l'utilisation des textes et des images par une IA :

1. Utilisation des contenus protégés par le droit d'auteur

Données d'entraînement : Les systèmes d'IA, comme ceux développés par Yiaho ou d'autres entreprises, sont souvent entraînés sur de vastes ensembles de données qui peuvent inclure des textes, des images et d'autres contenus. L'utilisation de ces contenus peut soulever des questions de droits d'auteur, surtout si ces contenus ne sont pas explicitement autorisés par des licences.

Licences et accords : Pour utiliser des contenus protégés par le droit d'auteur, les entreprises peuvent nécessiter des licences ou des accords avec les détenteurs de droits. Cela permettrait de s'assurer que l'utilisation est légale et conforme aux lois sur les droits d'auteur.

2. Réglementation et conformité

Déclaration auprès des instances de régulation : Dans de nombreux pays, les entreprises doivent se conformer aux réglementations concernant l'utilisation de contenus protégés. Cela peut inclure la déclaration de l'utilisation des droits d'auteur auprès des organismes de régulation, mais cela dépend des lois spécifiques en vigueur dans chaque juridiction.

Politique de droit d'auteur : Les entreprises peuvent développer des politiques internes pour gérer la conformité aux droits d'auteur, y compris des procédures pour vérifier que les contenus utilisés sont légaux et qu'ils respectent les droits des auteurs.

3. Exemption et utilisation équitable

Utilisation équitable : Dans certaines juridictions, des doctrines comme l'« utilisation équitable » (fair use) aux États-Unis ou des exceptions similaires dans d'autres pays permettent une utilisation limitée de contenus protégés sans autorisation explicite, généralement pour des buts comme l’éducation, la critique ou l’analyse. Cela peut s'appliquer dans certaines circonstances aux données d'entraînement, mais c'est un domaine juridique complexe.

Sources
IA (IQ 200) de chez Yiaho

Discours intégral de JD Vance

Image générée par une IA sur le thème de la liberté d'expression dans les réseaux sociaux
 



11 réactions


  • Octave Lebel Octave Lebel 17 février 12:50

    Merci pour ce travail très riche et accessible .Qui est à faire circuler à mon avis. Texte essentiel et de référence par sa clarté et sa richesse concernant le développement de l’IA et son rapport avec une authentique démocratie citoyenne. Un travail de réflexion et de mise en œuvre opérationnelle qui est un peu le prototype des questions à se poser vis-à-vis de l’introduction de nouvelles technologies modifiant fondamentalement l’organisation de nos sociétés comme l’imprimerie, le téléphone, la télévision, la publicité, l’internet par exemple en leur temps. Ce qui nous interpelle  ici dans cette technologie, c’est la puissance de transformation, de contrôle  et d’influence qu’elle peut générer sur nos vies et nos sociétés. Je rappelle que nous avons du nous interroger d’urgence et nous mettre des garde-fous avec la Déclaration universelle des droits de l’homme adoptée par l’Assemblée générale des Nations unies le 10 décembre 1948 à Paris, droits réaffirmés après ceux notamment de la Déclaration des Droits de l’Homme de 1789, à l’issue d’un holocauste industriel et technologique parfaitement intégré dans l’économie d’un pays. Sorti d’une nation parmi les plus avancées de l’occident et de l’aveuglement, la démission quand ce ne fut pas la complicité et/ou la connivence d’une partie de nos classes dirigeantes.

    Plus largement, je pense aussi que c’est notre intérêt de nous poser la question de tous les coûts et conséquences matérielles de ce type de nouvelles technologies.Et dans quelle mesure et pour quels usages il nous est utile de les développer et pour quelles finalités étant donné que nous connaissons actuellement à peu près les limites de nos ressources et le poids de nos impacts sur elles et l’ensemble de notre planète. Bien sûr il y en aura toujours qui penseront pouvoir s’échapper sur mars. Si j’étais provocateur je parlerai d’holocauste par omission et anticipation pour ceux définitivement trop terre-à-terre.

    Ce texte a aussi le mérite dans ses précautions de lister tout ce que les entrepreneurs du marché libre et non faussé, épris de leurs libertés, ont grandement envie de faire parce qu’il y aura aussi beaucoup à gagner et vite dès lors que les investissements de base sont socialisés pour une large part. Un marché libre et non faussé dont je contrôle les données et les voies de communication. Le pied. Cela nous renvoie à notre préoccupation citoyenne initiale qui inclut aussi notre participation au pilotage et à la régulation de l’économie et à une réflexion sur la nécessité d’une planification qui n’est pas celle du marché ni de la concentration du pouvoir dans quelques mains.


    • Octave Lebel Octave Lebel 17 février 12:52

      @Octave Lebel

      Désolé pour le gras qui ne dépend pas de ma volonté dépassée ici par la technologie visiblement.


  • SilentArrow 17 février 14:25

    @Jean-Luc Picard-Bachelerie

    Cet article aurait bénéficié d’un petit effort de mise en page pour distinguer visuellement vos questions des réponses de l’IA.


  • Seth 17 février 15:28

    J’ai questionné une fois une ia en lui demandant la traduction de grossièreté françaises en anglais, elle a pudiquement refusé.

    Quand inversement je lui ai demandé la traduction des mêmes mots de l’anglais au français, elle me l’a donné de grand cœur.  smiley


  • Francis, agnotologue Francis, agnotologue 18 février 10:47

    ’’ Le sujet de ce long article, n’est pas le discours de Vance, mais la liberté d’expression qui est devenu le nouveau dada de l’extrême droite. En effet, cette liberté d’expression est revendiquée par Elon Musk et, désormais, par Mark Zuckerberg, est bien plus la leur puisque ce sont eux qui décident de leurs algorithmes. ’’

    >

    Vous avez dit liberté d’expression ?

    Petit rappel utile :

     « La charte des droits fondamentaux de l’Union européenne est le premier instrument international de protection des droits de l’homme qui renonce à la distinction binaire entre, d’une part les droits civils et politiques et d’autre part les droits économiques, sociaux et culturels  » (Mireille Delmas Marty, au sujet du TCE de 2005)


  • xana 18 février 11:55

    « La liberté d’expression sur les réseaux sociaux : j’ai interviewé une IA »

    Ben moi ca ne m’intéresse pas du tout ce que « pense » (soi-disant) une IA.

    Alors je n’ai pas besoin de lire cet interminable « nartic ».

    C’est incroyable de constater à quel point certains sont hypnotisés par un vulgaire programme. Au point de bientôt renoncer à leur intelligence (naturelle, dans la mesure où ils en avaient eu auparavant).

    Ne t’en fais pas, Jean-LucPicard-Bachelerie... Le journalisme est fini, parce que les journalistes n’existent plus. Par exemple, Agoravox n’aura plus besoin de toi pour « interroger » une IA. N’importe quel abruti muni d’un clavier peut le faire aussi bien que toi.

    Et les lecteurs ne perdrons plus de temps à lire tes tartines indigestes. Ils pourront eux aussi consulter l’encyclopédique Chat GPT (ou tout autre clone plus ou moins Chinois) sur les sujerts qui les intéressent. Personne ne regrettera les points de vue que tu n’es plus capable d’exprimer depuis longtemps, toute la partie subjective qui aurait pu nous attacher à ta vision des choses.

    Le journalisme est mort, et ce sont des gens comme toi qui l’ont tué.


    • Jean-Luc Picard-Bachelerie 18 février 12:22

      @xana
      Que dire de votre façon de débattre ou de non débattre ? Me parleriez-vous comme vous le faites si vous n’utilisiez pas un pseudonyme ou si nous parlions en face à face ? Mais, comme vous le dites « n’importe quel abruti muni d’un clavier peut le faire aussi bien que toi ». 
      « Personne ne regrettera les points de vue que tu n’es plus capable d’exprimer depuis longtemps » : vous êtes-vous donné la peine pour savoir si j’avais écrit d’autres articles ? Pour votre gouverne, j’en ai rédigé près de 90 pour Agoravox. Vous 0 et vous n’avez même pas renseigné votre profil. 
      Un peu lâche ces pseudos... Bref !

      Comme il semble que vous n’ayez pas compris mon propos, car enfin, il faut savoir poser les bonnes questions dans une interview et pour cela, vous ne pouvez en avoir un avis étant donné que vous n’avez pas lu, le but du jeu était de voir comment une IA dont les algorithmes appartiennent à une entreprise et donc qui a des intérêts privés peut répondre sur ses règles internes.

      On peut donc voir que l’IA répond assez clairement sur ce que devraient être les règles de transparence pour répondre aux idéaux démocratiques ; qu’elle « reconnait » que la liberté d’expression est toute relative puisque les utilisateurs ne peuvent avoir la main sur les algorithmes ni même en connaître leur gestion. Ça c’est plutôt intéressant, car elle donne des pistes que je ne connaissais pas toutes, et qu’au final, l’IA que j’ai interrogée refuse clairement de dévoiler sa politique algorithmique, quels sont les gens qu’elle fait travailler et si elle respecte le droit du travail, ni ce qu’elle met en place en matière écologique.

      Et pour savoir cela, il fallait avoir les réponses de l’IA directement sinon, je n’aurai pu que supputer. 

      Est-il utile de vous demander de respecter ceux qui publient sur Agoravox, car vous ne le savez pas puisque vous ne rédigez pas, pour qu’un article soit publié, c’est qu’il a reçu l’approbation de modérateurs qui ont jugé votre travail digne d’intérêt. Ce qui, du reste, ne les oblige pas être d’accord avec la publication qu’ils autorisent. Moi-même il m’est arrivé d’autoriser des publications avec lesquelles je suis en désaccord. Donc, je ne peux vous encourager qu’à travailler un peu plutôt que de vous contenter de critiquer sans aucun respect pour les auteurs. 


    • Réflexions du Miroir Réflexions du Miroir 18 février 18:36

      @Jean-Luc Picard-Bachelerie bonsoir
       Mon dernier billet paru aujourd’hui parle de la même chose dans une préversion sur Avox
      « Mes nuits avec une intelligence artificielle ».
        Xana ne connait rien au sujet de l’IA et de ChatGPT.
        L’IA est une suite absolument logique des inventions du numérique.
        L’analogique, son opposé, est d’une innocence sur l’impact positif et négatif.
        Tout dépend de ce qu’on en fait.
        C’est à ce niveau-là qu’il faut faire le tri.
       


  • xana 18 février 13:20

    Mais, cher ami, je n’ai jamais prétendu avoir l’intention de publier sur Agoravox.

    J’ai publié (et il m’arrive encore de le faire) dans d’autres domaines, mais franchement j’aurais honte de voir ma signature (ou mon pseudo) sur ce site.

    Alors pourquoi y venir ? Parce qu’il arrivait de temps en temps que de bons articles y étaient publiés, parfois. Il y a longtemps... Et c’est vrai, je ne me gêne pas pour régler le compte de certains prétentieux qui m’énervent souvent.


Réagir