Le Forum économique mondial (WEF) a appelé les gouvernements du monde entier à commencer à emprisonner les propriétaires de réseaux sociaux qui autorisent des contenus « non traditionnels » sur leurs plateformes.
Yuval Noah Harari, le bras droit de Klaus Schwab, estime que des personnes comme Elon Musk doivent être tenues responsables de la soi-disant « désinformation » sur X.
Selon Rairfoundation.com, l’argument de Harari remet en cause la défense de longue date utilisée par les réseaux sociaux : la liberté d’expression.
« Ils essaient toujours de se protéger en invoquant la liberté d’expression… les entreprises doivent assumer la responsabilité de leur algorithme », a déclaré Harari.
Il insiste sur le fait que les plateformes doivent être tenues responsables non seulement du contenu généré par les utilisateurs, mais aussi de la manière dont leurs algorithmes amplifient ou suppriment des messages spécifiques.
Il s’agit d’un changement de cap important, qui va au-delà des créateurs de contenu et vise directement les mécanismes de distribution de contenu. La position de Harari est claire :
« Si c’est l’algorithme qui écrit le contenu, alors vous êtes certainement responsable de ce qu’il écrit. »
Cela a mis en évidence le rôle croissant de l’intelligence artificielle (IA) dans la modération du contenu en ligne.
NOUVEAU : Harari du WEF affirme que les propriétaires d’entreprises de médias sociaux comme @elonmusk devraient être « responsables » si leurs algorithmes diffusent du contenu « non fiable ».
« Ils essaient toujours de se protéger en faisant appel à la liberté d’expression. »
Harari affirme qu’il est nécessaire de s’appuyer sur des institutions telles que les journaux traditionnels et les universitaires pour « trier » les informations « indésirables » afin de trouver la vérité.
Traduction : Si un algorithme permet de voir des discours non approuvés par le WEF/l’establishment ( 𝕏 ), le propriétaire de la plateforme (Elon) devrait faire face à des répercussions juridiques.
À l’approche des élections, les appels à ce que 𝕏 et Elon fassent face à des conséquences juridiques pour avoir autorisé la liberté d’expression continuent de s’intensifier.
NEW: WEF’s Harari says social media company owners like @elonmusk should be ‘liable' if their algorithms push ‘unreliable’ content.
“They always try to protect themselves by appealing to freedom of speech."
Harari says reliance on institutions like legacy newspapers and… pic.twitter.com/VJDXV4xWwM
— Western Lensman (@WesternLensman) September 9, 2024
Cibler la vision d’Elon Musk
Les commentaires de Harari semblent être une attaque directe contre Elon Musk, qui a acheté X dans le mais de promouvoir un flux d’informations ouvert. Musk défend depuis longtemps l’idée que l’information doit être gratuite et qu’une démocratie prospère dépend du libre échange d’idées, même controversées. Harari rejette ce point de vue, affirmant :
« L’information n’est pas la vérité. La plupart des informations dans le monde sont des déchets… Si vous pensez qu’il suffit d’inonder le monde d’informations pour que la vérité flotte à la surface, non, elle coulera. »
Harari suggère que l’approche non interventionniste d’Elon Musk, qui permet à toutes les informations de circuler librement, crée un environnement dans lequel la vérité est éclipsée par le bruit. Il soutient que des institutions comme les journaux, les universités et les tribunaux sont nécessaires pour trier les informations et déterminer ce qui est fiable. Il établit une comparaison avec le rédacteur en chef d’un grand journal, en soulignant que, tout comme un rédacteur en chef est responsable de ce qui est placé sur la première page, les sociétés de médias sociaux devraient être tenues de respecter les mêmes normes. lorsque leurs algorithmes promettent du contenu.
Une menace pour la liberté d’expression ?
L’argument principal de Harari est que la modération des contenus ne doit plus être une préoccupation secondaire et que les propriétaires de plateformes ne doivent pas pouvoir se cacher derrière les revendications de liberté d’expression pour éviter de rendre des comptes.
Mais les critiques voient une toute autre histoire se dérouler. Ce changement de mentalité pourrait facilement conduire à une atteinte à la liberté d’expression, surtout si des plateformes comme X sont punies pour avoir permis la diffusion d’opinions controversées ou non conventionnelles de gauche.
Les remarques de Harari mettent en lumière une préoccupation plus grande concernant ce qui constitue une information « fiable » et qui a le pouvoir de décider. Si les plateformes sont tenues responsables du contenu diffusé par leurs algorithmes, cela pourrait effectivement étouffer les discours qui ne correspondent pas aux opinions des personnes au pouvoir, en particulier les voix qui ne sont pas membres du Forum économique mondial et qui ne font pas partie de l’établissement.
En faisant peser la responsabilité juridique sur les propriétaires de ces plateformes, Harari prône un nouveau niveau de contrôle sur le discours en ligne, un niveau qui considère beaucoup comme une menace pour le principe même de la liberté d’expression.
Les implications juridiques et sociales
Les implications de l’appel à la responsabilité de Harari sont importantes. Par exemple, si une plateforme comme X est tenue juridiquement responsable d’un contenu jugé peu fiable, elle pourrait être forcée d’adopter des mesures de censure extrême, par crainte de poursuites judiciaires. Cela est particulièrement inquiétant à l’approche d’une saison politiquement chargée, où les plateformes comme X sont des outils essentiels du débat public.
Harari fait référence au débat de longue responsabilité date autour de l’article 230 aux États-Unis, qui protège les plateformes de toute quant au contenu publié par leurs utilisateurs. Il s’agit d’une pierre angulaire de la protection de la liberté d’expression sur Internet. Cependant, Harari semble penser que l’essor de l’IA et des algorithmes complique cette dynamique, justifiant une nouvelle approche dans laquelle les plateformes sont responsables non seulement de l’hébergement du contenu, mais aussi de la manière dont il est distribué.
En ciblant Elon Musk et des plateformes comme X, Harari prône en fait un système dans lequel la liberté d’expression est secondaire par rapport à la responsabilité algorithmique.
Cela ouvrirait la porte à des répercussions juridiques pour ceux qui ne se conforment pas au WEF ou aux discours approuvés par l’establishment.
Cette décision pourrait avoir de profondes conséquences sur l’avenir de la liberté d’expression sur Internet, en particulier dans le contexte de la censure induite par l’IA.
Un précédent effrayant
L’appel à la responsabilité de Harari pourrait avoir des conséquences de grande envergure, notamment sur la liberté d’expression. Si lutter contre la désinformation peut sembler raisonnable à première vue, tenir des plateformes comme X responsables de leurs algorithmes conduira probablement à une censure extrême, comme nous l’avons déjà vu entre 2020 et 2023 concernant le virus COVID et les traitements potentiels.
En ciblant Elon Musk et d’autres, Harari prône un avenir où la liberté d’expression sera subordonnée au contrôle algorithmique.
Il y a au moins deux grandes préoccupations : qui décide de ce qui constitue une information « fiable » et est-il plus dangereux pour une république de se retrouver face à des informations potentiellement incorrectes que d’avoir des réglementations étatiques contrôlant ce qui peut être dit sur les forums publics ?
Si les plateformes sont confrontées à des répercussions juridiques pour avoir amplifié des contenus non courants, elles pourraient étouffer les voix dissidentes pour éviter les poursuites judiciaires. Cela pourrait transformer Internet en un espace où les gardiens, plutôt que les utilisateurs, contrôlent le discours – un précédent dangereux à l’ère numérique.
Source : La Voix du Peuple Septembre 2024
Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.
Aidez Elishean à survivre. Merci |
ELISHEAN 777 Communauté pour un Nouveau Monde