Article pense-bête. J'écris un petit rôle pour configurer firewalld, en gros je veux spécifier quelles interfaces et quels services il faut ajouter dans les zones. Mon idée c'est de définir tout ça dans un dictionnaire dans le playbook, et ensuite de récupérer les élements et sous-élements dans le rôle.
Voici ce que ça donne:
# install.yml
- hosts: nas
roles:
- nfs-server
- firewalld
vars:
firewalld_zones:
- zone: internal
interfaces:
- eth0
services:
- mountd
- nfs
- rpc-bind
- name: Define zones for interfaces
firewalld:
zone: "{{ item.0.zone }}"
permanent: true
immediate: true
interface: "{{ item.1 }}"
state: enabled
with_subelements:
- "{{ firewalld_zones }}"
- interfaces
- name: Allow services for zones
firewalld:
zone: "{{ item.0.zone }}"
permanent: true
immediate: true
service: "{{ item.1 }}"
state: enabled
with_subelements:
- "{{ firewalld_zones }}"
- services
Mouais. C'est quand même loin d'être clair ou évident. Mais c'est le seul moyen que j'ai trouvé pour le moment. Si quelqu'un connaît une méthode plus propre/lisible je suis preneur.
Emmanuel Macron veut légiférer contre les « fake news » (NextINpact).
La situation est complexe. On peut y voir encore une "infantilisation" des citoyens, le gouvernement va faire le boulot intellectuel à votre place, donc si on laisse passer une info c'est qu'elle est vraie, pas besoin de brancher votre cerveau. On peut aussi se demander quels seront les critères pour déterminer si une information est vraie ou pas, et si on peut légitimement censurer un article voire même un site tout entier à partir de là. Et bien sûr cela risque paradoxalement de servir la cause de certains groupes qui pourront se poser en victime de "censure".
Vidéo de Hygiène Mentale à ce sujet:
L'idéal serait que les gens apprennent eux-même à distinguer les fake news. C'est possible dans une certaine mesure. Les gens ne sont pas idiots, seulement pas assez formés à l'utilisation des outils de recherche. Rien qu'avec la recherche inversée de Google image on peut se rendre compte que certaines choses que l'on partage sur les réseaux sociaux sont fausses, et c'est ce que l'on apprend dans certaines écoles aux enfants (voir les vidéo EMI de Hygiène Mentale à ce sujet).
Mais le mal est plus profond. On ne pourra pas éduquer tout le monde et il y aura toujours des gens impossibles à convaincre qui continueront à diffuser les informations, et le modèle des préférences de Youtube et des réseaux sociaux continueront à les privilégier et les faire exister:
- Les fakes news, les partages, les publicités, ça rapporte. Donc il y aura toujours du putaclick, du partage viral, je ne vois pas vraiment de solution à ça, sauf si la publicité sur internet pouvait s'effondrer définitivement.
- Les complotistes sont perdus, rien ne pourra jamais les convaincre, chaque argument étant balayé sans la moindre considération. Je prends pour exemple cette conférence de Alain Fisher à l'espace des sciences de Rennes. 1h56 d'argumentation scientifique balayée dans les commentaires par des remarques "il est certainement payé par l'industrie pharmaceutique pour nous mentir" suivie d'un pouce rouge, comment peut-on discuter avec ces gens? Rappelons que la base de la croyance des antivax est fausse.
- Le biais de confirmation, c'est humain et plus subtil. On aura tendance à retenir et à partager les informations qui vont dans le sens de nos opinions, en prenant moins garde à vérifier si elles sont vraies ou pas. Et de manière plus malhonnête on peut citer certains groupes enclins à défendre des partis politiques, on se rappelle tous du spam sur le web opéré pour l'UPR.
En conclusion, il est regrettable que le gouvernement soit obligé de brandir la censure pour lutter contre les fake news, mais peut-être est-ce inévitable. J'espère seulement que des garde-fou et des recours seront possibles pour éviter les dérives, et je ne me fais pas d'illusions: on ne pourra pas nettoyer le web. Peut-être faut-il attendre une prochaine génération d'utilisateurs du web, plus intelligente et mieux formée à ce genre de choses.