Hey you !
La frontière entre le réel et le virtuel devient de plus en plus floue. Apparition du metaverse, carton des influenceurs fictifs… Bref, c’est un phénomène qui s’étend. Et justement, une étude publiée récemment par l’École Polytechnique Fédérale de Lausanne précise que 20 % des tendances mondiales sur Twitter seraient ainsi créées de toutes pièces par des bots. Il y aurait, selon la même étude, pas moins de 108 000 faux comptes impliqués dans ces opérations sur la plateforme.
Les risques de dérives d’utilisation des bots
A l’origine, il était évident de faire la distinction entre un bot et un compte animé par une personne réelle. Aujourd’hui, l’opération est plus délicate. Non seulement, la frontière s’efface mais cela peut également entraîner d’autres dérives. Les bots font parfois émerger des apps de phishing qui peuvent notamment être utilisées dans le cadre de campagnes de désinformation, de boycotte, de diffamation, de haine… C’est par exemple ce qu’il s’était passé lors des dernières élections américaines.
Une distinction entre réel et virtuel presque impossible
Récemment, des chercheurs de l’université de Pennsylvanie et de l’université de Stony Brook (New-York) se sont penchés sur une question clé : comment distinguer les utilisateurs humains des bots ? L’idée était ainsi de déterminer s’ il est encore possible aujourd’hui, pour un utilisateur classique, de faire la différence entre un compte réellement animé par un humain ou un compte 100% géré par un bot virtuel. Les chercheurs ont ainsi analysé plus de trois millions de tweets rédigés par trois mille comptes bots et autant de profils authentiques. Ils les ont ensuite classé selon 17 caractéristiques distinctifs (âge, sexe, traits de personnalité, émotion, etc…). Résultat ? Il serait très difficile voir impossible, pour un observateur humain de faire la différence entre un vrai et un faux profil d’un faux. Alors, comment se prémunir des risques associés ?
L’importance d’une politique de modération
L’étude montre également un autre élément, plutôt rassurant. Les bots, analysés de façon individuelle, ne peuvent que difficilement être repéré. En revanche, s’ ils sont analysés en groupe, on constate rapidement des aspects similaires et leur côté artificiel ressort. Il serait donc possible de les réguler et de les intégrer dans une politique de modération des contenus. Cela rejoint une tendance de fond. La pression vis à vis des plateformes est de plus en plus importante, afin de les encourager à la mise en place de comités éthiques et règles de publications plus strictes et mieux régulées. C’est par exemple ce qu’à choisi de mettre en place la plateforme française MYM avec un comité éthique indépendant. Ce dernier a pour vocation de définir les règles de publication de contenu de la plateforme et de s’assurer du bon respect de celles-ci. C’est une façon de garantir la qualité et la variété du contenu, l’expérience utilisateur, le travail des créateurs de contenu. Alors, vers une généralisation de ce type de mesure ?