Paris 2024 : la protection des athlètes contre le cyberharcèlement grâce à l’intelligence artificielle
À l’approche des Jeux Olympiques de Paris 2024, les autorités françaises et le Comité international olympique (CIO) mettent en place des mesures pour assurer la sécurité mentale des athlètes en les protégeant du cyberharcèlement. En effet, ces derniers sont de plus en plus victimes de moqueries, d’insultes voire de menaces de mort sur les réseaux sociaux et les commentaires en ligne.
L’intelligence artificielle au service de la protection des athlètes
Pour lutter contre ce phénomène, le CIO a décidé d’utiliser l’intelligence artificielle (IA) pour filtrer en temps réel les messages hostiles dans plus de trente-cinq langues et dialectes. Un prestataire en lien avec les plates-formes sera chargé de gérer cette IA. Les quelque 15 000 athlètes olympiques et paralympiques, ainsi que les entraîneurs et les officiels (plus de 2 000 personnes) pourront tous bénéficier de ce dispositif de protection.
Cette initiative, qui sera mise en place pour la première fois lors des Jeux Olympiques, a pour objectif de supprimer le contenu abusif avant même qu’il ne soit lu. En effet, face à une potentielle avalanche de messages haineux sur les médias sociaux – près d’un demi-milliard est prévu – il serait matériellement impossible d’analyser et modérer tous ces messages sans l’aide de l’IA. Ainsi, si un commentaire parvient tout de même à être vu par un sportif, trois psychologues seront présents au village des athlètes pour lui apporter un soutien psychologique adéquat.
Bodyguard : une solution contre le cyberharcèlement
En complément de cette initiative du CIO, le ministère des Sports propose aux athlètes tricolores et internationaux de se tourner vers la société française Bodyguard. Spécialisée dans la protection des comptes des réseaux sociaux, cette entreprise utilise également l’intelligence artificielle pour masquer les messages jugés toxiques. Ainsi, ces messages ne sont visibles que par leur auteur, et les émojis ou pictogrammes offensants sont également masqués.
En effet, les internautes essaient souvent de contourner les filtres et les algorithmes qui repèrent les messages haineux en utilisant des mots ou des symboles spécifiques. Bodyguard a donc développé une AI capable de détecter ces tentatives de contournement et de masquer les contenus offensants.
Avec l’émergence des réseaux sociaux et des nouvelles technologies, le cyberharcèlement est devenu un véritable fléau pour les athlètes. Les Jeux Olympiques de Paris 2024 marquent une avancée significative dans la lutte contre ce problème en mettant en place des dispositifs de protection basés sur l’intelligence artificielle.
Au-delà de Paris 2024, il est essentiel de continuer à sensibiliser sur cette question et à mettre en place des mesures pour protéger les athlètes du cyberharcèlement. La sécurité mentale des sportifs est tout aussi importante que leur sécurité physique, et il est primordial d’agir pour créer un environnement en ligne sûr et bienveillant pour tous.