La seule façon pour les enfants de moins de 13 ans d’envoyer des messages directs à d’autres joueurs est avec l’approbation parentale.
Afin de protéger vos enfants, Roblox vient de déployer de nouvelles fonctionnalités de sécurité. Consultez les détails de ces fonctionnalités ici pour en savoir plus.
Dispositifs de sécurité pour protéger les enfants de moins de 13 ans
Les mises à jour de Roblox incluent : nouvelles restrictions sur la manière dont les utilisateurs de moins de 13 ans peuvent communiquer sur la plateforme.
En effet, depuis le 18 novembre, les utilisateurs n’ayant pas encore atteint cet âge n’auront plus le droit deenvoyer des messages privés aux joueurs. Cependant, il y a toujours une exception à la règle, car ils peuvent toujours envoyer des messages dans le cadre de jeux ou d’expériences sur Roblox.
De plus, il est possible d’envoyer des messages privés dans le jeu avec autorisation parentale. Toutefois, pour pouvoir en bénéficier, il faudra encore attendre un peu, car le changement ne sera pas encore acté. mis en œuvre sur la plateforme avant le premier trimestre 2025.
Les utilisateurs de moins de 13 ans ne pourront pas non plus accéder au expériences de rencontres sociales ou même à expériences gratuites de dessin ou d’écriture.
Pourquoi un changement de fonctionnalité de sécurité sur Roblox ?
Des changements sont nécessaires au sein de la plate-forme après des rapports récents mettant en évidence des cas dans lesquels Roblox ne parvient pas à protéger les enfants.
Par ailleurs, un article de Bloomberg décrit comment les prédateurs de la plateforme utilise le chat pour communiquer avec les enfants. Dans un autre rapport, Hindenburg Research parle de Roblox comme « un enfer pédophile classé X ».
Ces nouvelles limitations sur le chat seront basé sur des filtres de chat automatiques de la plateforme destinée à empêcher les utilisateurs de partager des informations personnelles.
De nombreux autres changements en cours
En plus des changements appliqués au chat, Roblox déploie également ses comptes précédemment annoncés pour les parents et tuteurs. Cette solution leur offre gestion à distance des éléments comme les limites du temps d’écran d’un enfant.
Si avant, les parents devaient avoir accès physique au compte de leur enfant pour définir le contrôle parental. La plateforme commence également à utiliser des balises de contenu pour décrire les expériences au lieu de les classer par tranches d’âge spécifiques.
Plus précisément, une expérience modérée peut inclure des éléments comme de l’humour grossier ou une peur modérée.
Enfin, les utilisateurs de moins de 9 ans ne pourront plus accéder des expérimentations avec des labels de contenu « minimaux » ou « légers », sauf si un parent ne donne pas la permission.
Comment trouvez-vous ces changements ? Est-ce suffisant pour améliorer la sécurité des jeunes utilisateurs ?
Partagez l’article :
Facebook
Gazouillement
LinkedIn
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons gagner une commission d’affiliation.