Esta medida busca limitar la interacción entre menores y adultos, en respuesta a crecientes críticas y demandas legales sobre la seguridad infantil en su masivo entorno digital. El nuevo sistema, que comenzará a desplegarse en diciembre en Australia, Nueva Zelanda y los Países Bajos antes de su expansión global en enero, clasificará a los usuarios en seis grupos de edad, desde menores de nueve años hasta mayores de 21. Una vez verificada la edad, los jugadores solo podrán comunicarse con otros usuarios dentro de su mismo rango etario o uno adyacente. Para los menores de nueve años, el chat estará desactivado por defecto y requerirá consentimiento explícito de los padres para su activación.

La verificación se realizará mediante una selfie o la presentación de una identificación oficial. Para los usuarios más jóvenes que no disponen de documentos, Roblox utilizará una tecnología de estimación de edad basada en IA que analiza una selfie en video.

La compañía asegura que las imágenes se procesan en el dispositivo y se eliminan inmediatamente después del análisis para proteger la privacidad.

Esta decisión surge en un contexto de intensa presión regulatoria y legal. Roblox, con más de 151 millones de usuarios activos diarios, ha enfrentado acusaciones de no hacer lo suficiente para prevenir casos de grooming y explotación. Con esta medida, la empresa busca establecer un nuevo estándar de seguridad en la industria y adelantarse a posibles regulaciones más estrictas.