Meta, la matriz de Facebook, está abordando la seguridad en el desarrollo del metaverso como uno de los ámbitos más destacados, y considera que los ambientes tóxicos suponen un "riesgo existencial" para esta tecnología emergente.
Así lo ha afirmado el futuro CTO de Meta, Andrew Bosworth -aunque ya forma parte de la compañía, no tomará su nuevo puesto hasta el año que viene-, en un memorándum interno dirigido a empleados de la compañía estadounidense el pasado mes de marzo al que ha tenido acceso ahora el diario Financial Times.
El ejecutivo considera que tecnologías del metaverso como la realidad virtual pueden ser un "entorno tóxico" para mujeres y miembros de minorías, y que moderar lo que dicen y hacen los usuarios "es prácticamente imposible a cualquier escala significativa".
Esta toxicidad y los problemas de seguridad supondrían un "riesgo existencial" para los planes del metaverso de Meta, y Bosworth teme que puedan desconectar a los usuarios generales del medio.
Según el documento interno de la matriz de Facebook, sus planes de moderación para el metaverso contemplan dar a los usuarios herramientas con las que reportar el comportamiento inadecuado, así como bloquear a las personas con las que prefieran no interactuar.
Bosworth considera que el nuevo proyecto debe basarse en las normas de comunidad ya existentes en Facebook. No obstante, el ejecutivo ha señalado que tienen "un sesgo más fuerte hacia la aplicación a lo largo de algún tipo de advertencia, suspensiones sucesivamente más largas y, en última instancia, expulsión de los espacios multiusuario".
"La teoría aquí [en el metaverso] tiene que ser que podemos promover la cultura para que a largo plazo no tengamos que tomar esas acciones de aplicación con demasiada frecuencia", agregó el futuro CTO de Meta.