(CNN Business) – Hace poco más de un año, las empresas de redes sociales fueron puestas en evidencia por cómo protegen, o no protegen, a sus usuarios más jóvenes.
En una serie de audiencias en el Congreso, los ejecutivos de Facebook, TikTok, Snapchat e Instagram se enfrentaron a duras preguntas de los legisladores sobre cómo sus plataformas pueden llevar a los usuarios más jóvenes a contenidos perjudiciales, dañar la salud mental y la imagen corporal (especialmente entre las adolescentes), y carecer de suficientes controles parentales y salvaguardias para proteger a los adolescentes.
Esas audiencias, que tuvieron lugar tras las revelaciones de la denunciante Frances Haugen sobre el impacto de Instagram en los adolescentes, en lo que se conoce como los “Facebook Papers”, hicieron que las empresas se comprometieran a cambiar. Desde entonces, las cuatro redes sociales han introducido más herramientas y opciones de control parental para proteger mejor a los usuarios más jóvenes. Algunas también han introducido cambios en sus algoritmos, como hacer que los adolescentes vean por defecto contenidos menos sensibles y aumentar sus esfuerzos de moderación. Pero algunos legisladores, expertos en redes sociales y psicólogos afirman que las nuevas soluciones siguen siendo limitadas y que es necesario hacer más.
“Más de un año después de que los Facebook Papers revelaran dramáticamente los abusos de las grandes tecnológicas, las empresas de redes sociales solo han dado pequeños y lentos pasos para limpiar sus actos”, dijo a CNN Business el senador Richard Blumenthal, que preside el subcomité de protección del consumidor del Senado. “La confianza en las grandes tecnológicas ha desaparecido hace tiempo y necesitamos reglas reales para garantizar la seguridad de los niños en línea”.
Michela Menting, directora de Seguridad Digital de la empresa de estudios de mercado ABI Research, coincidió en que las plataformas de redes sociales “ofrecen muy poco en cuanto a sustancia para contrarrestar los males en que incurren sus plataformas”. Sus soluciones, dijo, hacen recaer en los tutores la responsabilidad de activar diversos controles parentales, como los destinados a filtrar, bloquear y restringir el acceso, y opciones más pasivas, como las herramientas de supervisión y vigilancia que se ejecutan en segundo plano.
Alexandra Hamlet, psicóloga clínica con sede en Nueva York, recuerda haber sido invitada a una mesa redonda hace unos 18 meses para debatir sobre las formas de mejorar Instagram, en particular, para los usuarios más jóvenes. “No veo que muchas de nuestras ideas se pongan en práctica”, dijo. Las plataformas de redes sociales, añadió, deben trabajar para “seguir mejorando los controles parentales, proteger a los jóvenes contra la publicidad dirigida y eliminar los contenidos objetivamente perjudiciales”.
Las empresas de redes sociales mencionadas en este artículo declinaron hacer comentarios o no respondieron a una solicitud de comentarios sobre las críticas de que hay que hacer más para proteger a los usuarios jóvenes.
Por el momento, los tutores deben aprender a utilizar los controles parentales, al tiempo que son conscientes de que los adolescentes a menudo pueden eludir esas herramientas. A continuación explicamos qué pueden hacer los padres de familia para mantener a sus hijos seguros en internet.
Tras las repercusiones de los documentos filtrados, Instagram, propiedad de Meta, puso en pausa su criticado plan de lanzar una versión de Instagram para niños menores de 13 años y se centró en hacer su servicio principal más seguro para los usuarios jóvenes.
Desde entonces, ha introducido un centro educativo para padres con recursos, consejos y artículos de expertos en seguridad de los usuarios, y ha puesto en marcha una herramienta que permite a los tutores ver cuánto tiempo pasan sus hijos en Instagram y establecer límites de tiempo. Los padres también pueden recibir actualizaciones sobre las cuentas que siguen sus hijos adolescentes y las cuentas que los siguen a ellos, y ver y ser notificados si su hijo hace una actualización de su privacidad y configuración de la cuenta. Los padres también pueden ver qué cuentas han bloqueado sus hijos. Además, la empresa ofrece tutoriales en video sobre cómo utilizar las nuevas herramientas de supervisión.
Otra función anima a los usuarios a tomarse un descanso de la aplicación, por ejemplo, sugiriéndoles que respiren profundamente, escriban algo, revisen una lista de tareas o escuchen una canción, después de un tiempo predeterminado. Instagram también ha dicho que está adoptando un “enfoque más estricto” en cuanto al contenido que recomienda a los adolescentes y que los empujará activamente hacia otros temas, como la arquitectura y los destinos de viaje, si se han detenido en algún tipo de contenido durante demasiado tiempo.
El Centro de Seguridad de Facebook ofrece herramientas y recursos de supervisión, como artículos y consejos de destacados expertos. “Nuestra visión para el Centro Familiar es permitir que los padres y tutores ayuden a sus hijos adolescentes a gestionar sus experiencias en las tecnologías de Meta, todo desde un solo lugar”, dijo Liza Crenshaw, una portavoz de Meta, a CNN Business.
El centro también ofrece una guía de las herramientas de supervisión parental de la realidad virtual de Meta, elaborada por ConnectSafely, una organización sin ánimo de lucro cuyo objetivo es ayudar a los niños a mantenerse seguros en internet, para ayudar a los padres a hablar de la realidad virtual con sus hijos. Los tutores pueden ver qué cuentas han bloqueado sus hijos adolescentes y acceder a las herramientas de supervisión, así como aprobar la descarga o la compra por parte de sus hijos adolescentes de una aplicación que está bloqueada por defecto en función de su clasificación, o bloquear aplicaciones específicas que puedan ser inapropiadas para sus hijos adolescentes.
Snapchat
En agosto, Snapchat introdujo una guía para padres y un centro de información para que los tutores sepan cómo usan la aplicación sus hijos adolescentes, incluyendo con quién han hablado en la última semana (sin divulgar el contenido de esas conversaciones). Para utilizar esta función, los padres deben crear su propia cuenta de Snapchat, y los adolescentes tienen que aceptarla y dar su permiso.
Aunque esta es la primera incursión formal de Snapchat en el control parental, ya contaba con algunas medidas de seguridad para los usuarios jóvenes, como la exigencia de que los adolescentes sean amigos comunes antes de poder empezar a comunicarse entre ellos y la prohibición de tener perfiles públicos. Los usuarios adolescentes tienen la herramienta para compartir la ubicación de Snap Map desactivada por defecto, pero también pueden utilizarla para revelar su ubicación en tiempo real con un amigo o familiar incluso mientras la aplicación está cerrada como medida de seguridad. Por otra parte, la herramienta Friend Check Up anima a los usuarios de Snapchat a revisar sus listas de amigos y asegurarse de que siguen queriendo estar en contacto con determinadas personas.
Snap dijo anteriormente que está trabajando en más funciones, como la posibilidad de que los padres vean qué nuevos amigos han añadido sus hijos adolescentes y les permita denunciar de forma confidencial las cuentas que puedan estar interactuando con sus hijos. También está trabajando en una herramienta para dar a los usuarios más jóvenes la opción de notificar a sus padres cuando denuncien una cuenta o un contenido.
La empresa dijo a CNN Business que seguirá desarrollando sus funciones de seguridad y que tendrá en cuenta los comentarios de la comunidad, los responsables políticos, los defensores de la seguridad y la salud mental, y otros expertos para mejorar las herramientas con el tiempo.
TikTok
En julio, TikTok anunció nuevas formas de filtrar los videos adultos o “potencialmente problemáticos”. Las nuevas medidas de seguridad asignan una “puntuación de madurez” a los videos que se detectan como potencialmente con temas maduros o complejos. También se ha puesto en marcha una herramienta para ayudar a los usuarios a decidir cuánto tiempo quieren pasar en TikTok. La herramienta permite a los usuarios establecer descansos regulares en la pantalla, y ofrece un panel que detalla el número de veces que abrieron la aplicación, un desglose del uso diurno y nocturno y más.
La popular aplicación de videos cortos ofrece actualmente un centro de emparejamiento familiar, que permite a los padres y a los adolescentes personalizar su configuración de seguridad. Los padres también pueden vincular su cuenta de TikTok a la aplicación de sus hijos adolescentes y establecer controles parentales, como el tiempo que pueden pasar en la aplicación cada día; restringir la exposición a determinados contenidos; decidir si los adolescentes pueden buscar videos, hashtags o contenidos en directo; y si su cuenta es privada o pública. TikTok también ofrece su Guía del Tutor que destaca cómo los padres pueden proteger mejor a sus hijos en la plataforma.
Además de los controles parentales, la aplicación restringe el acceso a algunas funciones a los usuarios más jóvenes, como el Live y los mensajes directos. También aparece una ventana emergente cuando los adolescentes menores de 16 años están listos para publicar su primer video, pidiéndoles que elijan quién puede verlo. Las notificaciones push se restringen después de las 9 de la noche para los usuarios de cuentas de 13 a 15 años, y a las 10 de la noche para los usuarios de 16 a 17 años.
La empresa dijo que en los próximos días y meses hará más esfuerzos por dar a conocer sus funciones de control parental.
Discord
Discord no compareció ante el Senado el año pasado, pero la popular plataforma de mensajería se ha enfrentado a críticas por la dificultad de denunciar contenidos problemáticos y la posibilidad de que extraños se pongan en contacto con usuarios jóvenes.
En respuesta, la empresa ha renovado recientemente su Centro de Seguridad, donde los padres pueden encontrar orientación sobre cómo activar la configuración de seguridad, preguntas frecuentes sobre el funcionamiento de Discord y consejos sobre cómo hablar de seguridad en línea con los adolescentes. Algunas de las herramientas de control parental existentes incluyen una opción para prohibir que un menor reciba una solicitud de amistad o un mensaje directo de alguien que no conoce.
Aun así, es posible que los menores se conecten con extraños en servidores públicos o en chats privados si la persona fue invitada por otra persona en la sala o si el enlace del canal se deja caer en un grupo público al que el usuario accedió. Por defecto, todos los usuarios -incluidos los de entre 13 y 17 años- pueden recibir invitaciones de amistad de cualquier persona que se encuentre en el mismo servidor, lo que les permite enviar mensajes privados.