Las AUC como redes sociales regulan sus contenidos como las plataformas convencionales

Lo habrán visto a nada que se muevan un poco por internet. A la frecuencia de todo tipo de noticias falsas y de publicidad encubierta, se ha sumado una nueva corriente de ‘influencers’ que glorifica las criptodisivas y promete a su audiencia, a menudo muy joven, una vida de lujo y en sueño casi sin mover un dedo Lo cierto es que el asunto alcanza ya cotas de epidemia. Una epidemia en la que la Asociación de Usuarios de la Comunicación quiere poner límites, con el fin de proteger a los menores ante perjudiciales e inadecuados contenidos y para defender también los intereses de los consumidores y usuarios ante ilícitas comunicaciones comerciales.

Sus propuestas para acabar con este todo vale que parece fluir por internet, ahora que la nueva Ley General de Comunicación Audiovisual se encuentra en plena tramitación parlamentaria, es que plataformas y redes sociales como YouTube, Vimeo, Twitch, Instagram, Tik Tok, Facebook o Twitter se acojan a las mismas reglas a las que están sujetas a las televisiones lineales, que tienen una normativa concreta en lo referente a las comunicaciones comerciales y que están obligadas no solo calificar por edades los contenidos que difunden sino a emitir contenidos adultos solo en determinadas franjas horarias.

Del mismo modo, piden regularmente la figura de los usuarios generadores de contenidos, ajustándose a esas mismas obligaciones en lo referente a los menores y a la publicidad. “Hay que tener seguidores en cuenta que sus, especialmente entre menores y jóvenes, superan a la audiencia de muchos programas de televisión”, apunta el estudio.

“El tema tiene dificultades porque hay que conciliar dos normativas que son la Ley de Servicios de la Sociedad de la Información y la Ley General de la Comunicación Audiovisual, pero creo que casi todo el mundo entiende que el objetivo es que los ciudadanos deben tener el mismo nivel de protección, independientemente de dónde se decida hacia un contenido. No puede ser que yo vea el mismo contenido en la television y en internet, y en un caso este protegido y en otro no. De ahí encontrarás la forma mas realista de poder hacerlo”, explicó Alejandro Perales, presidente de la Asociación de Usuarios de la Comunicación.

Su conclusión ha sido que se han analizado alrededor de 4.000 contenidos audiovisuales, entre programas generados y distribuidos para las propias plataformas y vídeos generados para nuestros usuarios, en un estudio en el que está especialmente enfocado a influencers. En cualquier acceso libre a los menores a contenidos inadecuados, informa reveló que en general solo un 1,1% de los contenidos analizados presentan algún tipo de señal o advertencia de edad y que en caso de los perjudiciales solo un 5,5% presenta estas advertencias Esas señales, revelan el trabajo, concentrándose en las plataformas de video, pero “prácticamente no existen en las redes sociales”. Destaca, además, que aunque estas plataformas rara vez alojan pornografía o violencia extrema, su acceso para los menores sigue siendo “total” en internet.

Respecto a la publicidad, informa al público que un tercio de sus mensajes publicitarios y promocionales han detectado sus comunicaciones comerciales y que se registra fundamentalmente entre sus influencers -en un 84,6% de sus casos forman parte de vídeos generados por los usuarios-. Se queja también de la asociación, de la saturación publicitaria a la que se ven sometidos a los espectadores. En este caso de los programas distribuidos por las plataformas, un 37,4% de los contenidos presentaba cuatro o más cortes publicitarios por cada 30 minutos, algo que además de aumentar la percepción invasiva de la publicidad, «menoscaba la integridad de los contenidos», explicó Perales. En este caso de redes sociales, analizamos cerca de 2.000 contenidos en cinco sesiones de 5 minutos. Tomando como base estas sesiones, en un 84,6% de los vídeos se detecta publicidad intercalada y en un 44% de ellos, las comunicaciones comerciales suponen entre un 25% y un 50% de los contenidos de la sesión. También en cuanto a formatos publicitarios y promocionales, plataformas y redes sociales, se beneficiarán de la falta de regulación por las restricciones televisivas. Así en un 73% de los patrocinios hay mensajes directos a la incitación de la compra y en los emplazamientos de marca en un 100% de los casos no hay señalización ni advertencia y de nuevos hay mensajes directos incitando a la compra.

Pero hay más, es fácil ver, por ejemplo, cómo se ofrecen productos de salud sin evidencia científica ni autorización alguna, bebidas alcohólicas de forma encubierta o mostrando su ingesta por parte de los responsables y los invitados de los programas, incluso con productos de alta graduación . Tabaco, autopromociones o medicamentos tienen también su espacio en la red de redes. Cabe decir, eso sí, que tras la aprobación del Real Decreto de déarrollo de la Ley del Juego, las comunicaciones comerciales de juegos y apuestas han desaparecido de las plataformas y las redes sociales no especializadas, aunque hay alguna presencia puntual 0,2%.

El último punto en el que hace mucho el informe es en las comunicaciones comerciales dirigidas especialmente a los menores. En este punto, la asociación ha visto incitación directa a los menores a la compra en un 8,9% de los mensajes publicitarios y destacan «casos de publicidad muy agresiva». También ponen el foco en la receta de productos por parte de influencers “que explotan la confianza y credulidad de los menores” incitándoles a la compra y en el acceso de los menores a contenidos de estética que “imponen cánones de bellezas estrictos y excluyentes” así como comunicaciones de productos ricos en grasas. En ambos casos, las televisiones cuentan con reglas que restringen el acceso a los menores.

Así las cosas, está claro que los sistemas de control parental que implementan desde las casas no funcionan del todo bien. “Tienen dos problemas. Muchos de ellos están basados ​​en terminología y la terminología es muy engañosa. Lo que sucede es que en algunos casos van más allá, bloqueando contenidos que no se deberían bloquear, y en otros dejando acceso total. Ocurre con la pornografía, a determinadas palabras responden bloqueando, pero otros términos más metafóricos pasan perfectamente cualquier filtro”, explicó Perales. “Nosotros cree que lo que funciona, además de sistemas de doble verificación para conocer la identidad del usuario y determinar si es menor o no, es la calificación de los contenidos como paso previo a su almacenamiento y difusión, porque permite que haya un baremo armonizado con unos criterios que todo el mundo utilice que sean similares y que permitan que de forma automática un control parentale funcione”, concluyó.