L'AUC come social network regola i loro contenuti come piattaforme convenzionali

Non avranno visto nulla che si muova un po' su Internet. Alla frequenza di tutti i tipi di fake news e pubblicità segrete si aggiunge un nuovo flusso di "influencer" che glorificano le criptovalute e promettono al loro pubblico, spesso molto giovane, una vita di lusso e di dormire quasi senza muovere un dito. sta già raggiungendo livelli epidemici. Un'epidemia in cui l'Associazione degli Utenti della Comunicazione vuole porre dei limiti, al fine di proteggere i minori da contenuti dannosi e inappropriati e anche per difendere gli interessi dei consumatori e degli utenti dalle comunicazioni commerciali illegali.

Le loro proposte per porre fine a tutto ciò, tutto ciò che sembra fluire attraverso Internet, ora che la nuova Legge Generale sulla Comunicazione Audiovisiva è in pieno iter parlamentare, sono piattaforme e social network come YouTube, Vimeo, Twitch, Instagram, Tik Tok, Facebook o Twitter aderiscono alle stesse regole a cui sono soggetti per la televisione lineare, che hanno normative specifiche in materia di comunicazioni commerciali e sono obbligati non solo a classificare i contenuti che trasmettono in base all'età, ma a trasmettere contenuti per adulti solo in determinati fusi orari .

Allo stesso modo, richiedono regolarmente la figura degli utenti generatori di contenuti, adeguandosi agli stessi obblighi nei confronti dei minori e della pubblicità. "Bisogna tenere presente che i loro seguaci, soprattutto tra i minori e i giovani, superano l'audience di molti programmi televisivi", afferma lo studio.

“La questione è difficile perché bisogna conciliare due normative, che sono la legge sui servizi della società dell'informazione e la legge generale sulla comunicazione audiovisiva, ma penso che quasi tutti comprendano che l'obiettivo è che i cittadini abbiano lo stesso livello di protezione, indipendentemente da dove decidi per un contenuto. Non può essere che io veda lo stesso contenuto in televisione e su Internet, e in un caso è protetto e in un altro no. Da lì troverai il modo più realistico per farlo”, ha spiegato Alejandro Perales, presidente dell'Associazione degli utenti della comunicazione.

La conclusione è stata che sono stati analizzati circa 4.000 contenuti audiovisivi, tra programmi generati e distribuiti per le piattaforme stesse e video generati per i nostri utenti, in uno studio particolarmente focalizzato sugli influencer. In qualsiasi accesso gratuito da parte dei minori a contenuti inappropriati, i rapporti hanno rivelato che in generale solo l'1,1% dei contenuti analizzati ha qualche tipo di segno o avvertimento dell'età e che in caso di dannoso solo il 5,5% ha questi avvertimenti Questi segnali rivelano l'opera , concentrandosi sulle piattaforme video, ma "praticamente non esistono nei social network". Sottolinea inoltre che, sebbene queste piattaforme ospitino raramente materiale pornografico o violenza estrema, il loro accesso per i minori rimane "totale" su Internet.

Per quanto riguarda la pubblicità, informa il pubblico che un terzo dei suoi messaggi pubblicitari e promozionali ha rilevato le sue comunicazioni commerciali e che è registrato principalmente tra i suoi influencer -nell'84,6% dei suoi casi fanno parte di video generati dagli utenti-. Si lamenta anche dell'associazione, della saturazione pubblicitaria a cui sono sottoposti i telespettatori. In questo caso dei programmi distribuiti dalle piattaforme, il 37,4% dei contenuti presentava quattro o più interruzioni pubblicitarie ogni 30 minuti, cosa che, oltre ad aumentare la percezione invasiva della pubblicità, "mina l'integrità del contenuto" ha spiegato Perales . In questo caso di social network, abbiamo analizzato quasi 2.000 contenuti in cinque sessioni da 5 minuti. Sulla base di queste sessioni, la pubblicità intervallata viene rilevata nell'84,6% dei video e nel 44% di essi le comunicazioni commerciali rappresentano tra il 25% e il 50% del contenuto della sessione. Anche in termini di formati pubblicitari e promozionali, piattaforme e social network, beneficeranno della mancanza di regolamentazione dovuta alle restrizioni televisive. Così, nel 73% delle sponsorizzazioni ci sono messaggi diretti che incoraggiano l'acquisto e nei posizionamenti di marca nel 100% dei casi non ci sono segnali o avvertimenti e ancora una volta ci sono messaggi diretti che incoraggiano l'acquisto.

Ma c'è di più, è facile vedere, ad esempio, come vengono offerti prodotti per la salute senza prove scientifiche o autorizzazioni, bevande alcoliche di nascosto o mostrandone l'assunzione da parte dei responsabili e degli ospiti dei programmi, anche con prodotti di alta qualità. Anche il tabacco, le autopromozioni oi medicinali hanno il loro spazio nella rete delle reti. C'è da dire, sì, che dopo l'approvazione del Regio Decreto per lo sviluppo della Legge sui Giochi, le comunicazioni commerciali di giochi e scommesse sono scomparse dalle piattaforme e dai social network non specializzati, anche se c'è una presenza occasionale dello 0,2%.

L'ultimo punto in cui la segnalazione fa molto è nelle comunicazioni commerciali rivolte soprattutto ai minori. A questo punto, l'associazione ha visto l'incitamento diretto all'acquisto di minori nell'8,9% dei messaggi pubblicitari e mette in evidenza "casi di pubblicità molto aggressiva". Si concentrano anche sulla ricetta dei prodotti di influencer "che sfruttano la fiducia e la credulità dei minori" incoraggiandoli all'acquisto e l'accesso dei minori a contenuti estetici che "impongono canoni di bellezza rigorosi ed esclusivi" nonché comunicazioni di alto livello prodotti grassi. In entrambi i casi, le emittenti televisive hanno regole che limitano l'accesso ai minori.

Pertanto, è chiaro che i sistemi di controllo parentale implementati da casa non funzionano affatto bene. “Hanno due problemi. Molti di loro si basano sulla terminologia e la terminologia è molto fuorviante. Quello che succede è che in alcuni casi vanno oltre, bloccando i contenuti che non dovrebbero essere bloccati e in altri consentendo l'accesso completo. Succede con la pornografia, rispondono a certe parole bloccando, ma altri termini più metaforici superano perfettamente qualsiasi filtro”, ha spiegato Perales. "Riteniamo che ciò che funziona, oltre ai sistemi di doppia verifica per conoscere l'identità dell'utente e determinare se si tratta di un minore o meno, sia la qualificazione del contenuto come passaggio precedente alla sua conservazione e diffusione, perché consente di una scala armonizzata con criteri che tutti usano che sono simili e che consentono al controllo parentale di funzionare automaticamente”, ha concluso.