YouTube rimuove contenuti inappropriati per violenze e spam
YouTube rimuove contenuti inappropriati per violenze e spam
Youtube ha pubblicato il primo rapporto trimestrale
sull’applicazione delle direttive comunitarie e ha lanciato un report
che consente agli utenti di visualizzare
lo stato del video contrassegnati per la revisione.
Tuttavia, Il rapporto, che riguarda l’ultimo trimestre del 2020
fa seguito a una promessa fatta da Youtube a dicembre
di dare maggiore trasparenza agli utenti su come vengono gestiti
gli abusi e sulle direttive di rimozione dei video.
Pertanto, Questo aggiornamento mostrerà i progressi che stiamo compiendo
nella rimozione dei contenuti che violano dalla nostra piattaforma
ha detto la società in un post sul blog ufficiale.
Inoltre, Entro la fine dell’anno pensiamo di perfezionare i nostri sistemi
di segnalazione e aggiungere altri dati, inclusi quelli relativi ai commenti
alla velocità o alla rimozione e le ragioni di essa.”
YouTube rimuove contenuti inappropriati per violenze e spam
Tuttavia è improbabile che il rapporto possa reprimere le lamentele di chi è convinto
che le regole di YouTube siano applicate in maniera casuale.
Il problema si è presentato l’anno passato dopo un rapporto del Times, ma molti produttori
di contenuti affermano che le nuove politiche di Youtube hanno reso molto difficile la
monetizzazione sulla piattaforma, nonostante i loro video non violino nessuna delle regole.
Pertanto, Youtube afferma che l’algoritmo di apprendimento automatico anti-abuso
mirato a monitorare e gestire potenziali violazioni su larga scala
sta dando i suoi frutti su aree ad alto rischio come l’estremismo
violento appunto e altre più vaste come lo spam.
Dal rapporto si apprende che sono stati rimossi 8,2 milioni di video durante l’ultimo
trimestre del 2017, la maggior parte dei quali erano spam o contenuti per adulti.
Di questi, 6,7 milioni sono stati riconosciuti direttamente da YouTube
grazie agli algoritmi anti-abuso interni.
Fra quelli segnalati dagli utenti, 1,1 milioni portati all’attenzione da un membro
del programma Segnalatore Attendibile di Youtube, il quale comprende individui
agenzie governative e organizzazioni non governative che hanno ricevuto la loro
formazione dai team Trust & Safety e Public Policy della piattaforma.
YouTube rimuove contenuti inappropriati per violenze e spam
Il video viene visonato prima di essere rimosso e poi tenuto come benchmark
delle misure anti-abuso per quelli successivi.
Tuttavia, Dopo l’inizio dell’utilizzo degli algoritmi ad apprendimento automatico nel giungo
del 2017, affermano che la percentuale sia aumentata a più del 50%
in una nota YouTube ha chiarito che questi dati non includono i video che sono stati
segnalati automaticamente prima che potessero essere pubblicati e dunque
senza nessuna visualizzazione
Da ottobre a dicembre, il 75,9% di tutti i video contrassegnati automaticamente
sulla piattaforma sono rimossi prima di ricevere visualizzazioni.
YouTube rimuove contenuti inappropriati per violenze e spam
Nello stesso periodo 9,3 milioni di video segnalati da persone, di cui il 95%
utenti di Youtube e il resto dal programma Segnalatore Attendibile
e da agenzie governative o ONG.
In conclusione, Le persone possono selezionare un motivo quando segnalano un video
e i risultati dicono che la maggior parte e contenuto sessuale (30,1%) e spam (26,4%).