В течение трех месяцев (с апреля по июнь 2020-го) YouTube удалил 11,4 млн роликов, содержащих вредоносный контент. Об этом компания сообщила в своем блоге.
Большинство роликов были удалены, так как содержали опасный для детей контент. Доля таких видео составила 33,5% от общего количества. 28,3% видео были помечены как «спам» или «вводящие в заблуждение», 14,6% содержали изображения обнаженных людей, 10,6% демонстрировали чрезмерную жестокость и 8,1% удалили за призывы к насилию.
Также известно, что из 11,4 млн удаленных видеороликов 42% не успели набрать ни одного просмотра, 33,7% посмотрели менее 10-ти раз, а 24,3% — более 10-ти раз.
Какие ролики удалять, а какие оставить, решал искусственный интеллект. Он удалил 10,9 млн видео, которые не прошли модерацию. В компании пояснили, что из-за вынужденных сокращений ресурсов и рабочих мест, топ-менеджменту пришлось выбирать между потенциально недостаточными и потенциально избыточными мерами модерации. В итоге выбрали второе, считая ответственность за содержание контента своим приоритетом.
Мирант Киев по материалам: /telekritika.ua/youtub...
|