Это только кажется, что в социальных сетях можно размещать что угодно. На деле же существует список нежелательного и запрещенного контента, а посты соответствующего содержания удаляются достаточно оперативно. Причем для этого даже не нужен человек-оператор: в том же Facebook функция распознавания и удаления нежелательного контента возложена на автоматическую систему. Однако, хоть системы с ИИ и обучаются на огромных массивах информации, проколы периодически допускают даже они.
Так и произошло со стрельбой в мечетях Крайтчерча, прямую трансляцию которой преступник вел 15 марта. Трансляция не только не была прервана, более того - видеозапись была удалена с большим запозданием. Руководство Facebook пояснило причину, по которой и произошел этот прокол. Дело в том, что хоть искусственный интеллект и обучают на реальной информации, но видео со стрельбой в ней практически не встречается. Подобный контент в социальные сети просто не попадает.
В результате ИИ просто не воспринял обработанную информацию в качестве реального события - она была расценена как очередной стрим компьютерной игры. В результате достаточно поздней блокировки пользователи успели скопировать видео, так что позднее Facebook пришлось удалить свыше полутора миллионов постов с кадрами новозеландского расстрела. Возможно этот инцидент заставит разработчиков доработать алгоритм распознавания недопустимого контента, а ИИ начнут обучать не только на примерах того, что и так разрешено в соцсетях.