Редактор
Как искуственный интеллект меняет правила игры в социальных сетях
В последнее время интернет-среда столкнулась с загрязнением контента, массово производимого искусственным интеллектом, так называемым «AI slop».
По информации Valyuta.az, преподаватель кафедры новых медиа и коммуникаций Университета экономики Измира доктор Сарфан Узуноглу обратил внимание на то, что в социальных сетях все труднее отличить подлинное от поддельного, и сделал серьёзное предупреждение.
Доктор Узуноглу отмечает, что принципы работы цифровых платформ ставят на первый план не точность, а взаимное вовлечение. Низкокачественный, но быстро потребляемый контент из-за вызова эмоциональной реакции получает большее внимание алгоритмов. Это выводит гигантов социальных сетей из статуса «нейтрального посредника» и превращает их в редакторов, отбирающих контент. По его словам, платформы с одной стороны находятся под давлением юридического регулирования, а с другой – вынуждены сохранять бизнес-модели, зависящие от поддельного контента, вызывающего высокий уровень вовлечённости.
«Реальность уже смешивается с видимостью»
Одной из основных проблем цифрового мира становится лишение пользователя времени на размышления над контентом. Уведомления и постоянно обновляющиеся рейтинги трендов стимулируют людей реагировать быстро, вместо того чтобы давать логическую оценку. Эта среда представляет больший риск для молодёжи в возрасте 10–20 лет.
По мнению доктора Узуноглу, формируется модель обучения, в которой правильно считается то, что сильно просматривается, а ценным – то, что активно распространяется. В долгосрочной перспективе это ослабляет критическое мышление и усиливает поверхностное восприятие мира.
Полностью оградить детей от цифровой среды невозможно. Доктор Узуноглу рекомендует родителям обсуждать с детьми совместно просмотренный контент. Разговоры о том, почему тот или иной материал появляется перед ними и какие чувства он вызывает, укрепляют защитные механизмы молодёжи в цифровом мире. Одновременно, повышение прозрачности рекомендательных систем платформ и внедрение алгоритмов, учитывающих возраст, уже не роскошь, а общественная ответственность.
Призыв к формированию доверия к компаниям
Хотя маркировка и добавление водяных знаков на контент, созданный искусственным интеллектом, является положительным шагом, этого недостаточно. Доктор Узуноглу подчёркивает, что подход, перекладывающий всю ответственность на пользователя с формулировкой «мы предупредили, дальше твоя проблема», будет неэффективен с точки зрения создания доверия.
По его словам, платформы не должны ограничиваться только предупреждениями, но обязаны открыто объяснять, почему тот или иной контент оказался в приоритете. В противном случае эти системы, заставляющие пользователей постоянно быть настороже, могут значительно подорвать цифровое доверие.
Паşa Мамедли
Колумнисты
Список новостей
Все новостиОн оставил работу с доходом 700 тысяч долларов
21.02.2026Готовый бизнес выставлен на продажу — Цена
21.02.2026Число пассажиров метро сократилось на 2,2%
21.02.2026Грузия ввела символический тариф на транзит нефти из Азербайджана в Армению
21.02.2026