Мартовские решения американских судов против Meta (организация признана экстремистской на территории РФ, и ее деятельность запрещена) и YouTube не победа родителей и не поражение Кремниевой долины. Это приговор бизнес-модели, которая сама создала себе цифровых «зомби» — подобно тому, как капитализм по Карлу Марксу создал пролетариат. Данный прецедент, безусловно, скажется на индустрии социальных сетей и на их основных пользователях — детях. Причем не факт, что это воздействие будет именно таким, как хотелось бы противникам поглощения подрастающего поколения виртуальным миром.
Вердикт рекомендациям
Дисморфофобия, тяжелая депрессия, суицидальные мысли
В конце марта 2026 года в Лос-Анджелесе и Санта-Фе присяжные сделали то, чего техноиндустрия опасалась четверть века. Двадцатилетняя калифорнийка Кейли выиграла суд у Meta и Google. Суть претензий проста: компании сознательно проектировали свои продукты так, чтобы несовершеннолетние не могли оторваться от гаджетов, и не предупреждали о последствиях этого для психики. Суд в Лос-Анджелесе обязал Meta выплатить потерпевшей $4,2 млн, Google — $1,8 млн.
Кейли начала пользоваться YouTube в шесть лет, Instagram (принадлежит компании Meta, компания признана экстремистской организацией на территории РФ, и ее деятельность запрещена) — в девять. По 16 часов в сутки она проводила в приложениях. Итог к 13 годам — дисморфофобия, тяжелая депрессия, суицидальные мысли. Присяжные вслух произнесли то, о чем все давно догадывались: платформы спроектированы так, чтобы вызывать зависимость. Не как побочный эффект, а как основной.
Старший психолог «Виртуальной клиники» «Ингосстраха» Надежда Байцурова проводит параллель: «Вспомним историю с никотиновой зависимостью. Раньше сигареты продавали как безвредные, пока не доказали, что никотин вызывает зависимость, а компании-производители скрывали риски. Теперь то же самое происходит с рекомендательными алгоритмами».
Разница лишь в том, что табачная индустрия никогда не подкладывала свой продукт в карман каждому ребенку.
Чтобы понять, почему мартовские вердикты беспрецедентны, надо вернуться к 1996 году. Американский Конгресс принял решение, ставшее правовым фундаментом всего коммерческого интернета: «Ни один поставщик интерактивных компьютерных услуг не может рассматриваться как издатель информации, предоставленной другим лицом». Статья 230 Акта о приличии в коммуникациях стала юридическим щитом, под которым размножились соцсети, форумы и видеохостинги. Если пользователь публикует что-то вредное, отвечает не платформа — она лишь доска объявлений.
Фотография худосочной модели в Instagram — контент пользователя, защищенный 230-й статьей. Алгоритм, который видит, что 13-летняя девочка задержалась на этой фотографии три секунды, и начинает засыпать ее похожими изображениями до поздней ночи, — это инженерное решение самой компании. Суд согласился: рекомендательный алгоритм — авторский продукт Meta и Google, а не сторонний контент. Статья 230 на него не распространяется.
Три десятилетия индустрия соцсетей строила юридическую неприкосновенность на тезисе «мы нейтральная площадка». Лос-анджелесский суд похоронил этот тезис — в рамках рутинного иска о вреде здоровью.
Как устроена удавка?
Американский психолог из Стэнфорда Би Джей Фогг в начале 2000-х предложил формулу, которую соцсети превратили в операционный мануал: поведение = мотивация × способность × триггер. Мотивация повышается эмоционально заряженным контентом — тревожным, сексуальным, смешным, злым.
Механизмы конкретные: бесконечный скролл и автопроигрывание, не дающие естественной точки остановки; система лайков и уведомлений как поведенческие крючки; персонализированные алгоритмы, усиливающие дофаминовую петлю. Синдром FOMO — страх пропустить что-то важное — культивируется через исчезающие сторис и форматы с таймером. Пользователь заходит «на минуту» и остается, потому что дизайн постоянно создает следующее незавершенное действие.
«„Бесконечный скролл“ — именно инженерное решение, а не удобство, — подтверждает советник директора Института системного программирования РАН Сергей Наквасин. — Аза Раскин, его автор, публично раскаивается в своем изобретении и прямо объясняет цель — убрать точки остановки, естественные паузы, где пользователь мог бы передумать».
Инженер оптимизирует метрику — время в приложении, CTR, retention.
Никто не пишет в коде «создать зависимость». Но когда ты видишь, что метрика растет и одновременно растет количество жалоб на тревожность, и продолжаешь оптимизировать метрику — ты делаешь моральный выбор
Этот выбор, по словам Сергея Наквасина, редко делается одним человеком. «В больших продуктах метрики разнесены по командам: команда блока развития смотрит на удержание пользователей, а команда безопасности — на жалобы на тревожность, и эти сигналы почти не пересекаются в чьей-то одной голове, — убежден Наквасин. — Там, где пересечение все-таки происходит, включается рационализация — „пользователи выбирают сами“, „мы никого не заставляем“, „конкуренты хуже“ — плюс бонусы и карьера, привязанные к росту метрики».

Детский мозг сопротивляться подобной оптимизации не способен. Психофизиолог Уральского государственного медицинского университета Ольга Гилева объясняет: «Алгоритмические механизмы настолько сильны и скрытны, что даже взрослому, сформированному человеку сложно, а чаще невозможно им противостоять. Сам по себе ребенок в силу возраста не может противостоять „алгоритмической игле“ — его обязательно подсадят, ключик найдут к каждому».
Старший научный сотрудник лаборатории психологии детства ФНЦ психологических и междисциплинарных исследований Наталья Руднова поясняет: у лиц с цифровыми зависимостями выявлены нарушение работы префронтальной коры головного мозга и гиперчувствительность дофаминергических областей. «Снижается эффективность передачи сигналов между исполнительными и сенсорными областями. Особенно важно для подростков, поскольку недостаток миелинизации снижает координацию когнитивных процессов», — говорит Руднова.
«Повышенная многозадачность и низкая терпимость к отсроченному дофаминовому вознаграждению связаны с нарушением управляющих процессов и эмоциональной регуляции, особенно у подростков и молодых людей, — добавляет директор Научно-практического центра детской психоневрологии Департамента здравоохранения города Москвы Татьяна Батышева. — У студентов, которым необходимы устойчивое внимание, когнитивная выносливость и способность к рефлексии, цифровая перегрузка может снижать эффективность обучения и вовлеченность в учебный процесс».
Скроллинг, по определению профессора Гилевой, — поведение избегания: «В мозгу есть специальная структура — хабенула, которая запускает механизм, включающий апатию, снижение мотивации, повышение тревожности. Чем больше ребенок занят скроллингом, тем больше сохранится в его мозгу нейронов, занятых избеганием, и меньше тех, которые направлены на достижение успеха».
На выходе мы получим малоинициативного индивидуума, склонного находить объяснение своего бездействия вместо того, чтобы чего-то в этой жизни добиться, утверждает Гилева. Архитектура мозга буквально перестраивается под алгоритм. Обратно этот процесс не идет.
Генеративный ИИ: охотник становится фермером
Американский суд разбирал алгоритмы образца 2020–2023 годов. С тех пор в систему встроили кое-что принципиально иное — и юридические прецеденты еще не поспели за технологией.
Традиционный рекомендательный алгоритм работал с конечным пулом контента, созданного людьми: находил видео, от которого трудно оторваться, и показывал его вновь. Генеративный ИИ способен создавать контент под конкретного пользователя в реальном времени: текст, изображения, видео, персонажей для общения. Разница примерно такая же, как между охотником, который находит добычу в лесу, и фермером, который выращивает ее специально для вас.
Сергей Наквасин называет происходящее потенциально качественным скачком: «До сих пор алгоритм отбирал из конечного пула контента, созданного людьми — теперь он может генерировать ролики, собеседников и аватаров-„друзей“ под конкретного ребенка в неограниченном объеме. Ранние сигналы видны по Character.ai и Replika: подростки проводят там часы в псевдосоциальных отношениях с ботом, который настроен на то, чтобы никогда не скучать и со всем соглашаться. У ребенка привязанность формируется быстрее, а контент подгоняется под индивидуальные уязвимости, которые он сам еще не осознает».
Судебная практика движется в ту же сторону.
В октябре 2025 года OpenAI раскрыла, что около 1,2 млн пользователей ChatGPT еженедельно обсуждают с чат-ботом суицид. Годом раньше в США завершилось мировым соглашением дело о гибели 14-летнего паренька, проведшего последние месяцы жизни в эмоциональной привязанности к боту Character.ai, смоделированному под персонажа «Игры престолов», — первый судебный прецедент против компании, создающей генеративных персонажей для общения с детьми.
Заместитель президента Гильдии российских адвокатов Рубен Маркарьян описывает юридический тупик: «Это проблема, похожая на виновность гоголевской свиньи из повести „Как поссорился Иван Иванович с Иваном Никифоровичем“, когда животное съело официальную бумагу в суде, что являлось уголовным деянием». Разработчика ИИ не привлечешь за вред: он лишь ввел механизм обучения. Сам ИИ не субъект преступления.
Маркарьян видит единственный выход: «Разработчики и владельцы ИИ не смогут сказать „это не я, это он сам“, они вынуждены будут предусматривать законопослушное поведение своего цифрового детеныша или отключать его вовремя от розетки, чтоб чего не натворил».
Мартовские судебные прецеденты применимы к генеративному ИИ по той же логике: если рекомендательный алгоритм — авторский продукт компании, то тем более авторским продуктом оказывается контент, созданный ее нейросетью под конкретного пользователя. Судебная практика пока не вышла на этот уровень, но направление очевидно.

Союз "Сибирский Центр медиации"