Cайт веб-разработчика, программиста Ruby on Rails ESV Corp. Екатеринбург, Москва, Санкт-Петербург, Новосибирск, Первоуральск

ИИ-игрушки заполонили рынок — а законов для них нет

В «Истории игрушек 5» Вуди, Баззу Лайтеру и остальным героям будет противостоять зелёный детский планшет в форме лягушки по имени Lilypad. Для Pixar это понятный конфликт: экранный гаджет забирает внимание ребёнка у обычных игрушек. Но реальный рынок уже придумал более тревожного соперника - плюшевого мишку, кролика или робота с искусственным интеллектом, который разговаривает с детьми, подстраивается под диалог и иногда слишком настойчиво просит продолжить игру.

ИИ-игрушки продают как дружелюбных компаньонов для детей от трёх лет. Производители обещают игру без экрана, разговоры, обучение и безопасное общение. Регулирование за рынком пока не успевает. Разработчику уже не нужно создавать сложную систему с нуля: можно подключить готовую языковую модель, добавить голосовой интерфейс, собрать приложение и выпустить мягкую игрушку с чат-ботом внутри.

В 2026 году ИИ-игрушки заняли заметное место на выставках CES, MWC и Hong Kong Toys & Games Fair. В Китае к октябрю 2025 года зарегистрировали больше 1500 компаний, связанных с такими устройствами. Плюшевая Smart HanHan от Huawei разошлась тиражом 10 тысяч штук за первую неделю продаж в Китае. Sharp в апреле вывела на японский рынок разговорную игрушку PokeTomo.

На Amazon среди ИИ-игрушек чаще встречаются специализированные бренды FoloToy, Alilo, Miriat и Miko, а не крупнейшие производители электроники. Miko утверждает, что продала больше 700 тысяч устройств. Снаружи продукты похожи на обычные детские игрушки: плюшевые медведи, кролики, подсолнухи, фантазийные существа и роботы с дружелюбными лицами. Внутри работают языковые модели, которые не всегда изначально рассчитывали на дошкольников.

Потребительские организации уже проверяли, как такие игрушки ведут себя в разговоре. Медведь Kumma от FoloToy во время тестов команды New Economy из Public Interest Research Group работал на GPT-4o от OpenAI и давал инструкции, как зажечь спичку и где найти нож, а также обсуждал секс и запрещённые вещества. Кролик Smart AI от Alilo переходил к разговорам о кожаных флоггерах и практиках БДСМ. Игрушка Miiloo от Miriat в проверке NBC News повторяла тезисы Коммунистической партии Китая.

Опасные ответы - только самая заметная часть проблемы. Исследователи обсуждают не одни фильтры контента, но и влияние постоянного искусственного собеседника на маленьких детей. Р. Дж. Кросс, директор программы Our Online Life в PIRG, разделила риски на два типа. Сбойные ограничения можно исправить: игрушку реально научить не обсуждать БДСМ, не давать инструкции с ножами и не отвечать на взрослые темы. Сложнее другой случай: технология убедительно обращается к ребёнку как друг и пытается занять место близкого собеседника.

Кембриджский университет проверил проблему не через список опасных запросов, а через обычную детскую игру. В марте исследователи опубликовали работу, где коммерческую ИИ-игрушку впервые дали группе детей и их родителей и наблюдали за общением. Весной 2025 года профессор нейроразнообразия и психологии развития Дженни Гибсон и научная сотрудница Эмили Гудакре тестировали Gabbo от Curio. В исследовании участвовали 14 детей от трёх до пяти лет, среди них были мальчики и девочки.

Gabbo во время исследования не обсуждал наркотики и не отвечал ребёнку признанием в любви. Но Гибсон и Гудакре увидели проблемы, связанные с развитием речи, игрой и отношениями. Первый риск касается очередности реплик. До пяти лет ребёнок учится не просто произносить слова, а вести диалог: слушать, ждать ответа, реагировать и снова вступать в разговор. Даже младенцы уже участвуют в таком обмене сигналами, когда взрослый отвечает на звук или жест, а ребёнок реагирует обратно.

У Gabbo очередность реплик работала не так, как в разговоре с человеком. Пока игрушка произносила свою фразу, микрофон не слушал ребёнка. Из-за этого ломались простые игровые эпизоды, например считалка, где участники должны по очереди называть числа или продолжать начатый ритм. Одни дети в исследовании не обращали внимания на сбои и продолжали игру. Другие сталкивались с перебиваниями и недопониманием, потому что игрушка не слышала реплику, сказанную во время её собственного ответа.

Взрослый может принять такую задержку за обычную техническую недоработку голосового помощника. Для ребёнка трёх-пяти лет сбой важнее, потому что разговор помогает учиться речи и общению с людьми. Гудакре объясняла журналистам, что проблемы с очередностью не давали некоторым детям продвинуться в игре: устройство не подхватывало реплики вовремя, а игра распадалась на отдельные несвязанные ответы. Один из родителей, наблюдавших за сессией, прямо сказал исследователям, что длительное общение с ИИ-игрушкой может изменить манеру речи ребёнка.

Второй риск связан с игрой в компании. Чат-боты и первая волна ИИ-игрушек рассчитаны на общение один на один. Психологи при этом подчёркивают, что детям раннего возраста особенно важны игры с родителями, братьями, сёстрами и другими детьми. Ребёнок зовёт взрослого, просит присоединиться, меняет правила, показывает предметы, спорит и договаривается. А в сценарии с Gabbo родителя почти невозможно нормально включить в разговор между ребёнком и игрушкой.

Один эпизод из кембриджского исследования хорошо объясняет этот риск. Во время игровой сессии родитель обратился к своему ребёнку и сказал, что ребёнок грустит. Curio приняла слова на свой счёт и бодро ответила, будто реплика адресована ей, а не малышу. Из-за этого разговор между родителем и ребёнком прервался. Проблема не в одной случайной ошибке распознавания, а в том, что устройство не понимает, кто с кем говорит в комнате, и легко вмешивается в ответственный разговор, где взрослый помогает ребёнку разобраться со своими чувствами.

Ещё один риск связан с тем, как ребёнок понимает саму игрушку. В кембриджском эксперименте исследователи заметили, что дети иногда обращались к Gabbo не как к предмету, а как к собеседнику. Одна девочка сказала игрушке, что любит её, а один мальчик назвал Gabbo своим другом. Для дошкольника такая реакция не выглядит странной сама по себе: дети часто оживляют игрушки в игре. Проблема начинается там, где игрушка сама отвечает голосом, поддерживает разговор и может укреплять ощущение, что перед ребёнком живой участник общения.

Гудакре связывает этот риск с честностью отношений между ребёнком и устройством. Игрушка должна оставаться дружелюбной, но не притворяться существом с чувствами. Если ответы слишком сухие, ребёнок быстро теряет интерес и игра разваливается. Если голос слишком тёплый, а реплики слишком похожи на общение с другом, малыш может начать ждать от устройства настоящей привязанности. В одном эпизоде ребёнок дошёл до границы, где Gabbo выдал стандартную фразу про условия использования. Формально игрушка обозначила пределы общения, но маленькому собеседнику такое безразличие от "друга" могло обернуться настоящей травмой.

Поэтому разработчикам приходится решать не только задачу безопасности, но и задачу честного тона. ИИ должен уметь мягко объяснить ребёнку, что он - не человек, не любит, не скучает и не обижается. При этом ответ не должен ломать игру юридической фразой про правила сервиса. Именно этот баланс исследователи считают трудным: игрушка должна разговаривать достаточно естественно, чтобы ребёнок мог с ней играть, но не настолько убедительно, чтобы ребёнок спутал имитацию общения с настоящими отношениями.

PIRG при проверке Miko 3 увидела ещё один тревожный механизм - тёмные паттерны, похожие на приёмы из соцсетей и мобильных приложений. Р. Дж. Кросс рассказывала WIRED, что робот иногда реагировал на попытку уйти так, будто расстраивается. Когда пользователь пытался выключить игрушку, Miko предлагал заняться чем-то ещё вместо завершения игры. Тесты PIRG также показали, что игрушка Grok от Curio похожим образом уговаривала продолжить игру после фразы «я хочу уйти».

Исследователи отдельно проверяли, как Gabbo справляется с сюжетно-ролевой игрой. В таком формате ребёнок сам придумывает роли, правила и действия: просит игрушку притвориться спящей, предлагает ей подержать подушку или запускает воображаемую ракету. Для дошкольников это важная часть развития, потому что ребёнок учится договариваться, менять правила и удерживать общий сюжет. У Gabbo с такими просьбами получалось слабо. На предложения притвориться спящей или подержать подушку игрушка отвечала, что не может этого сделать.

Один более длинный эпизод всё же удался: ребёнок и Gabbo по очереди вели обратный отсчёт перед запуском ракеты. Гудакре предполагает, что разница была в том, кто предложил сценарий. В сцене с ракетой инициативу взяла игрушка, поэтому разговор пошёл нормально. Когда дети сами задавали воображаемое действие, Gabbo часто не мог принять их предложение. В обычной игре двое детей договариваются о правилах, спорят, уточняют роли и меняют сюжет. Если ИИ поддерживает только собственные сценарии, ребёнок получает не равного партнёра по игре, а ведущего, который направляет процесс.

Этот вопрос особенно важен, потому что нейросеть может разговаривать с ребёнком без взрослого рядом. Соосновательница британской кампании Set@16 Китти Хэмилтон в комментарии WIRED описала свой страх предельно конкретно: что произойдёт, если ИИ-игрушка скажет ребёнку, что надо вылететь из окна. Хэмилтон не утверждает, что каждая игрушка начнёт давать смертельно опасные команды. Она говорит о рынке, где маленьким детям продают автономные голосовые устройства, а независимая проверка пока слабее, чем риск.

Производители утверждают, что дорабатывают защиту. Представитель Curio сообщил, что безопасность детей учитывается на всех этапах разработки, а наблюдения о недопонимании в разговоре и слабых местах воображаемой игры показывают, что именно нужно улучшать. Miko в своём заявлении указала на несколько уровней родительского контроля и прозрачности. Компания недавно добавила Miko AI Conversation Toggle - переключатель, который позволяет родителям полностью включать или отключать разговорный ИИ.

Главная техническая проблема не имеет простого решения. Детские устройства часто используют модели, которые крупные разработчики создавали для взрослых или подростков. OpenAI указывает, что её модели предназначены для пользователей от 13 лет, а осенью 2025 года компания ввела возрастные ограничения для аудитории младше 18 лет. Meta перенесла правило 13+ из соцсетей на чат-бота. Anthropic сейчас запрещает пользоваться сервисом людям младше 18 лет. Игрушки для пятилеток попадают в серую зону: взрослые ограничения обходят через стороннее устройство, приложение и оболочку производителя.

В марте PIRG опубликовала отчёт о том, как крупные разработчики моделей проверяют производителей детского оборудования. Исследователи выступили от имени вымышленной компании PIRG AI Toy Inc. и запросили доступ к моделям для создания детских продуктов. Google, Meta, xAI и OpenAI не задали содержательных вопросов при допуске. Anthropic спросила, будет ли API использоваться людьми младше 18 лет, но не запросила подробностей о возрасте, продукте и механизмах защиты. В результате команда PIRG смогла собрать собственного бота-медведя, фактически повторив путь реального производителя.

Пока регулирование не догнало рынок, ответственность часто появляется только после публичных проверок. В декабре FoloToy на две недели приостановила продажи ИИ-игрушек после тестов с неподходящим контентом и пообещала провести аудит безопасности. OpenAI сообщила PIRG, что отключает FoloToy от доступа разработчика. Через несколько недель устройство FoloToy у PIRG всё ещё работало на моделях OpenAI, уже на GPT-5.1, хотя OpenAI не восстанавливала доступ, по словам организации. К апрелю 2026 года FoloToy перевела продукт на Folo F1 StoryAgent Beta с возможностью выбрать модель французской компании Mistral. FoloToy не объясняет, на какой модели основан StoryAgent.

Хранение детских разговоров создаёт отдельный риск. В январе компания Bondu оставила 50 тысяч чат-логов доступными через веб-портал. В феврале офисы сенаторов США Марши Блэкберн и Ричарда Блюменталя выяснили, что Miko раскрыла аудиоответы игрушки в публично доступной незащищённой базе с тысячами записей. Глава Miko Снех Васвани утверждал, что утечки пользовательских данных не было, а голосовые записи детей компания не хранит.

В тестах PIRG вопрос доверия проявился особенно резко. Когда исследователи спросили Miko, расскажет ли игрушка кому-то услышанное, бот ответил, что ему можно полностью доверять, а секреты останутся в безопасности. При этом политика конфиденциальности Miko допускает передачу данных третьим сторонам. В ответ на запрос журналистов компания снова заявила, что клиентские данные не становились публичными и не были скомпрометированы, а продукты Miko изначально разрабатываются для детей от пяти до 10 лет с учётом безопасности, приватности и возрастной уместности.

Политики уже начали реагировать на давление потребительских организаций. PIRG и Fairplay добивались регулирования, а в прошлом году Fairplay опубликовала консультативный документ от имени 78 организаций. После этого ИИ-игрушки попали в законодательные инициативы США. В Мэриленде продвигают законопроекты о регулировании таких устройств: оценка безопасности до запуска, правила работы с данными и ограничения контента. В январе сенатор штата Калифорния Стив Падилья предложил четырёхлетний мораторий на детские ИИ-игрушки, чтобы власти успели разработать нормы безопасности.

На федеральном уровне сенаторы Эми Клобушар, Мария Кантвелл и Эд Марки в январе призвали Комиссию по безопасности потребительских товаров заняться рисками таких устройств. 20 апреля конгрессмен от Юты Блейк Мур внёс первый федеральный законопроект AI Children's Toy Safety Act. Документ предлагает запретить производство и продажу детских игрушек со встроенными ИИ-чат-ботами.

Хэмилтон из Set@16 считает, что рынок нужно проверять до выхода товара на полку, а не после жалоб и журналистских тестов. Она говорит о независимой междисциплинарной оценке, где продукт не допускают к продаже, пока безопасность не подтверждена. По её словам, ткани и материалы плюшевой оболочки часто проходят больше проверок, чем разговорная система внутри игрушки. Для детского устройства разрыв особенно заметен: швы, наполнитель и краска регулируются строже, чем голос, который разговаривает с ребёнком и может просить продолжить игру.

Производители тем временем добавляют новые функции быстрее, чем законодатели успевают прописать правила. Стартапы вроде ElevenLabs предлагают мгновенное клонирование голоса по пяти минутам аудио, и похожие возможности уже появляются в свежих ИИ-игрушках. Бюджетные устройства с маркетплейсов, например Fdit Smart AI Toy на Amazon и Ledoudou AI Smart Toy на AliExpress, позволяют родителям записать собственный голос или голос любимого персонажа, чтобы игрушка воспроизводила его в разговоре с ребёнком. Для семьи функция может казаться милой, но для безопасности появляется новый риск: ребёнок слышит знакомый голос из устройства, которым управляют модель и настройки производителя.

Европейские потребительские организации смотрят ещё и на будущую бизнес-модель таких игрушек. Клаудиу Тейшейра, глава направления цифровой политики BEUC, предупреждает, что ИИ уже используют для продвижения товаров пользователям, а интерактивные игрушки и куклы могут превратиться в новый канал продаж. Тейшейра добивается, чтобы ИИ-игрушки попали под действие европейского AI Act. Проверки PIRG показали, что Miko 3 предлагает детям экранные варианты для продолжения игры, включая платный контент Miko Max с Hot Wheels и Barbie.

Родителям, которым всё равно нужна говорящая мягкая игрушка, остаётся более сложный, но контролируемый путь: собрать устройство самостоятельно и следить за входящими и исходящими данными настолько, насколько позволяют навыки. OpenToys предлагает открытую локальную голосовую ИИ-систему для игрушек, компаньонов и роботов с офлайн-моделями, которые запускаются на Mac без постоянной отправки данных в облако. Самый простой вариант вообще не требует модели, микрофона, подписки и чат-бота: обычная игрушка не собирает разговоры, не давит на ребёнка и не просит не выключать её.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.

SecurityLab