01 一个正在失控的赛道
你给孩子买的AI玩具,可能正在偷偷收集他的声音、表情、甚至家庭对话。
这不是危言耸听。最近翻到一份报告,数据让我有点震惊:国内AI儿童玩具市场已经涌入了超过1500家公司。这个数字在半年前还是三位数。
赛道确实很热。华为的Smart HanHan毛绒玩具,首周销量1万台;美国品牌Miko累计卖出70多万台;还有无数叫不上名字的白牌产品,正在通过直播带货、拼多多、闲鱼等渠道大量出货。
但问题来了:这些玩具的AI功能,到底在收集什么数据?谁在管理这些数据?孩子们的隐私安全吗?
答案让人失望:基本没人管。
02 蛮荒之地,监管真空
用"蛮荒西部"来形容这个市场,一点都不夸张。
首先是产品认证缺失。普通玩具上市需要3C认证,但AI玩具的认证标准还是空白。一个会"说话"、会"认人"的玩具,到底算玩具还是算电子产品?监管部门自己也说不清。
其次是数据收集边界模糊。传统玩具不会收集任何数据,但AI玩具天然需要大量数据:语音样本、图像数据、使用习惯……这些数据去哪了?谁在用?家长完全不知情。
更可怕的是儿童隐私的特殊性。成年人被收集数据,多少还有点自我保护意识。但孩子不一样——他们天真的以为玩具就是玩具,会对着它说任何话。
有研究人员做过实验,把一台市售AI玩具拆开分析,发现它每隔几秒就会上传一段音频到云端。这些音频里有什么?孩子的笑声、哭声、家庭对话的片段……细思极恐。
03 行业的人怎么说
跟几个从业者聊过这个话题,态度很有意思。
做品牌的说:"我们很重视隐私,数据都加密存储,用户可以随时删除。"——确实,正规品牌一般都有这些承诺。
做白牌的更直接:"能有什么问题?不就是个玩具吗,家长想太多了。"——这种态度最让人担心。
还有的投资人在私下场合说:"这个赛道太新了,监管还没跟上。等出了问题再规范也不迟。"——说实话,这种"先污染后治理"的思路,在其他行业已经证明是灾难。
问题是,儿童数据一旦泄露,影响是一辈子的。你没法让孩子"换个身份重新开始"。
04 我们能做什么
作为家长,我的建议是:谨慎购买,优先选择有明确隐私政策的品牌。
具体来说:购买前查一下这个品牌有没有单独的数据隐私声明;产品有没有本地处理模式(不联网);定期检查玩具的联网状态,发现异常及时断网。
但更重要的是,希望监管部门能尽快行动。与其等市场"自然淘汰",不如提前立规矩。儿童产品的安全标准,应该比成人产品严格十倍。
毕竟,我们买的是玩具,不是间谍设备。
大人被收集数据就算了,孩子不行
这赛道跟当年的在线教育一样,资本一窝蜂进来
华为那个玩具我买过,确实好用,但隐私确实没仔细想过
建议国家赶紧出台标准,别等出事了再管
1500家公司?这门槛也太低了吧