随着生成式人工智能技术的突破性进展,会“说话”的AI玩偶层出不穷。但当孩子们兴高采烈地与AI玩具互动时,可能正不知不觉地暴露着自己的隐私信息。更令人担忧的是,许多家长对这些潜在风险毫无察觉。(据央视网报道)
从能讲故事的智能玩偶,到可情感交互的陪伴机器人,AI玩具市场正迎来爆发式增长,曾经只存在于童话和动画中的会“说话”的玩具,正随着生成式AI技术的突破而走进现实。然而,在孩子们与这些“智能伙伴”亲密互动的同时,他们的声音、图像、行为、家庭信息等隐私数据,可能正被悄无声息地采集、上传,甚至遭到非法盗用、滥用。
当前的AI玩具不再是简单的电子发声装置,而是集成了高敏麦克风、广角摄像头、毫米波雷达等传感器的高科技产品,能感知儿童的呼吸频率、记录对话内容,甚至分析情绪变化,并可通过与儿童的对话、交流,采集各种敏感信息。许多AI玩具在用户协议中默认勾选“同意数据用于商业研究”,甚至要求开放家庭Wi-Fi权限,亦使家庭网络暴露于潜在风险之中。
目前,AI玩具主要为儿童提供陪伴功能,但是儿童年龄幼小,缺乏足够的认知能力去辨别哪些信息会被收集,更无法理解复杂的隐私协议。而且,部分厂商在数据存储和传输环节缺乏严格的安全措施,一旦遭遇黑客攻击或内部泄露,儿童的敏感信息可能被用于精准广告投放,甚至更为恶劣的用途。
面对这一新兴领域的隐私风险,仅靠家长的个人警惕远远不够,亟须未雨绸缪,从立法、行业标准和技术设计等层面构建系统性的防护机制,筑起一道严密的隐私防火墙。
从监管层面来看,应尽快完善相关法律法规,明确AI玩具在数据收集、存储、使用、传输等各个环节的规范,应坚持最小化原则,非必要不开放权限、不采集敏感信息,并规定相关数据的存储期限和销毁机制。
行业需建立统一的安全标准。当前,市场上AI玩具质量参差不齐,部分产品甚至只是套壳版智能音箱,缺乏基本的数据加密措施。行业协会可牵头制定技术规范,要求厂商采用端到端加密、本地化数据处理等技术,并设立独立的数据安全审计机制。
在产品设计方面,应赋予家长可控权,厂商可参考手机APP的未成年人模式,在AI玩具中嵌入家长控制模式,允许监护人设定儿童使用权限,自主选择数据采集范围、实时监控数据流向,并在异常访问时触发预警,提醒注意安全防范。
https://www.ccn.com.cn/Content/2025/06-13/1737477364.html
版权及免责声明:
1、凡本网来源注明“新华生活”(XINHUALIFE.COM)的所有文章和图片作品,版权均属于新华生活(XINHUALIFE.COM),未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品。已经本网授权使用新闻稿件和图片作品的,应在授权范围内使用,并注明“来源:新华生活(XINHUALIFE.COM)”。违反上述声明者,本网将追究其相关法律责任。
2、凡本网注明 “来源:XXX(非新华生活XINHUALIFE.COM)”的文章和图片作品,系我方转载自其它网站,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因稿件和图片作品的内容、版权和其它问题需要同本网联系的,请在15个工作日内告知我方。
4、联系方式:新华生活(XINHUALIFE.COM) 电话:400-8059-268 电子邮件:450952431@qq.com
版权及免责声明:本网所转载信息,不代表新华生活(XINHUALIFE.COM)的观点,凡本网注明“来源:新华生活”的所有作品,均为新华生活网站合法拥有版权或有权使用的作品。未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接新华生活网站内容,违反上述声明者,我们将依法追究其相关法律责任。