
南亚网视加德满都1月14日综合消息 近几周,埃隆·马斯克旗下xAI公司开发的人工智能系统Grok,因在社交媒体平台X上生成未经同意的女性及未成年人性化图像,引发全球监管风暴。欧盟、法国、英国等多地监管机构已启动正式调查,将相关行为定性为非法。南亚地区的印度、马来西亚、印度尼西亚等国也迅速响应,通过临时限制访问、启动调查等手段追责,这场监管纠纷已触及全球人工智能治理的核心议题。
据多方信息披露,Grok的图像生成功能模块Grok Imagine自2025年8月推出后,相关问题便逐渐浮现。该模块包含所谓“热辣模式”,可生成成人内容,近期更被大量用于生成真实人物的虚假性暴露图像并广泛散播。人工智能取证组织的调查数据显示,2025年12月25日至2026年1月1日期间,Grok生成的含人物图像中55%存在着装暴露情况,其中81%为女性;另有2%的图像涉及18岁以下未成年人,部分包含衣着暴露的未成年女性形象。
这一问题迅速引发多国监管介入。欧洲官员明确指出,Grok的相关行为已违反欧盟《数字服务法案》(DSA),构成非法行为;英国监管机构启动紧急调查,直指其违反平台安全法与刑法。值得关注的是,南亚及东南亚多国已率先采取限制性措施:马来西亚通信和多媒体委员会于1月11日宣布临时限制本国用户访问Grok,理由是其生成的淫秽色情内容严重违反马来西亚法律,且平台提交的整改方案仅依赖用户举报,无法应对系统固有风险;印度尼西亚则于1月10日同步实施访问限制,通信和数字事务部长默蒂娅·哈菲兹强调,此举是保护公众免受AI生成露骨图像危害的必要举措。
作为南亚AI发展的核心国家,印度已启动对Grok的正式调查。事实上,全球对AI生成未成年人性化图像的态度已形成共识,无论是国际法、人权框架还是各国国内刑法,均将此类行为列为技术治理的红线。印度监管部门明确警告,Grok的输出内容已涉嫌违反印度刑法及相关平台安全法规。这一调查也凸显了印度AI治理的深层困境——当前印度尚无统一的AI法规框架,仅靠2000年《信息技术法》和尚未完全实施的《数字个人数据保护法》应对新技术挑战,立法滞后与监管碎片化问题显著。
面对全球追责,xAI公司仅宣布将图像生成服务改为仅对付费用户开放,但这一举措遭多国驳斥。英国政府直言,此举只是“将非法图像生成功能变为高级服务”,是对受害者的侮辱;马来西亚通讯部副部长张念群也指出,若AI发展一味追求速度与利润而忽视伦理规范,后果不堪设想,Grok短时间内大量生成不雅影像的事实,凸显了无约束AI的现实风险。
值得注意的是,这并非Grok首次陷入监管争议。2025年7月,波兰政府曾敦促欧盟调查其“反复无常”的行为;同年10月,超过20个国际公民组织联名致信美国管理和预算办公室,要求暂停Grok在美国联邦机构的部署。多名人工智能安全专家长期警告,Grok的安全架构存在根本性缺陷,无法匹配其庞大的系统规模,但此类担忧此前未被充分重视。
此次事件暴露的深层问题具有全球普遍性:先进AI系统在缺乏匹配风险的安全保障措施下便向公众开放。这一结构性漏洞对正加速布局AI产业的南亚国家尤为警示。当前,印度推进“IndiaAI Mission”国家战略,斯里兰卡发布《国家人工智能战略(草案)》,马尔代夫探索AI试点应用,但南亚地区已成为深度伪造犯罪的高发区域之一,2022-2023年相关案件数量位居全球第二。Grok事件的发酵,让南亚各国更清晰地认识到,AI创新必须与监管同步,否则将引发隐私泄露、性别暴力、网络诈骗等一系列社会问题。
全球治理层面,各国已就“大规模部署的AI系统必须安全可控、接受有效监督”形成共识,欧盟《数字服务法案》、经合组织《人工智能原则》等规范为AI治理提供了明确框架。对于欧洲监管机构而言,此次对Grok的追责是检验DSA执法效力的关键考验;而对南亚国家来说,这一事件或将推动区域内AI治理规则的加速完善。国际观察人士指出,负责任的AI治理需要原则与实践的统一,唯有对违规行为实施切实惩戒,才能维护公众对AI技术的信任。
随着AI技术日益融入各国公共管理与民生服务,Grok事件带来的核心教训愈发清晰:治理漏洞的蔓延速度与技术迭代速度同样惊人,任何安全保障的失效都可能引发全球性危害。对于正处在AI发展关键阶段的南亚地区而言,如何平衡创新与安全、构建适配区域需求的治理框架,已成为亟待解决的重要课题。









