最抢眼
最话题
最新鲜
mk-logo
S.A.F.E. Internet
当AI人工智能使用你来生成内容
Dec 16, 2025 2:58 PM
更新: 7:00 AM

你通过一款语言应用程序,发送了一段简短的语音。一周后,一则线上广告弹出。广告中的声音听起来和你无比相似。不仅语调相似,就连语句的抑扬顿挫也一样。但你其实却从未同意让自己的声音出现在广告里。

以上并不是科幻故事的情节,而是已经发生的事实。从语音信息和自拍,到与聊天机器人的随意对话,其实人工智能应用都正在不断向我们学习。某些情况下,它们会使用这些数据生成新的内容,所呈现的脸孔或声音,看起来、听起来都和你非常相像。

在马来西亚快速接纳数码科技便利的过程中,我们可能付出了超出自己意识到的代价。或许现在是时候问一句:“我们是否在对人工智能过度分享?”

人工智能如何向你学习——且往往未曾征求你的同意

人工智能无处不在。无论你是在与银行的虚拟助理聊天机器人对话、浏览Shopee的推荐商品,或是玩转TikTok的滤镜,其实某种形态的人工智能都正在程序的后台运行,同时观察、学习并适应你。

“很多人没有意识到人工智能其实并不是什么新事物,”马来西亚理科大学网络安全研究中心主任Selvakumar Manickam教授说。“它多年来一直是自动化、诊断和金融系统的一部分。如今不同的是生成式人工智能技术的兴起——这些工具会根据训练数据生成新的内容,而这些数据往往就包括了你提供的数据在内。”

一个使用人工智能来驱动其虚拟助理聊天机器人的银行的例子。

他解释,像ChatGPT这样的系统并非真正人类意义上的“聪明”。“它们并不理解;它们是在预测,”他说。“这些模型是用来自整个互联网的大量数据训练出来的,其中有些资讯是事实,有些不是。人们以为得到的回应肯定是正确的,但其实往往只是听起来合理的模式组合。”

在马来西亚,互联网普及率高、数码化习惯根深蒂固,人工智能已经很自然地融入日常生活。但很少有人停下来思考:“我刚才提供给这个应用程序的数据会发生什么事?”

我们是否正在对人工智能应用程序过度分享?

如今许多人工智能工具被设计得感觉上像是客制化的、友善的、甚至是关怀人心的。这正是问题所在。

我们像与朋友一样与机器人聊天、上传自拍试用滤镜、毫无疑心地录制语音。我们通常从未仔细阅读条款与条件。

马来西亚理科大学网络安全研究中心主任Selvakumar Manickam教授

“马来西亚人,尤其是年轻用户,是原生网络使用者,”Selvakumar说。“他们的线上和线下生活深度交织。分享个人想法、自拍或语音感觉上再自然不过。这是社会认同、潮流文化和便利的一部分。”

他提到一份2024年的报告指出,马来西亚人平均每天上网超过八小时,位居全球前列。“有句话说,‘一旦上传到网络,它就永远存在。’尤其是当你的数据被用来训练人工智能模型时,这点更是真实。”

这种使用起来的轻松感正是许多人工智能应用所依赖的——它们以即时、可见的奖励,交换不甚明显的东西:你的个人资料。

当你的数据变成别人的内容

如今的人工智能工具可以复制声音、模仿脸孔,甚至以你的语气生成讯息;它们只需要只少量样本即可办到。

在马来西亚,诈骗者已开始使用人工智能生成真实人物声音和脸孔的深伪影像(deepfake)。雪兰莪曾发生一起案例,一名女子在接到一个听起来与上司极为相似的电话后,损失了RM5,000。声音是利用人工智能生成的——可能来自公开资料或录音的复刻版。

当局也警告现已出现以国家领袖面孔,包括以首相安华与最高元首在内制作而成的深伪视频,用于推销虚假的投资计划。

这些案例凸显了脸部与声音数据被滥用的风险,以及当个人数据被轻易取得时,人工智能会迅速模糊了真实与伪造的界线。

“人们以为点击‘接受’只是同意了基本功能,”Selvakumar说。“但这些协议往往隐藏模糊条款,如‘用于服务改进’。那可能意味着任何事,包括训练未来的人工智能系统。”

他补充:“现实中根本不存在真正免费的应用。如果你不需要付费,你可能就是用你的个人数据做交换。”

伦理盲点:谁在划界?

马来西亚《个人资料保护法》(PDPA)提供了一些基本保障,但事实上仍不足够。条例并不涵盖面部识别、声音复制或跨境数据训练。而许多热门应用甚至没在本地设立总部。

Selvakumar直言:“目前的做法——将‘同意’隐藏在冗长、难以阅读的条款里是不道德的做法。真正的同意必须是清楚、具体且可被自由选择的。”

他呼吁推动超越合规层面的人工智能实践:

  • 明确地选择加入逐项数据

  • 可解释人工智能(XAI),让用户理解决策过程

  • 数据最小化原则,意即应用程序只收集必要的数据

  • 被遗忘权,让用户能够删除自己的数据

  • 第三方审核,以验证隐私与安全标准

“唯有透明、问责与真正的选择,才能建立公众对人工智能的信任,”他说。

逝去艺人、人工智能复制与文化不安

还有一个更令人不安的问题:使用人工智能“复活”已故艺术家的声音。

以Elvis Presley、Michael Jackson,甚至已故的P. Ramlee等歌手的声音制作的人工智能歌曲,已在网上流传。有些人视之为致敬;有些人认为这是一种不尊重。

“使用人工智能创作已故艺术家声音的歌曲,是一个复杂而具争议的趋势,”Selvakumar 说。“虽然技术令人赞叹,但伦理道德层面上其实说不清。这些艺术家已经不能给予许可,而他们的声音可能被用于他们绝不会同意的方式——政治、商业或艺术。”

已故的 P. Ramlee

他提到印度曾出现一宗案例,即使相关家庭已被征求过意见,但一段使用已故歌手声音的人工智能原声带仍旧引发了公众争论。

Selvakumar支持强制标注人工智能生成内容,而中国已开始实施。“如果一个声音或脸孔是人工智能生成的,人们有权知道,”他说。

马来西亚人现在能做些什么?

在法规逐步跟上之前,用户仍可通过日常简单措施保护自己:

  • 分享前先暂停一下:人工智能不是你的治疗师或朋友

  • 避免在非必要情况下让应用程序存取相机、麦克风或联系人

  • 使用具明确隐私政策与退出选项的可信平台

  • 不向聊天机器人或滤镜共享敏感资料(身份证号、银行资料)

  • 教育身边的人,尤其是青少年与长辈,了解人工智能滥用、诈骗与深伪风险

“媒体素养是我们最好的防线,”Selvakumar说。“科技会不断进化,但若用户变得更具批判精神、更了解现况,他们就能推动更好的标准。”

人工智能不是敌人,盲目信任才是

人工智能并不是要伤害我们。它只是按设计,从我们提供的东西中学习。但当这种学习在后台进行、且未得到我们充分理解或同意时,风险便随之增加。

随着马来西亚迈向更具深度的数码未来,我们也必须同样快速地建立认知。人工智能极其有用,但前提是必须建立在信任、透明与尊重个人权利的基础上。

你的声音、你的脸孔、你的习惯——这些不只是数据点。它们比你想象的更有价值,因此不要盲目地交出来。在将它们分享给应用或聊天机器人之前,问问自己:我真的知道这些数据会去向何处吗?

不是每个应用程序都值得拥有这种权限,更不值得为了一时的便利而承担这些风险。


该《S.A.F.E Internet》的系列是与CelcomDigi合作推出。

本文内容是作者个人观点,不代表《当今大马》立场。


关注《当今大马》WhatsApp频道 随时接收新闻推送。

查看评论
ADS