跳转至

Deepfake技术可以把话塞进任何人的嘴里-甚至是你的(视频)

深度伪造技术:能让任何人“开口说话”,包括你

你知道存在一种能创建非真实人物图像的技术吗?还有,你知道有一种技术能让这些“人物”开口说话吗?

我们在本网站已经写过各种反乌托邦技术,但这个可能是最恐怖的了。
这种被称为“深度伪造”(“深度学习”和“伪造”的合成词)的技术,能够基于人工智能进行人物图像合成。
它运用一种名为生成对抗网络(GAN)的机器学习技术,将现有的图像和视频组合并叠加到源图像或视频上。

深度伪造技术正在快速发展,其可能产生的后果令人担忧。
深度伪造技术已经被用于制造假新闻、恶意恶作剧、假的名人色情视频以及复仇色情内容。
我们都知道互联网能仅凭一个拍摄角度就迅速让一个人成为众矢之的。
想象一下这种技术带来的可怕可能性。

在2019年2月一篇名为《ThisPersonDoesNotExist.com利用人工智能生成无尽假脸》的报告中,詹姆斯·文森特(James Vincent)对这种技术提出了令人毛骨悚然的担忧:正如我们在关于深度伪造(使用GAN将人物脸部粘贴到目标视频上,往往是为了制作非自愿色情内容)的讨论中所看到的,能够大规模操控和生成逼真图像的能力将对现代社会如何看待证据和信任产生巨大影响。
这样的软件对于制作政治宣传和影响选举的活动也可能极其有用。

换句话说,《ThisPersonDoesNotExist.com》只是这种新技术的一个礼貌性介绍。
真正的惊醒还在后面。

看起来“后面”已经到了:一种新的算法允许视频编辑人员像编辑文字一样编辑说话人头部视频——复制、粘贴或者添加和删除字词。

斯坦福大学、马克斯·普朗克研究所(德国一家著名的科研机构)、普林斯顿大学和Adobe研究公司的一个研究团队创建了这样一个用于编辑说话人头部视频(从肩部以上展示说话人的视频)的算法。

这种技术可能产生的后果让人不敢想象,但真理流媒体(Truthstream Media)的梅丽莎·戴克斯(Melissa Dykes)在这个令人毛骨悚然的视频中确实进行了思考。

区分真假变得越来越困难。
“我们的现实正日益被技术操控和中介,我认为我们人类确实开始感受到这一点了。
”戴克斯写道:在我们这个后后现代社会即将到达一个点,在那里眼见不再为实。
旧的准则将变得毫无价值。
我们越考虑这些技术的复杂性,就越清楚我们在试图理解“后真相世界”这个短语的真实含义时仅仅是触及了表面。
这也不是巧合,去年的极度机密精英比尔德伯格会议(Bilderberg meeting,这是一个由欧美各国政商学界精英组成的秘密会议)将这个列为官方议题,包括谷歌和微软在内的主要硅谷企业经常参加这个会议。

你怎么看呢?深度伪造技术会被用于什么目的?你认为最终是否会变得无法识别深度伪造内容?会有什么后果呢?欢迎在评论区分享你的想法。

关于作者:达格妮·塔加特(Dagny Taggart)是一位经验丰富的记者使用的化名,为了保持在公众视野中的工作而需要匿名。
达格妮不偏向任何党派,旨在揭露主流媒体(MSM)的半真半假、歪曲事实以及公然谎言。

引用:https://www.theorganicprepper.com/deepfake-technology/
原文: https://s5.tttl.online/blog/1736240012/
图书推荐