据外媒Techspot报道,人们可以使用许多方法来处理图像和视频,因此谷歌通过发布更易于发现篡改的在线内容的工具来为最糟糕的情况做准备。随着2020年美国总统大选的临近,科技巨头们正在寻找不同的方式来对抗假新闻,错误信息以及在大型社交和搜索平台上传播deepfakes视频的情况。
以谷歌为例,它一直在准备防御措施以应对假新闻浪潮。但是,这家搜索巨头希望通过其Jigsaw子公司采取更为主动的方法,该方法使用最近发布的名为Assembler的平台来帮助事实检查人员和新闻记者在图像有机会在线传播之前迅速对其进行验证。
这些工具是免费的,并且虽然公认是"早期实验平台"的一部分,但它们是一个很好的起点,其中包括来自加州大学伯克利分校,那不勒斯菲里德里克第二大学和马里兰大学的学者的贡献。
汇编程序的工作方式是将几种机器学习算法组合在一起,这些算法擅长查找颜色和噪声图案,噪声图案中的不一致之处以及查看各种图像
Assembler擅长检测图像中最常用的篡改技术,例如播放亮度或复制和粘贴纹理或对象以掩盖某物或某人。它带有一个分数,该分数代表图片可能被篡改或以任何其他方式更改的可能性,类似于Adobe的About Face AI。该项目的另一个目标是微调可以发现使用StyleGAN创建的 deepfakes,StyleGAN是一种能够产生令人信服的假想面孔的算法。
Jigsaw首席执行官Jared Cohen在博客文章中解释说,该公司"观察到虚假信息以被用于操纵选举,发动战争和破坏公民社会的方式的发展。" 这种认识导致决定开发用于阻止这些尝试的技术。
在撰写本文时,Assembler具有七个不同的工具,记者和其他人可以使用它们来发现遭篡改的图像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告诉《纽约时报》,汇编程序不是灵丹妙药,作为一个生态系统,汇编程序需要随着时间的推移快速发展和改进。
这就是Jigsaw还发布了一个名为" The Current"的网络出版物的原因,该出版物将持续不断地展示正在进行的有关检测错误信息活动的研究。Cohen表示:"我们的主要动机是创建一个场所,使人们可以访问许多在处理此问题的第一线的专家,独立研究人员和组织的工作。"
人们可以使用许多方法来处理图像和视频,因此谷歌通过发布更易于发现篡改的在线内容的工具来为最糟糕的情况做准备。随着2020年美国总统大选的临近,科技巨头们正在寻找不同的方式来对抗假新闻,错误信息以及在大型社交和搜索平台上传播deepfakes视频的情况。
以谷歌为例,它一直在准备防御措施以应对假新闻浪潮。但是,这家搜索巨头希望通过其Jigsaw子公司采取更为主动的方法,该方法使用最近发布的名为Assembler的平台来帮助事实检查人员和新闻记者在图像有机会在线传播之前迅速对其进行验证。
这些工具是免费的,并且虽然公认是"早期实验平台"的一部分,但它们是一个很好的起点,其中包括来自加州大学伯克利分校,那不勒斯菲里德里克第二大学和马里兰大学的学者的贡献。
汇编程序的工作方式是将几种机器学习算法组合在一起,这些算法擅长查找颜色和噪声图案,噪声图案中的不一致之处以及查看各种图像中像素的属性。
Assembler擅长检测图像中最常用的篡改技术,例如播放亮度或复制和粘贴纹理或对象以掩盖某物或某人。它带有一个分数,该分数代表图片可能被篡改或以任何其他方式更改的可能性,类似于Adobe的About Face AI。该项目的另一个目标是微调可以发现使用StyleGAN创建的 deepfakes,StyleGAN是一种能够产生令人信服的假想面孔的算法。
Jigsaw首席执行官Jared Cohen在博客文章中解释说,该公司"观察到虚假信息以被用于操纵选举,发动战争和破坏公民社会的方式的发展。" 这种认识导致决定开发用于阻止这些尝试的技术。
在撰写本文时,Assembler具有七个不同的工具,记者和其他人可以使用它们来发现遭篡改的图像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告诉《纽约时报》,汇编程序不是灵丹妙药,作为一个生态系统,汇编程序需要随着时间的推移快速发展和改进。
这就是Jigsaw还发布了一个名为" The Current"的网络出版物的原因,该出版物将持续不断地展示正在进行的有关检测错误信息活动的研究。Cohen表示:"我们的主要动机是创建一个场所,使人们可以访问许多在处理此问题的第一线的专家,独立研究人员和组织的工作。"
据了解,Google的技术孵化器Jigsaw发布了一个名为Assembler的实验平台,以帮助记者和前线事实检查人员快速验证图像。
其汇编程序结合了学术界现有的几种技术来检测常见的操纵技术,包括更改图像亮度和将复制的像素粘贴到其他地方以掩盖某些东西,同时保留相同的视觉纹理。它还包括一个检测器,该检测器可以发现使用StyleGAN创建的深层伪造品,StyleGAN是一种可以生成逼真的假想面孔的算法。这些检测技术会输入到主模型中,该模型会告诉用户图像被操纵的可能性有多大。
众所周知,伪造图像是更难验证的事情,尤其是随着人工智能操纵的兴起。随着信息的传播速度和规模的扩大,新闻记者和事实检查者作出反应的机会窗口也在迅速缩小。
汇编程序是与受控媒体作斗争的重要一步,但它并未涵盖许多其他现有的操纵技术,包括用于视频的操纵技术,随着生态系统的不断发展,团队需要对其进行补充和更新。它仍然作为与通常分发篡改图像的渠道分开的平台而存在。专家建议,像Facebook和Google这样的技术巨头将这些类型的检测功能直接整合到其平台中。这样,可以在上传和共享照片和视频时几乎实时地执行此类检查。
也有其他方法可以考虑。例如,一些初创公司正在采用验证技术,该技术可以在拍摄照片时记住照片中像素的位置,但这也带来了挑战。最终,技术修复还远远不够。数字伪造最棘手的方面之一并不是伪造图像本身。而是它们存在的想法,可以很容易地调用它们来质疑真实媒体的准确性。这是挑战的类型,也将需要社会和政策解决方案。