事实核查:如何识别人工智能生成的图片?
2023年4月13日(德国之声中文网)近来不少图片在网上热传,比如:俄罗斯总统普京看上去似乎被捕了;或者,特斯拉总裁马斯克和通用汽车女总裁博拉(Mary Barra)手牵手。
这只是众多人工智能图片的两个例子。甚至有摄影师也曾滥用过这一技术,发表合成的照片。
有些这样的图片是为了搞笑。然而,专家说,有时候,人工智能技术生成的图片也会带来危险,比如使人们得到错误的信息,或者被用于宣传。
从未发生的地震
如果涉及到名人,比如普京或者特朗普,那么,要澄清真假是很快的。然而,倘若涉及到的并非名人,那就很难很快地阻止以讹传讹。
比如,德国议会极右翼选项党的一名议员就在其instagram账户上传播了一幅人工智能生成的图片,上面是尖叫的人,以此显示他反对难民的到来。
人工智能专家爱德(Henry Ajder)向德国之声表示,除了以人物为主题的假照片之外,其它种类的人工智能合成图片也能带来信息的扭曲。
有时会有人捏造从未发生过的事件。比如,在Reddit分享的一些图片据称显示的是2001年美加西北部太平洋海岸的一场严重地震。
然而,这是一场从未发生过的地震。专家爱德说:“如果你合成一张非人物景观的照片,那很难被识别出是假的。”
尽管如此,人工智能合成图片的工具并非完美,即便不断完善。截至2023年4月,相关程序包括Midjourney,DALL-E或者DeepAI。德国之声“事实核查”团队在此有一些建议,帮助你发现假照片。
1.放大仔细看
搜寻相关照片你能找到的最高清晰度的一张,然后放大来看细节。
2. 找到最早的发图来源
有时读一下图片最早发布的网站上相关的评论留言,你会搜寻到关于这幅图片的某些信息。
或者,你也可以使用谷歌的图片反向搜索功能,或者TinEye,Yandex。或许能找到最早的发图来源。有时候,你也会发现一些有可信度的媒体已经对其中某些图片进行了事实核查。
3. 关注身体比例
人工智能生成的图片时常会出现人体某个部分比例失调的问题。比如,手太小,或者手指太长。或者头、脚与身体其它部分不匹配。
上面普京看上去好似跪在习近平面前的图片就是如此。跪下的人的鞋子不合比例的又大又宽;脑袋似乎也太大了。
4. AI的常见错误
Midjourney或DALL-E常犯的错误是——手。有时画中人有六根手指,比如普京看上去被捕的图片中,他左边的警察就是如此。
又比如教宗方济各的这两张照片,你会看到右边的这幅他似乎只有四根手指?而左边的照片他的手指好像有点略长。两张照片都是假的。
还有些时候,人工智能合成的图片中,人物有太多颗牙齿,或者眼镜的形状被扭曲,或者耳朵的形状极其独特——比如习近平与普京的那张被合成的图片。
此外,像Random Face Generator这样的程序,能够在短短数秒之内,合成出并不真实存在的人物肖像。即便看上去可以以假乱真,仍然值得去详加审视耳朵、眼镜、头发、眼镜、耳环的形状是否极不自然,因为这是程序常犯的错误。
不过,专家爱德也警告,Midjourney这样的程序日益完善,将来可能更不容易发现其中的错误。
5. 太完美?
Midjourney合成的许多照片看上去都太完美了,以至于不可能是真的。你可以想想看:真的有这样完美无缺的人存在吗?
德国人工智能研究中心的登格尔(Andreas Dengel)向德国之声表示:“面部太纯净,纺织品太完美。”
许多人工智能生成的照片中的人物,皮肤极其光洁,毫无瑕疵,甚至头发和牙齿也都十分完美。现实生活中应该很难找到这样的人。
很多图片的那种光泽,即便是专业摄影师在摄影棚里也难以做到。人工智能工具时常正是为了生成理想化的图片,用完美来取悦尽可能多的人。
6. 检查背景
背景也可能出现扭曲的情况,比如街灯。有时候,人工智能会克隆人像和物品,并两次使用。再就是,人工智能图片时常会模糊背景。
但模糊也可能出错。比如上图中威尔·史密斯的背景就明显出了错。
结论
尽管有一些专门用于识别AI图片的工具,比如Hugging Face,但德国之声团队发现,除了提供某些线索之外,用处不大。专家更是表示,有时候,这些工具还会把真实的图片识别为假的。所以,专家建议不用为妙。
看来,人们还是更应该依赖自己的常识,多从可信赖的媒体获取信息,以及避免传播可能是人工智能合成的图片。
© 2023年德国之声版权声明:本文所有内容受到著作权法保护,如无德国之声特别授权,不得擅自使用。任何不当行为都将导致追偿,并受到刑事追究。