中国开源软件网

当前位置: 首页 > 热点 >

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心

时间:2020-06-30 13:41来源:互联网 作者:小狐

我请求社交网络上的所有人不要再互相攻击了,特别是对于 Timnit Gebru 的攻击,以及对于我之前一些言论的攻击。Yann LeCun 刚刚在推特上发出了这样的呼吁。 无论是口头还是其他方式的冲突,都只能获得伤害和相反的结果。我反对一切形式的歧视。这里有一篇关于我核心价值观的文章。

这是我在推特上最后一篇有内容的帖子,大家再见。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图1)

看起来 2018 年图灵奖得主、人工智能领军人物 Yann LeCun 已经下定决心想对长达两周的激烈讨论画上句号。而这场闹得沸沸扬扬的骂战,起因正是被指严重种族歧视的 PULSE 算法。

这一工作由杜克大学推出,其人工智能算法可以将模糊的照片秒变清晰,效果极佳。这项研究的论文已在 CVPR 2020 上发表论文《PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models 》。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图2)

但本质上看,PULSE 并不是在消除马赛克,而是生成了看上去真实却并不存在的人脸。超分辨率算法一直是计算机科学的热门研究领域,以往科学家们提出的还原方法是在低分辨率图片中添加像素点。但 PULSE 使用 GAN 的思路,先利用深度学习算法生成一些高清图片,再降低它们的分辨率,并与模糊的原图对比,从中找出匹配程度最高、最接近原图的高清图像随后输出。

问题就出在这里,有网友试用了 PULSE 之后,发现美国前总统的高糊照片经过去码处理以后,生成的是一张白人面孔:

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图3)

我们意识到偏见是机器学习和计算机视觉领域的重要问题,并就此问题了 StyleGAN 和 FFHQ 数据集的创建者。我们希望这能够促进不具备此类偏见行为的方法的诞生。

但这件事还没完,鉴于美国目前 BLM 的环境,人们很快就开始深入讨论机器学习研究结果缺乏多样性的问题。在这其中,种族偏见和性别偏见的问题一直存在,迄今为止却没人给出一个好的解决办法。

也就在这个时候,Yann LeCun 发布了一条推特,来解释为什么 PULSE 会出现这样的偏见。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图4)

机器学习的偏差是因为数据的偏差。这一人脸上采样其结果倾向于白人是因为神经网络是在 FlickFaceHQ 上预训练的,其中的大部分图片基本是白人照片,Yann LeCun 说道。如果这一用塞内加尔的数据集训练,那肯定所有结果看起来都像人。

Yann LeCun 的说法本身没有错,但可能是因为过于直白了,一下子让大量 AI 从业者和研究人员炸了锅。LeCun 希望将人们的注意力引向数据集的偏差,但推特网友不买帐,并指责他 用这种陈旧的理由来掩盖问题本质

之后,Yann LeCun 又在多条推文来解释自己关于偏见的立场,但仿佛已经没有用了。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图5)

与学术论文相比,这种偏见在已经部署的产品中产生的后果会更加可怕。这句话的含义被解读为不必为此特例而过分担心,引发了诸多同行的质疑。

斯坦福 AI Lab 成员、Google AI 科学家 Timnit Gebru(她是一名裔美国人)对 LeCun 的言论表示失望。

Yann LeCun 甚至在 Timnit Gebru 的推特评论区连写 17 条回复:

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图6)

当然,需要讨论的也不只是机器学习中的偏见问题:

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图7)

同样需要避免的是在对话中产生恶意,它只会激起情绪,伤害到所有人,掩盖实际问题,推迟解决方案的出现。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图8)

从事数据科学领域超过十年的 Luca Massaron 认为,尽管从技术角度来看 Yann LeCun 是完全正确的,但看看这种观点被抛出之后公众的反应,你就会知道谈论它是多么的敏感。

人们总是害怕自己会被不公平的规则控制,进而无条件地,有时甚至毫无理由地惧怕 AI 剥夺人们的自由,而不仅仅是工作,Luca Massaron 说道。我个人并不担心 Face Depixelizer 这类研究,我所害怕的是在应用之后,我们无法识别和偏见。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图9)

如今,越来越多的机器学习自动化技术正在进入我们的生活,立法者在这里扮演的角色非常重要。在欧盟国家,为了确保数据使用的透明度和,GDPR 条例要求互联网公司保证算法的可解释性,以及用户对于自身数据的控制力。

如果我们希望 AI 能够朝着正确的方向发展,我们需要追求的或许不是无偏见,而是透明度。Luca 认为,如果算法是有偏见的,我们可以它的推断结果并解决问题。但如果算法的推理机制不可知,或许其中还隐藏着更大的问题。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图10)

不可否认的是,人类社会存在着各种偏见,但因此而认为机器倾向于更流行的答案是理所应当的,或许不是一个正确的观点。

先利用深度学习算法生成一些高清图片,LeCun,你们都很懂,我个人并不担心(图11)

人们对于 PULSE 的讨论,以及 LeCun 的攻击,有很多已脱离了 LeCun 的本意。

作为这场争议的起因,杜克大学的研究者们已在 PULSE 网站中表示将会修正有关偏见的问题。目前论文中已经增加了一个新的部分,并附加了可以解决偏差的模型卡。

为了达成没有偏见的目标,我们必须让整个人工智能社区行动起来。但在有关技术的讨论之中让技术大牛心灰意冷,是大多数人都不想看到的结果。Yann LeCun 此前一直以直言不讳著称,他在社交网络上经常会对热门的深度学习研究发表评论,也可以直面其他人工智能著名研究者的批评。

机器学习模型中的偏见可能会使得推理的专业性受到侵害,导致大量业务遭受影响却不为人所知。我们还没有解决这个问题一劳永逸的方法。

参考内容:

本文相关词条概念解析:

算法

算法是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制;它是求解问题类的、机械的、统一的方法,常用于计算、数据处理(英语:Dataprocessing)和自动推理。可以理解为有基本运算及规定的运算顺序所构成的完整的解题步骤。或者看成按照要求设计好的有限的确切的计算序列,并且这样的步骤和序列可以解决一类问题。算法中的指令描述的是一个计算,当其运行时能从一个初始状态和(可能为空的)初始输入开始,经过一系列有限而清晰定义的状态,最终产生输出并停止于一个终态。一个状态到另一个状态的转移不一定是确定的。随机化算法在内的一些算法,包含了一些随机输入。

网友评论

相关文章