【IT168 资讯】一种算法在一个约会网站上声称能推断出人们的性取向,准确率高达91%,这引发了一系列棘手的伦理问题。
根据一项新的研究表明,人工智能确实可以准确地判断人们是同性恋还是异性恋,且研究表明,机器可以比人类更好地“gaydar”(像雷达一样测试出是否是同性恋)。
斯坦福大学的研究发现计算机算法可以正确区分同性恋和异性恋,男性达81%,女性达74%。也有人针对这项研究提出了质疑,关于面部探查技术的伦理性和潜在的这种软件是否侵犯人们的隐私或被滥用于反对同性恋。
该研究发表在《人格与社会心理学杂志》(Journal of Personality and Social Psychology)上,并在《经济学人》(Economist)上首次报道。该研究的机器智能是基于一个美国约会网站上公开发布的超过3.5万张面部照片的样本。研究人员利用“深层神经网络”从图像中提取出特征,这意味着一个复杂的数学系统可以学习如何根据一个大数据集来分析视觉效果。
研究发现,男同性恋和女同性恋倾向于有“性别不典型”的特征、表情和“修饰风格”,从本质上说,男同性恋者看起来更女性化,反之亦然。这些数据还发现了一些趋势,包括男同性恋者的下颚、鼻子和前额比直男更大,而且与异性恋女性相比,同性恋女性的下颌更大,额头更小。
人类法官的表现比起算法来说差得多,准确地识别出男性占61%,女性占54%。当软件审查了每个人的5张图片时,它的成功率甚至更高,正确率男性达91%,女性达83%。总的来说,这就意味着“脸部包含了更多关于性取向的信息,这不是人类大脑所能感知和解释的”。
虽然研究结果对性别和性行为有明确的限制,但有色人种并没有纳入研究范围,也没有考虑到变性人或双性恋者,因此,人工智能(AI)的影响虽巨大却令人担忧。由于在社交媒体网站和政府数据库中储存了数十亿人的面部图像,研究人员建议,公共数据可以在未经他们同意的情况下检测人们的性取向。
在现实生活中,人们很容易会想到配偶们会不会对自身的伴侣也采用这种技术,或者是青少年在自己或同龄人身上使用这种算法。更令人恐惧的是,继续起诉LGBT人群的政府可能会将这种技术应用于人群和目标人群。这意味着建立这种软件并宣传它本身是有争议的,因为它可能会鼓励有害的应用。
但这种技术已经存在,它的能力也很重要,因此政府和公司可以积极考虑隐私风险,以及对安全措施和法规的加强。
“这当然是令人不安的。“就像任何新工具一样,如果它进入了错误的手,它就会被用于恶意的目的,”多伦多大学心理学副教授尼克说,之前他就已经发表了关于“盖达”(gaydar)的科学研究。“如果你能根据他们的外表来分析他们,然后识别他们,对他们做可怕的事情,那真的很糟糕。”他认为,开发和测试这项技术仍然很重要。
AI大热,被应用于多个领域,也有不同的用处,但同时,就像技术是把双刃剑,我们不能也不应阻止科技的到来,能做的除了不断更新技术,更多的是需要我们相应地加强法律法规的约束,将科技利刃放在适合它的地方。