主管Q:554258

沐鸣登录网址这就是为什么人工智能不能被简单地理解

沐鸣登录

民权组织抗议亚马逊(Amazon)向警方提供人脸匹配服务reko,中国当局在香港使用监控摄像头试图逮捕民主派人士,沐鸣登录链接此时此刻,史密森尼设计博物馆(Cooper Hewitt, Smithsonian Design Museum)举办了一场新展览,真是再及时不过了。
 
这个名为“面子:探索人工智能”(Face Values: explore Artificial Intelligence)的展览,是该博物馆作为美国官方代表,为2018年伦敦设计双年展(London Design双年展)在纽约举办的展览的翻版。其中包括由博物馆委托的三位美国人R. Luke DuBois、Jessica Helfand、Zachary Lieberman的原创作品,以及ThoughtWorks的伦敦制片人Karen Palmer制作的关于人工智能的全新互动视频体验。这个富有想象力的装置,包括在一堵天花板高的金属猫尾巴墙上设置一个屏幕,是由纽约布鲁克林的Matter建筑事务所设计的。
 
“我们试图表明,人工智能并不那么准确,技术有偏见,”博物馆当代设计高级策展人艾伦·卢普顿(Ellen Lupton)说。
 
例如,R. Luke DuBois的装置作品《表情肖像》(Expression Portrait)邀请博物馆参观者坐在电脑前,在他或她的脸上展示一种情绪,比如愤怒或喜悦。摄像机记录下来访者的表情,并使用软件工具来判断被摄者的年龄、性别、性别和情绪状态。(没有收集任何识别数据,图像也不共享。)我们了解到,这样的系统在解释面部数据时经常出错。
 
“情感是由文化编码的,”杜布瓦说。“说眼睛张开、嘴角上扬暗示着幸福是一种过于简单化的说法。”
 
杜布瓦想让观众实时体验人工智能的极限。他解释说,沐鸣登录网址经常用于商业或政府监控的系统可能会出错,因为它们有固有的偏见。他们从特定的、有限的人群的图像数据库中“学习”,而不是从其他人那里。一般来说,这个系统对白人男性效果最好,但对其他所有人效果都不太好。
 
机器学习算法通常从大量图像中寻找模式,但并不总是这样。为了计算表情肖像的情感,杜布瓦使用了瑞尔森演讲与歌曲视听数据库(RAVDESS),该数据库由24名年轻戏剧专业学生(主要是白人)的视频文件组成,以及情感网络,其中包括名人肖像和库存照片。DuBois还使用IMDB-WIKI数据集来计算人们的年龄,该数据集依赖于名人的照片。了解杜布瓦图像库的来源,以及数据库如何产生偏差,很容易看出数字系统如何产生有缺陷的结果。
 
杜布瓦是纽约大学坦顿工程学院布鲁克林实验媒体中心主任。他接受过作曲家的训练,并以演员和概念艺术家的身份工作。他将艺术、音乐和技术结合在一起,以加深对新技术的社会影响的理解。
 
他肯定是有道理的。
 
上周,ImageNet的创建者宣布从其系统中删除了60多万张照片。ImageNet是一个已有10年历史的数据库,用于人工智能机器学习技术的面部识别训练。该公司承认,它从互联网上调取了数据库中的数百万张照片,然后雇佣了5万名低薪工人为这些照片贴标签。这些标签包括令人讨厌的、奇怪的词语,如女巫、强奸犯、荡妇、黑人和罪犯。在被曝光后,该公司发表了一份声明:“随着人工智能技术从研究实验室的好奇心发展到人们的日常生活中,确保人工智能系统产生适当和公平的结果已经成为一个重要的科学问题。”
 
扎卡里·利伯曼(Zachary Lieberman)是纽约的一位新媒体艺术家,他为库珀·休伊特(Cooper Hewitt)的节目创作了“表情镜子”(Expression Mirror)。他邀请来访者将自己的脸与电脑、相机和屏幕结合起来使用。他开发了一款软件,可以在游客脸上绘制68个地标。他将观看者的面部表情碎片与之前的参观者的面部表情碎片混合在一起,将这些碎片组合在一起,形成了独特的组合肖像。
 
利伯曼说:“这与先前来访者的面部表情相匹配,因此,如果来访者皱着眉头,他或她就会看到其他面孔也皱着眉头。”“来访者通过别人脸上的表情看到自己的情绪。当你互动时,你是在为下一个访问者创建内容。”
 
卢普顿说:“他向我们展示了玩弄数据的乐趣。”“这个软件可以识别你的情绪状态。以我为例,它报告说我有90%的快乐和10%的悲伤。可怕的是,电脑混淆了快乐和悲伤。这证明了技术是不完美的,尽管我们相信它。”

Lieberman c0创建了openFrameworks,这是一个用于创造性编码的工具,也是纽约诗意计算学院的创始人之一。他帮助创建了EyeWriter,一种专为瘫痪者设计的眼球追踪设备。在他的表达镜中,白线产生了一个抽象的,图形化的观众的情绪状态的解释。他说:“如果你看起来很高兴,根据电脑对你面部表情的解读,你可能会看到你嘴巴里有白线。”
 
设计师、评论家、历史学家、博客和网站“设计观察者”(Design Observer)的创始人杰西卡·海尔方(Jessica Helfand)为这个节目写了一篇视觉文章(和配乐),内容是关于人脸侧写和种族刻板印象的悠久历史,题为《面部测量的历史》(a history of facial Measurement)。
 
“这是面部作为数据来源的历史,”卢普顿说。Helfand追踪了过去和现在的科学家、犯罪学家甚至美容专家是如何试图量化和解释人类的面部特征的,他们通常认为,道德品质可以由面部特征决定。
 
英国黑人电影制片人卡伦·帕尔默(Karen Palmer)称自己是“来自未来的故事讲述者”。为了这个节目,她制作了一个名为“感知输入输出”的仿真电影。
 
这名游客以警察的身份观看了一段培训视频,视频描绘了一个动荡不安的场景。一个人朝他跑过来,他试图缓和局势。访问者的反应是有影响的。一个防御性的姿势会导致一个警官的反应,而一个冷静的、不具威胁性的姿势会导致一个不同的反应。
 
感知跟踪眼球运动和面部表情。因此,来访者可以看到他或她自己在这种情况下隐含的偏见。如果你是一名白人警察,沐鸣登陆而“嫌疑人”是黑人,你会有不同的反应吗?和签证。帕默的目标是让观众看到对现实的感知是如何影响现实生活的。
 
节目的要点是什么?
 
“我们需要更好地理解人工智能是什么,它是由人类利用人类选择的数据创造出来的,”卢普顿说。“我们的目标是揭开它的神秘面纱,展示它是如何制作的。”
 
这个节目也应该是娱乐性的:“我们试图展示电脑对你的看法。”