安卡拉

算法摄影时代的代理政治

发布时间:2021/2/16 23:29:10   点击数:
白癜风专家郑华国 http://m.39.net/pf/a_4402684.html

出于对自由、平等的追求,机器视觉作为新的权利工具需要被了解、研究,如同从古至今所有的政治工具:法律、警察、学术、道德体系。在被图像看到的被动中我们认识到数字化图像具有社会调节作用,一种总在脱离民众,汇入权力上游,最终致使已有权力手段更加精准的社会功效。通过对数字化图像的商业应用的研究,本文从手机摄影的算法技术与社交媒体中的代理入手,讨论了在信息爆炸的当下如何区分信息与噪音,究竟是谁在区分?谁才是我们每个社交网络使用者表达的主体?

?BrownUniversity

代理政治:信号与噪音

作者:HitoSteyerl

译者:吕芃

前阵子我去见了一位非常有趣的软件开发师,他正在研发智能手机科技。传统上认为摄影就是在理想情况通过一个索引链接(indexicallink),利用科技手段去呈现现有的东西。但情况还是这样吗?这位开发师向我解释道,现代智能手机的相机所用的技术和传统相机非常不同,它们的镜头基本上又小又糟,这也就意味着手机相机的传感器所捕捉到的将近一半数据都是噪点。解决这个问题的诡计其实是编写一种能清除噪点的算法,或者是能从噪点中分辨图片的算法。

那么相机如何知道它该怎么做呢?很简单,通过扫描你的手机或你的社交媒体网络中所有的照片,包括你的联络人。它分析那些你拍下的,或与你相关的照片,并尝试匹配照片中的面部和形状,最终把它们与你联系起来。通过对比你和你的社交网曾经拍摄的照片,算法会猜测你现在想拍什么。它创造的现有图片是基于储存库中早先的图片。这种全新的模式叫做运算摄影(ComputationalPhotography)。

一位学者为了说明运算摄影而做的示例图,图为多伦多大学的HartHouse,结合了HDR和全景拼贴技术。

?Wikipedia

运算摄影或许会拍出根本不曾存在,但算法认为你乐意看到的东西。这种类型的摄影是带有推测机制的,相关的(speculativeandrelational)。它是一种就惯性去打赌的概率赌博。它使看清那未预见的事物更加困难。它将增加“噪点”的数量,就像它将增加随意的阐释那样。

更不用提那些干扰你手机拍摄的外界因素。各种系统都可以远程开启或关闭你的手机相机,比如公司、政府、军队。你的手机在某些特定情况下可能被禁用,例如在抗议游行附近录制功能被封锁,或者反过来播送它即时看到的画面。同样地,一台设备可能会被编程,从而自动像素化,清除,或封锁秘密、版权、色情内容。

它可能装配一个所谓的“阴茎算法”,以筛选出不适合工作的/不安全的(NSFW-NotSuitable/SafeForWork)内容,它将自动修饰阴毛,拉伸或删除尸体照片,交换或拼贴上下文,或插入有地域针对性的广告,弹出窗口或实时供稿。它可能会把你或你社交网中的某个人举报给警察,PR机构或网络诈骗人。它可能会标记你的债务,玩你的游戏,播报你的心跳。运算摄影已经扩展到涵盖上述所有的内容。

它关联着控制机器人(controlrobotics),对象识别(objectrecognition)和机器学习(machinelearning)技术。因此,如果你用智能手机拍了张照,这张照片更多是被预先调节,而非预先谋绘了。照片中可能会出现一些你没料到的东西,那是因为它已经交叉引用了许多不同的数据库:交通控制,医疗数据,亦敌亦友的Facebook图片库,信用卡数据,地图,以及其他任何它想要的内容。

?NVDIA-research

iPhone11发布会介绍图像信号处理器和神经网络引擎?GoogleSearch

■关系摄影(RelationalPhotography)

因此,运算摄影先天地具有政治性,不是内容上而是形式上的。它不仅是关系的(relational),而且是真正的社会性的,无数系统和人们甚至在图片出现之前就对其进行潜在的干预。当然,这个网络系统并非中立。它的规则和规范被硬连线到其平台中,它们代表了法律、道德、美学、技术、商业以及直接被隐藏的参数和效果的混合。你最终可能会在自己的图片中被喷枪涂抹,被通缉,重定向,征税,删除,重塑,或替换。

相比于它的记录功能,相机更像是社会投射仪。它投射出一种叠加——它认为你可能想成为的样子,加上他人认为你应该购买和成为的样子。但是科技很少自主行动。人们在编程技术时,往往有着相互矛盾的目的,并受着各种实体的影响,而政治则定义了如何把“噪音”「译者注:noise在前文的图像领域中翻译为噪点,此处译作噪音」从信息中分离。

那么有哪些政策定义了这种分离呢?或者说,有什么政策首先定义了什么是噪音和信息?是谁或者什么东西决定相机将“看到”什么?这又是如何做到的?通过什么手段?甚至,为什么这很重要?

■■阴茎问题

我们来看下这个例子:在脸和屁股之间,或在“可接受的”和“不可接受的”身体部位之间划清界限。Facebook之所以叫脸书(Facebook)而不是屁股书(Buttbook)绝非偶然,因为你在Facebook上不能有任何屁股(照片)。但它是如何清除掉这些屁股的呢?

一位愤怒的自由工作者向我们泄露出一份清单,详尽地说明了Facebook是如何搭建维护它的脸面,并向我们展示了众所周知的事实:裸体和性爱内容被严格禁止,除了对艺术裸体和男性乳头,而此政策对暴力内容大为宽松,甚至斩首和大量流血画面也是可接受的。

清单中的一条方针显示:只要看不到内脏,被击碎的头部和四肢可以接受;深度伤口可被展示;大量血液可被展示。这些规则仍被人为执行着,更精确地说,是被来自土耳其,菲律宾,摩洛哥,墨西哥和印度的国际外包劳工完成,他们在家工作,每小时挣四美金。这些雇工要对可接受的身体部位和不可接受的身体部位进行辨认和区分。

原则上来说,对公开发表的图像制定规则并没什么错。在线上平台实施某些过滤程序是有必要的:没有人想收到报复性的色情与暴力内容,无论这类图像有没有市场。问题的关键是在何处、如何划此界线,以及谁代表谁去划。谁决定了信号与噪音?

让我们回到消灭色情内容的问题。有针对它算法吗?就像脸部识别那样。这个问题首先被所谓的“Chatroulette难题”公开提出。Chatroulette是一个俄罗斯的在线视频服务,人们可随机视频聊天。它很快以它的“下一位”按钮而出名,相比之下“取消赞的按钮”会客气得多。该网站的用户在年首先激增至每月万用户。

但随后出现了所谓的“阴茎问题”,指的是很多用户开始在此网站上裸聊。一个网络竞赛的获胜者呼吁解决这个问题,他巧妙地建议对视频源进行快速的面部识别或眼睛跟踪扫描——如果无法辨认出任何面孔,则推断这是阴茎。

英国特勤局也采取了一模一样的工作流程,他们使用的密探程序OpticalNerve秘密地批量摄取网民的摄像头。为了开发脸部和虹膜识别技术,他们截获了万雅虎用户的视频源。但是,毫不意外,大约有7%的视频根本就没有出现脸部。所以,和Chatroulette的例子一样,他们对所有事物进行面部识别扫描,尝试去排除那些不是脸部的内容,定性其为隐私部位。但效果不佳,英国政府通讯总部在一份泄露的文件中承认失败:“我们还没有完备的能力去审查违规材料。”

?towardsdatascience

随后的解决方案变得稍有复杂。概率色情检测通过计算图片中某些区域的肤色像素的数量,来产生复杂的分类公式。但是这种方法很快就被人们奚落,因为它产生了许多误报,例如错误识别带包装的肉丸,坦克或机枪。而最近的色情检测应用程序则使用了自学技术(self-learningtechnology),这种技术基于神经网络(neuralnetworks),计算动词理论(

转载请注明:http://www.qiweiq.com/aklwh/19759.html

------分隔线----------------------------

热点文章

  • 没有热点文章

推荐文章

  • 没有推荐文章