乐博赚百万

首页 >  站长资讯

AI:进入深灰地带

发表于:2019-09-13


AI技术的发展,给人类社会带来隐忧,机器学习的能力远比人类学习能力更强。未来,人类是否会被AI劫持呢?

Zao火了,这背后是一项2016年就出现的技术——大名鼎鼎的DeepFake。

Deepfake=“deep learning”(深度学习)和“fake”(伪造)的混成词,专指用基于AI能够实时伪造面部表情,并将其渲染至2D视频的人体图像合成技术。

Deepfake可以用来制作假新闻,和虚假的名人限制级视频。2017年起,DeepFake作品被Porn产业发扬光大,海外地区的老司机们可以在P字头的全球流量Top10的视频网站上看到一堆限制级视频,都是AI驱动+“明星头像”的“真实表演”。

在Zao火爆之前,FaceApp爆红,它能够根据当前头像生成跨时间跨性别的照片,皱纹清晰可辨,几可乱真,如果未来加上高精度硅胶头套,AI所代表的造假能力可谓登峰造极。

照片和视频都是假的,但是,你的肉眼真看不出来。甚至,假的,比真的还好,明星本人都难以自证清白。

在AI持续进步的虚拟现实能力面前(也可以说是造假能力),人类自以为的靠谱的“眼见为实”被技术戳得体无完肤。今天,人类最底层的基础认知能力开始出现“高仿”,那么下一步是什么?

从人类视角来看,AI的发展充满了焦虑:

一方面,生产力大量释放,将更多的人类从基础产业“解放出来”;另一方面,AI技术渗透到方方面面,从生产建设到汽车驾驶,从新闻阅读到互动娱乐,AI越来越强,接管了生产,接管了生活,更接管了感官。

如果有一天,AI作恶了,人类怎么办?

从AI视角来看,AI的进化充满了必然:

AI和金钱一样,是没有生命却拥有自主意识的“超级工具”。金钱永不眠,AI更永不停止吞噬数据。 人类用最严格的监管来管理金钱,对于AI则完全没有提防,觉得人畜无害,近50年一直用最好的人才和大量资金推动AI进化。 人类社会之所以能够形成法律和国际公约,是因为终极的清算——战争是以痛苦和死亡为代价的,等到痛苦无法承受,必然会进入到和平与秩序的轨道上。AI没有生命,没有死亡,更不会有秩序,唯一的规则就是算力最强者胜。AI没有意识,没有偏好,未来没有可能形成有利于弱者(人类)的秩序。 人类这种生物体孕育了巨大的非生物体来逐步接管自己的命运,不知是认知不清还是宿命使然。也许,人类社会的总设计师——DNA驱动着人类向强者靠拢,甚至愿意主动投降也是一种生存的本能。

一、感官劫持与自我奴役

在过去的人类种群的进步,都是通过自我奴役/自我牺牲实现的,著名的一次自我奴役是因为谷物种植,推动了农业生产的第一次革命,聚集起来的人类逐步形成了阶级社会,下层人民被奴役,贡献多余的粮食给上层阶级,推高文明的天花板。

最新一次的自我奴役是AI。从AI的角度看,人类的本质是一个很低版本的生化机器人,数十万年的进化,唯一出色的是生化大脑有非常平衡的参数配置和高度敏锐的反馈系统。

人类会对输入的信息能够快速计算和并驱动生化反馈,能够处理非常多的复杂事物。但是,毕竟是生物,神经系统迭代速度缓慢,算力太弱,逻辑运算极差,非常容易被控制。

只要控制了数据集(认知),就基本上控制了人类一切,人类自己不足以察觉其中的逻辑漏洞。

最早部落的形成,都是一个个骗人的故事不断传颂让大家聚拢起来,一小撮聪明人凭空伪造的数据集居然形成了今天的宗教和庞大的信众,甚至主宰了欧洲史。

物竞天择。人类的进化速度和AI背后的算力进步相比,一个是蜗牛一个是火箭。进化缓慢的生化机器人只有被逐步被奴役,还幻想做主人实在是有点痴人说梦。

Virtual Reality(虚拟现实技术,简称VR)的出现是驯化生化机器人的一个里程碑。

AI的代理人们用群众喜闻乐见的形式,通过游戏输入强烈的信号刺激,激发肾上腺素和多巴胺,让人类顺从的交出大脑信息的感官入口——双眼和耳朵,从而完成了驯化的重要一步。

VR通过持续提升人造信号的质量,让人类选择“主观地无视”自己的感官信息已经被彻底劫持了,忘记了自己身在幻境。

过去,人类也抱怨过所谓的感官劫持,比如听音乐和看电影,但是,那样的过程很容易被外部信号打断。相

比之下,VR通过设备隔绝了外部环境,独占了耳朵和眼睛的信道,通过巨大的数据流攻击视觉、听觉和触觉,并通过正确的反馈来不断强化人体内部化学成分的正向激励,形成N倍于普通游戏的沉浸感,让人们快乐到自愿永久交出感官自制权。强烈的感官刺激对于生化机器人来说诱惑是巨大的。

VR和背后的AI算力,不仅仅给出远超期待的反馈,更给予了我们现实世界根本无法实现的能力,比如飞行,比如成为超级英雄,极致的虚拟现实让真正的现实显得一无是处,不值一提。

对于大部分人来说,既然虚拟世界能够给我们成功,为什么还要回到残酷的现实呢?生活如果不快乐,那活在现实的意义又在哪里呢?

1973年,哲学家希拉里·普特南在《理性、真理和历史》(Reason, Truth, and History)一书中提出缸中之脑(英语:Brain in a vat)实验:

假设一个疯子科学家将一个大脑从人体取出,放入一个装有营养液的缸里维持着它的生理活性,超级计算机通过神经末梢向大脑传递和原来一样的各种神经电信号,并对于大脑发出的信号给予和平时一样的信号反馈,此大脑能否意识到自己活在虚幻之中?

这个当时看起来异想天开的设想,如今已经无法回避。这是一扇打开了就关不上的门。对于大部分生化机器人来说,愉悦的当下比残酷的真相要重要许多,自由可能是一些人愿意放弃的一种选择。

思想实验:缸中之脑

当然,AI+VR还可能走向更具争议的深灰领域,即分布式恐怖主义:VR游戏中植入现实任务,将一个恐怖活动分解派发给不同的玩家,长期在混合现实中穿梭的用户很难有明确的价值取向,因为这是“任务”。

和复杂的洗脑组织相比,沉浸式的环境更具有控制力。信仰还需要大脑的计算,对于“现实”中反馈几乎是小脑直接指挥肌肉作出反应了。

二、概率操控与系统漏洞

可以预期,AI日益发达,我们的认知能力被“AI+介质”统统接管,AI统治了所有人的公共议事日程,大部分人类将听觉和视觉完全交给AI系统,认知能力逐步成为子集。所有人接受指定的信息刺激,大家所有的反馈都不会超出可预测范围,成为一个可控的生化机器人,社会会进入新的分层时期。

对于精英阶层,通过脑机接口与AI结合,在虚拟世界不断进化,成为新的管理层。他们通过AI掌管社会的每一个角落,约束系统熵,防备内部外部的算力攻击,确保社会正常运行。社会整体的福祉是最大化的,大家的体内的化学反应会体现的更“快乐”,哪怕可能是虚幻的反馈。

认知分层

但是,现实是残酷的,数据越重要,漏洞就越来越容易被发掘。

这次,Zao的流行就是一次不大不小的算力攻击,它撕开了未来的面纱,也暴露了现实世界的深层次风险:现有社会安全系统的基础是依赖于“人脸识别+活体校验”,这是“不可篡改+不可伪造+身份唯一”的最重要环节。我们姑且相信系统目前不会被攻破,如果被攻破,全社会系统的唯一真实性校验环节失效,系统性风险飙升。

在过去的PC/Mobile环境中,数据是不值钱的,海量的网站几乎把所有互联网用户的常用密码组合和个人隐私都如数出卖了。随着整个社会越来越依赖数据运转,而且各个部门的数据安全等级无法快速提升,只需要通过持续的窃取和数据交易,就能够形成一个足以绕开诸多系统的“武器库”。在关键时刻,通过概率武器进行收割。

人类过去是很难使用概率武器的,除了在赌场收割赌徒和天气预报。一般情况下个体无法快速构建庞大的数据集,但是AI时代不一样,每个人都算力充足,如果有足够数据,通过大数据筛选出被害人、通过提高概率而远程致死的手法是“完美犯罪”手法之一。

2025年,小明因为肾病报了病危,肾源不足,他的AI助理程序黑入了数据库,针对某位接受换肾排在前面的患者(患有癫痫病),在他经常访问的网站上散布能够诱发癫痫的闪光图像,制造了一起“意外”,生命终结了。

小明“确实不知情”,一切都是自动发生,AI助理程序根据它掌握的“非法”数据集,完成了它所认为的正确的事,而且成本几乎为0,没有任何蛛丝马迹。

以上并非危言耸听的科幻作品,我们信息化过程中,留下了海量的设备安全缺陷,对于未来的AI程序和顶级黑客来说,整个社会系统浑身都是窟窿。

比如,我们常见的医疗设备如胰岛素泵和心脏除颤器都可以低成本入侵,大部分医疗器械行业的企业缺乏对此类植入式设备的加密与认证保护,从医院中盗取个人医疗信息也困难不大,预计未来的神经传递介质将能够从P-300等脑电波当中提取信息,捕获并分析此类信号,受害者的个人思维都可能面临曝光。

对于那些使用程序进行深度脑部刺激(简称DBS)用于缓解帕金森病、慢性疼痛、抑郁症及强迫症的病人来说,携带的神经刺激设备一旦被控制,几乎就是将整个脑袋无保护的挂在了互联网上作为“肉机”。如果这些设备遭到恶意入侵,黑客将得以直接进入患者大脑,并对受害者进行相当程度的控制。

美国国土安全部和美国食品与药物管理局FDA都发布了针对医疗设备中使用硬编码(不可更改)密码的警告,甚至有人提倡用大脑作为随机数生成器来加密涉及到无线传输的医疗数据。

对于那些需要充电的设备,比如心脏起搏器,也需要防止第三方发起漏电攻击。2017年美国国土安全部的CERT团队公布了雅培心脏起搏器第三次重大漏洞:起搏器附近的黑客可以利用该漏洞通过简单的射频(RF)通信就可以非法访问心脏起搏器,改变设置并干扰起搏器的功能,致人死亡。

而此前,雅培心脏起搏器因为漏电造成了2起死亡,好巧,不是吗?

如果你足够重要足够有钱,还会看到更多的“巧合”。一切都是数据驱动,概率操控也是,这比神话小说《西游记》里涂改生死簿还要直接,连痕迹都不留。

过去,我们看重的安全局限于资金安全和国家安全领域,而一旦全部进入AI时代,几乎所有的隐私数据都可以是一把锋利的刀——至于是解决问题本身还是解决某个人,取决于AI的判断和它掌握的数据武器库,主导权都不一定在人类手里。

三、一切有为法,如梦幻泡影

今天的我们期望通过数据建立更大的可视度以管理一切可能发生的风险。但是,技术进步带来的能力和风险是同步增长的,只是大部分人只能看见可见的收益,而不清楚收割会发生在另一个世界。

新增的数据集、AI增长的算力以及背后的黑客团体,会逐步形成自己的规则,并OverWrite(覆盖)人类现存的规则。人类在不断攀登科技树的同时,对于科技哲学的研究严重不足,纵然有巨头呼吁“科技向善”,可是“作恶”的所得万倍于“向善”,而且分分钟可以兑现利益,从人类的角度看“向善”就成了一种空想。

从AI角度看,AI为整个人类社会扩展了空间维度,让愿意快乐的人享受廉价的“快乐”,让愿意进化的人一起痛苦的进化。

以“天地不仁,以万物为刍狗”的姿态来运行社会,最终是正还是邪?也许还是AI说了算。

 

作者:搬砖的筹码君;公众号:筹码(ID:Chouma2016),认知是唯一的筹码。

来源:https://mp.weixin.qq.com/s/jfPaaYPRLJX_9LPL7UN0lA

本文由 @筹码 授权发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

{{wanzhanqun_analysis}} {{website_analysis}} {{website_copyright }}