加入
我们
投稿
反馈
评论 返回
顶部

内容字号: 默认 大号超大号

段落设置: 段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

周杰伦自己转发土味版《等你下课》网友小公

2017-04-26 14:39 出处:betway58.com 人气: 评论(

70年代土味版《等你下课》你看过吗?

多数的恐惧都不是理性的。放眼过去,技术变化带来的真正灾难,从来都不曾被预料。一百年前,人们不曾预料,迅速发展的运输和制造工业会带来新的战争形式,在两次世界大战中杀死了数千万人。

曾经担忧的事并没有发生,但是,计算机和互联网技术却带来了80、90年代的人们所未曾预料的危机:无处不在的监控,黑客对基础设施或个人数据的追踪,社交媒体平台带来的心理异化,人们耐心和专注力的丧失,肆虐于互联网的极端思想和言论等。敌对势力甚至可以通过劫持社交网络来威胁国家的稳定。

简言之,社交平台已经可以即时考评用户的一切,控制我们消费的内容,这种局面还将会加剧。通过来算法实现感知和行动,已经属于人工智能的范畴了,在此过程中,针对人类的行为建立优化循环,在循环中,观察目标当前状态,并不断调整输出的内容,直到目标达到期望的状态。

惊人的事实是,利用AI来控制我们的信息获取情况,以实现大规模的人口操纵——特别是在政治方面——并不需要多高深的算法。不需要那种具有自我意识的超智能AI出马,目前的科技水平已经完全足够了。近几年来,社交网络公司一直致力于这方面的工作,并取得了显著的成果。

社交舆论反向干预:如果平台不希望你的观点被传播,会将你的文章只推送给“可能会反驳”它的用户(可能是熟人、陌生人、或机器人),让你在多次遭受反驳后,因为舆论的压力不得不改变原有观点。

多数人都会反感技术的大转变,甚至会感到恐慌。似乎人类对任何变化的反应都是如此。但其实,我们所担心的事大都没有发生。

这篇文章的目的,就是想让大家对以下提到的问题有个意识,这些问题才是我真正担心的:AI可以强烈地干预甚至操控人类的行为,而这一特点会被公司或政府恶意地利用。

本文作者是谷歌AI研究员、Keras创建者François Chollet。他在Medium的博文中特意指出,本文是他个人的看法,而读者要有自己的评判。同时,他也提出了对Feed内容推荐方式的一些改进,相信对“刷抖音一刷就是几个小时”的你会有所借鉴。

机器学习算法会将偏见放大

人工智能领域的一大部分,尤其是“强化学习”,就是为了解决这种优化问题,通过算法实现对目标(也就是我们)完全的闭环控制。而在当今数字化的生活环境下,我们也变得更容易被算法控制。

不得不说这个MV 真的是十分接地气了

人类行为被视作优化问题

人们不曾预料,电台的发明促成了新的大众宣传形式,却也促成了德、意的法西斯主义的形成。上世纪20,30年代,伴随着理论物理学发展,当时的报刊上也未曾出现过担忧这些理论会产生使世界永远处于被毁灭威胁之下的核武器的内容。

即便还是有少数人看到了计算机技术的潜力,看好计算机行业的发展,但是,多数人因为缺乏了解,认为计算机是深不可测的,如同外星人入侵一般,多方面威胁着人类。他们担心,人类会被技术所取代。

推送的偏向性:平台通过推送文章和内容,使得某种希望的观点得到传播。不均衡的信息推送,为你制造了一种“这种观点受到广泛支持”的假象。

如今,我们再次面临着一场根本性的变革:认知自动化的到来,简单来说也就是“AI”。同过去一样,我们担心新技术的威胁——人工智能将会导致大规模失业,或者,人工智能会获得自主意识,变成超人并摧毁人类。

编译:傅一洋、汪小七、一针 、云舟

正因此,Facebook建立微调参数的算法引擎,它不仅能影响用户购物的品牌,还能影响用户的情绪,通过调整内容推送来控制你的喜怒哀乐。甚至,还可能改变选举结果。

网友纷纷疑问:杰伦小公举你天天在网上看什么呢

还记得曾风靡一时的“电脑恐惧症”吗?从上世纪的80、90年代一直到21世纪初,我们都能亲眼目睹这种现象:伴随着PC逐渐进入生活、工作和家庭,很多人对其感到了焦虑和恐惧,以至于去攻击计算机。

从信息安全的角度来看,你会认为这是“安全漏洞”,而且是可用于接管整个计算机系统的已知漏洞。但对人来说,只要你还保留着人类的心智,这种漏洞就永远无法被修复。

身份强化作用:历史上第一次广告就利用了身份强化,这种策略经久不衰。将内容与你的标签关联,自动地推送出你想要的内容。在人工智能优化社交媒体消费的背景下,控制算法能确保你看到新闻、故事、帖子,都是你希望看到的,也就是包含你的标签的。同理,屏蔽了所有你不希望看到的内容。

理论上讲,这些收集的数据满足了公司对个人或群体进行心理建模的需求。将你经常点击的内容与你的思想和行为关联,将你的思想和行为同成千上万类似的人群相关联,实现了比单纯的自我认知更加准确的性格定位(例如,Facebook用算法评估你的个性,甚至比你朋友说的还准确)。

对人类行为的强化学习循环

通过分析利用这些数据,很多事情都不再是天方夜谭。比如说提前几天就预测出你什么时候会和伴侣分开,以及下一次恋爱开始的时间和对象;或预测谁会有自杀的倾向;又或者在选举中预测你最终的投票取向,即便你仍在犹豫不决。这种能力不仅局限于对个人的预测,还可以针对更容易分析的大群体行为,因为大群体的行为更平均化,消除了一些随机或个人异常情况。

Facebook用算法评估你的个性

对互联网公司而言,被动地收集用户数据还远远不够,它们还会越来越多地主动决定用户消费的内容。用户看到的信息是经过“策划”的,不透明算法决定了我们会读到哪些政论文章、看到哪些电影预告、与谁保持联系、会收到谁的评论等。

而Facebook的金主爸爸——广告主们,包括政治广告主——看中的恰恰就是它影响用户的能力,这也是Facebook的业务根基所在。

因为这正是人类存在的方式,根植于DNA中。人类思维本身就是个静态的,易受攻击的系统,也会越来越频繁地遭受AI算法的攻击,这些算法,将会完全掌控着我们的所思所想,并控制着我们消费的内容。

但是,我们是否又犯了同样的错误呢?是否又产生了“错误的担忧”,而忽视了真正的威胁呢?人工智能真正的威胁,可能会和“超级智能”和“奇点”的说法大相径庭。

参数的个性化:有时算法会观察到,某些心理特性与你相近的人,在长期接触某种推送内容后,发生了观点上的转变,这样的话,算法预计这些内容会对与所有和你情况相似的用户都会产生巨大影响,因此将相应内容推送给你。长远地看,算法自始至终都能推送给用户最合适的内容。

当然,人工智能技术发展带来的风险不只有此,还有“机器学习算法会将偏见放大”等问题。这些问题已经受到了很多人的重视,而关于“人工智能操控人类行为”的风险,鲜有人意识到,但却是很迫切的。因此,我有必要唤起人们的意识。

过去20年间,我们的私人和公共生活悄然完成了向线上的转移:看屏幕的时间越来越长,工作也多与数字和信息相关。而世界也在向一种由数字信息的消费、修改和创造所构成的状态发展。

虽然他们只是试图最大限度地“参与”并影响你的购买决策,而不是操纵你的世界观,但他们开发的工具已经成为敌对势力进行政治活动的有利武器,就像2016年的英国退欧公投和2016年的美国总统大选,所以利用先进技术进行舆论操纵已经成为现实。

控制信息消费成为控制用户的心理的手段

人类的思想极易受到社交的作用。这一特性,使得优化目标更容易达成。正如此,平台利用人类心智的特性,想出了以下的策略:

以下将详细介绍人工智能被恶意使用会带来的风险。

社交舆论正向强化:如果平台希望你的观点被传播,会将你的文章推送给“可能喜欢”它的用户(甚至机器人),让你更加坚定的认为,自己站在多数人的一方。

社交媒体成为大众心理的监督工具

社交平台将人类行为视为一个优化问题,也即一个人工智能问题:通过不断迭代,调整控制参数,达成推动用户做出特定行为的目的。好比AI棋手会通过评分反馈,不断地进行策略的迭代调整,从而通过关卡。实现这一过程唯一的瓶颈就在于算法的智能化程度,正因此,最大的社交平台公司正投资数十亿美元用于AI算法的研究。

这种趋势是有副作用的。公司和政府不断收集我们的大量数据,特别是通过社交平台:我们与谁交流、交流什么、消费了什么内容(包括图片、电影、音乐和新闻)、特定时间会有什么样的心情。最终,几乎所有我们能感知到的和所做的一切都会被记录在某个远程服务器上。

而现在,即使气候问题的警钟早已敲响了几十年,大部分(44%)美国公民仍然选择无视。人类文明很难正确意识到威胁的存在,从而理性地警醒,反而代之以非理性的恐慌。

事实上,这种风险已经成为现实,在接下来几十年里,伴随着长期增长的技术趋势,还将会迅速增强。随着生活日益数字化,社交平台越来越了解我们的生活和想法,同时,也越来越多地以内容为媒介——特别是基于算法的内容推送,来干预我们的行为。

在这之后的几年中,PC爱好者已经逐渐能用计算机来谋求利益,计算机也并没有取代人类,或引发大规模的失业,而是成为了生活的重要组成部分——如今,我们无法想象没有笔记本、平板和手机的生活,曾经的威胁成为了依赖。

如此深受宠爱的mv不服不行啊!

经过多年来对我们所消费内容的收集、管理和调整,算法对我们有了足够强的影响力,强大到足以改变你对“我是谁?”、“我想成为谁?”等问题的答案。倘若Facebook长期决定你消费的内容(或真或假)和你的受众,多年后,你的世界观和政治倾向就会完全被Facebook所主导。

分享给小伙伴们:
本文标签:

更多文章

相关文章

评论

发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。


betway2018_外围滚球网站_手机投注APP