科技: 人物 企业 技术 IT业 TMT
科普: 自然 科学 科幻 宇宙 科学家
通信: 历史 技术 手机 词典 3G馆
索引: 分类 推荐 专题 热点 排行榜
互联网: 广告 营销 政务 游戏 google
新媒体: 社交 博客 学者 人物 传播学
新思想: 网站 新书 新知 新词 思想家
图书馆: 文化 商业 管理 经济 期刊
网络文化: 社会 红人 黑客 治理 亚文化
创业百科: VC 词典 指南 案例 创业史
前沿科技: 清洁 绿色 纳米 生物 环保
知识产权: 盗版 共享 学人 法规 著作
用户名: 密码: 注册 忘记密码?
    创建新词条
科技百科
  • 人气指数: 11781 次
  • 编辑次数: 2 次 历史版本
  • 更新时间: 2011-08-10
方兴东
方兴东
发短消息
高兴
高兴
发短消息
相关词条
《万物商店》
《万物商店》
《新数字时代》
《新数字时代》
《孵化Twitter》
《孵化Twitter》
《2033年的生活》
《2033年的生活》
《现实已被打破》
《现实已被打破》
《Cypherpunks》
《Cypherpunks》
《急切的乐观主义者》
《急切的乐观主义者》
《网络智慧》
《网络智慧》
《从反主流文化到网络文化》
《从反主流文化到网络文化》
《全民书写运动》
《全民书写运动》
推荐词条
希拉里二度竞选
希拉里二度竞选
《互联网百科系列》
《互联网百科系列》
《黑客百科》
《黑客百科》
《网络舆情百科》
《网络舆情百科》
《网络治理百科》
《网络治理百科》
《硅谷百科》
《硅谷百科》
2017年特斯拉
2017年特斯拉
MIT黑客全纪录
MIT黑客全纪录
桑达尔·皮查伊
桑达尔·皮查伊
阿里双十一成交额
阿里双十一成交额
最新词条

热门标签

微博侠 数字营销2011年度总结 政务微博元年 2011微博十大事件 美国十大创业孵化器 盘点美国导师型创业孵化器 盘点导师型创业孵化器 TechStars 智能电视大战前夜 竞争型国企 公益型国企 2011央视经济年度人物 Rhianna Pratchett 莱恩娜·普莱契 Zynga与Facebook关系 Zynga盈利危机 2010年手机社交游戏行业分析报告 游戏奖励 主流手机游戏公司运营表现 主流手机游戏公司运营对比数据 创建游戏原型 正反馈现象 易用性设计增强游戏体验 易用性设计 《The Sims Social》社交亮 心理生理学与游戏 Kixeye Storm8 Storm8公司 女性玩家营销策略 休闲游戏的创新性 游戏运营的数据分析 社交游戏分析学常见术语 游戏运营数据解析 iPad风行美国校园 iPad终结传统教科书 游戏平衡性 成长类型及情感元素 鸿蒙国际 云骗钱 2011年政务微博报告 《2011年政务微博报告》 方正产业图谱 方正改制考 通信企业属公益型国企 善用玩家作弊行为 手机游戏传播 每用户平均收入 ARPU值 ARPU 游戏授权三面观 游戏设计所运用的化学原理 iOS应用人性化界面设计原则 硬核游戏 硬核社交游戏 生物测量法研究玩家 全球移动用户 用户研究三部曲 Tagged转型故事 Tagged Instagram火爆的3大原因 全球第四大社交网络Badoo Badoo 2011年最迅猛的20大创业公司 病毒式传播功能支持的游戏设计 病毒式传播功能 美国社交游戏虚拟商品收益 Flipboard改变阅读 盘点10大最难iPhone游戏 移动应用设计7大主流趋势 成功的设计文件十个要点 游戏设计文件 应用内置付费功能 内置付费功能 IAP功能 IAP IAP模式 游戏易用性测试 生理心理游戏评估 游戏化游戏 全美社交游戏规模 美国社交游戏市场 全球平板电脑出货量 Facebook虚拟商品收益 Facebook全球广告营收 Facebook广告营收 失败游戏设计的数宗罪名 休闲游戏设计要点 玩游戏可提高认知能力 玩游戏与认知能力 全球游戏广告 独立开发者提高工作效率的100个要点 Facebook亚洲用户 免费游戏的10种创收模式 人类大脑可下载 2012年最值得期待的20位硅谷企业家 做空中概股的幕后黑手 做空中概股幕后黑手 苹果2013营收 Playfish社交游戏架构

《过滤器泡泡》 发表评论(0) 编辑词条

《过滤器泡泡》:互联网出现后,以低成本或零成本向无数人传播信息成为可能。只要接入互联网,任何人瞬间都可以与全世界分享观点。新闻媒介的民主时代隐隐若现。但是个性化的信息过滤器却是新的“把关人”,对之产生了威胁。 
目录

[显示全部]

基本信息编辑本段回目录

埃利·帕雷瑟(Eli Pariser)
《过滤器泡泡:网站对您隐藏了哪些东西》
The Filter Bubble: What the Internet is Hiding From You
  • Hardcover: 304 pages
  • Publisher: Penguin Press HC, The (May 12, 2011)
  • Language: English
  • ISBN-10: 1594203008
  • ISBN-13: 978-1594203008
  • Product Dimensions: 8.1 x 5.4 x 1.1 inches 
  • 内容简介编辑本段回目录

    Pariser是社会机构MoveOn.org的负责人,也是一本新书《过滤器泡沫:互联网把什么藏起来了》(The Filter Bubble: What the Internet Is Hiding From Yo)的作者。在《纽约时报》最近的一篇文章中,他表达了对个性化服务,谷歌和微软必应在其服务中添加各种过滤器,以及《纽约时报》和《华盛顿邮报》这样的发布商使用推荐工具(它们会根据读者以前的浏览记录推荐他们可能会喜欢的故事)的担心。

    Pariser认为,这样的个性化和定制化工具存在风险,因为它们会产生回音室(echo chamber)的效果,即我们只读我们想要阅读的东西,因此只会听到我们想听到的讨论。 Pariser表示:

    民主依赖于公民参与多种观点的能力;如果互联网只提供那些反应了你已经拥有的观点的信息,它就限制这种参与能力。虽然有时只看你想看到的东西会很方便,但有些时候,看到你本不想看的东西十分重要。

    Pariser认为我们需要知道:什么时候我们看到的东西是被过滤过的,是否由谷歌或其他一些机构所过滤。涉及过滤器的信息需要变得更加明显,这样我们才能够在有需要的时候拓展眼界。

    如果算法决定我们会看到什么东西,我们需要确保它们考虑其他因素而不只是“相关性”。我们必须了解过滤器方面的信息,必须阅读一些拓展我们视野的内容,即使它们令我们感到不舒服。

    作者简介编辑本段回目录

    埃利·帕雷瑟(Eli Pariser)
    Eli Pariser is the board president and former executive director of MoveOn.org, which at five million members is one of the largest citizens' organizations in American politics. During his time leading MoveOn, he sent 937,510,800 e-mails to members in his name. He has written op-eds for The Washington Post and The Wall Street Journal and has appeared on The Colbert Report, Good Morning America, Fresh Air, and World News Tonight.
    Author Q&A with Eli Pariser

    Q: What is a “Filter Bubble”?

    A: We’re used to thinking of the Internet like an enormous library, with services like Google providing a universal map. But that’s no longer really the case. Sites from Google and Facebook to Yahoo News and the New York Times are now increasingly personalized – based on your web history, they filter information to show you the stuff they think you want to see. That can be very different from what everyone else sees – or from what we need to see.

    Your filter bubble is this unique, personal universe of information created just for you by this array of personalizing filters. It’s invisible and it’s becoming more and more difficult to escape.

    Q: I like the idea that websites might show me information relevant to my interests—it can be overwhelming how much information is available I already only watch TV shows and listen to radio programs that are known to have my same political leaning. What’s so bad about this?

    A: It’s true: We’ve always selected information sources that accord with our own views. But one of the creepy things about the filter bubble is that we’re not really doing the selecting. When you turn on Fox News or MSNBC, you have a sense of what their editorial sensibility is: Fox isn’t going to show many stories that portray Obama in a good light, and MSNBC isn’t going to the ones that portray him badly. Personalized filters are a different story: You don’t know who they think you are or on what basis they’re showing you what they’re showing. And as a result, you don’t really have any sense of what’s getting edited out – or, in fact, that things are being edited out at all.

    Q: How does money fit into this picture?

    A: The rush to build the filter bubble is absolutely driven by commercial interests. It’s becoming clearer and clearer that if you want to have lots of people use your website, you need to provide them with personally relevant information, and if you want to make the most money on ads, you need to provide them with relevant ads. This has triggered a personal information gold rush, in which the major companies – Google, Facebook, Microsoft, Yahoo, and the like – are competing to create the most comprehensive portrait of each of us to drive personalized products. There’s also a whole “behavior market” opening up in which every action you take online – every mouse click, every form entry – can be sold as a commodity.

    Q: What is the Internet hiding from me?

    A: As Google engineer Jonathan McPhie explained to me, it’s different for every person – and in fact, even Google doesn’t totally know how it plays out on an individual level. At an aggregate level, they can see that people are clicking more. But they can’t predict how each individual’s information environment is altered.

    In general, the things that are most likely to get edited out are the things you’re least likely to click on. Sometimes, this can be a real service – if you never read articles about sports, why should a newspaper put a football story on your front page? But apply the same logic to, say, stories about foreign policy, and a problem starts to emerge. Some things, like homelessness or genocide, aren’t highly clickable but are highly important.

    Q: Which companies or Websites are personalizing like this?

    A: In one form or another, nearly every major website on the Internet is flirting with personalization. But the one that surprises people most is Google. If you and I Google the same thing at the same time, we may get very different results. Google tracks hundreds of “signals” about each of us – what kind of computer we’re on, what we’ve searched for in the past, even how long it takes us to decide what to click on – and uses it to customize our results. When the result is that our favorite pizza parlor shows up first when we Google pizza, it’s useful. But when the result is that we only see the information that is aligned with our religious or social or political beliefs, it’s difficult to maintain perspective.

    Q: Are any sites being transparent about their personalization?

    A: Some sites do better than others. Amazon, for example, is often quite transparent about the personalization it does: “We’re showing you Brave New World because you bought 1984.” But it’s one thing to personalize products and another to personalize whole information flows, like Google and Facebook are doing. And very few users of those services are even marginally aware that this kind of filtering is at work.

    Q: Does this issue of personalization impact my privacy or jeopardize my identity at all?

    A: Research psychologists have known for a while that the media you consume shapes your identity. So when the media you consume is also shaped by your identity, you can slip into a weird feedback loop. A lot of people see a simple version of this on Facebook: You idly click on an old classmate, Facebook reads that as a friendship, and pretty soon you’re seeing every one of John or Sue’s posts.

    Gone awry, personalization can create compulsive media – media targeted to appeal to your personal psychological weak spots. You can find yourself eating the equivalent of information junk food instead of having a more balanced information diet.

    Q: You make it clear that while most Websites’ user agreements say they won’t share our personal information, they also maintain the right to change the rules at any time. Do you foresee sites changing those rules to profit from our online personas?

    A: They already have. Facebook, for example, is notorious for its bait-and-switch tactics when it comes to privacy. For a long time, what you “Liked” on Facebook was private, and the site promised to keep it that way. Then, overnight, they made that information public to the world, in order to make it easier for their advertisers to target specific subgroups.

    There’s an irony in the fact that while Rolex needs to get Tom Cruise’s permission to put his face on a billboard, it doesn’t need to get my permission to advertise my endorsement to my friends on Facebook. We need laws that give people more rights in their personal data.

    Q: Is there any way to avoid this personalization? What if I’m not logged into a site?

    A: Even if you’re not logged into Google, for example, an engineer told me there are 57 signals that the site uses to figure out who you are: whether you’re on a Mac or PC or iPad, where you’re located when you’re Googling, etc. And in the near future, it’ll be possible to “fingerprint” unique devices, so that sites can tell which individual computer you’re using. That’s why erasing your browser cookies is at best a partial solution—it only partially limits the information available to personalizers.

    What we really need is for the companies that power the filter bubble to take responsibility for the immense power they now have – the power to determine what we see and don’t see, what we know and don’t know. We need them to make sure we continue to have access to public discourse and a view of the common good. A world based solely on things we “Like” is a very incomplete world.

    I’m optimistic that they can. It’s worth remembering that newspapers weren’t always informed by a sense of journalistic ethics. They existed for centuries without it. It was only when critics like Walter Lippman began to point out how important they were that the newspapers began to change. And while journalistic ethics aren’t perfect, because of them we have been better informed over the last century. We need algorithmic ethics to guide us through the next.

    Q: What are the business leaders at Google and Facebook and Yahoo saying about their responsibilities?

    A: To be honest, they’re frustratingly coy. They tend to frame the trend in the passive tense: Google’s Eric Schmidt recently said “It will be very hard for people to watch or consume something that has not in some sense been tailored for them,” rather than “Google is making it very hard…” Mark Zuckerberg perfectly summed up the tension in personalization when he said “A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa.” But he refuses to engage with what that means at a societal level – especially for the people in Africa.

    Q: Your background is as a political organizer for the liberal Website MoveOn.org. How does that experience inform your book?

    A: I’ve always believed the Internet could connect us all together and help create a better, more democratic world. That’s what excited me about MoveOn – here we were, connecting people directly with each other and with political leaders to create change.

    But that more democratic society has yet to emerge, and I think it’s partly because while the Internet is very good at helping groups of people with like interests band together (like MoveOn), it’s not so hot at introducing people to different people and ideas. Democracy requires discourse and personalization is making that more and more elusive.

    And that worries me, because we really need the Internet to live up to that connective promise. We need it to help us solve global problems like climate change, terrorism, or natural resource management which by their nature require massive coordination, and great wisdom and ingenuity. These problems can’t be solved by a person or two – they require whole societies to participate. And that just won’t happen if we’re all isolated in a web of one.  

    信息过滤器过多还是不够?编辑本段回目录

    北京时间6月1日消息,据国外媒体报道,美国科技博客GigaOM作者马修·英格拉姆(Mathew Ingram)发表署名文章,称信息过载的危险大于“过滤器过载”或“超定制”的危险。以下为全文摘要:

    随着实时信息网络和内容发布工具以及多媒体设备的发展,很多人都被持续上涨的信息潮水所淹没。媒体大师克莱·舍基( Clay Shirky, 被誉为“互联网革命最伟大的思考者”、“新文化最敏锐的观察者”)曾说过,如今的问题不是信息过载,而是“过滤器低效” ,因此也涌现了很多旨在解决这个问题的公司已和服务。但Eli Pariser担心太多的过滤器可能是一种比疾病更糟糕的疗法。

    信息过滤器过多还是不够?

    过滤器的风险

    Pariser是社会机构MoveOn.org的负责人,也是一本新书《过滤器泡沫:互联网把什么藏起来了》(The Filter Bubble: What the Internet Is Hiding From Yo)的作者。在《纽约时报》最近的一篇文章中,他表达了对个性化服务,谷歌和微软必应在其服务中添加各种过滤器,以及《纽约时报》和《华盛顿邮报》这样的发布商使用推荐工具(它们会根据读者以前的浏览记录推荐他们可能会喜欢的故事)的担心。

    Pariser认为,这样的个性化和定制化工具存在风险,因为它们会产生回音室(echo chamber)的效果,即我们只读我们想要阅读的东西,因此只会听到我们想听到的讨论。 Pariser表示:

    民主依赖于公民参与多种观点的能力;如果互联网只提供那些反应了你已经拥有的观点的信息,它就限制这种参与能力。虽然有时只看你想看到的东西会很方便,但有些时候,看到你本不想看的东西十分重要。

    Pariser认为我们需要知道:什么时候我们看到的东西是被过滤过的,是否由谷歌或其他一些机构所过滤。涉及过滤器的信息需要变得更加明显,这样我们才能够在有需要的时候拓展眼界。

    如果算法决定我们会看到什么东西,我们需要确保它们考虑其他因素而不只是“相关性”。我们必须了解过滤器方面的信息,必须阅读一些拓展我们视野的内容,即使它们令我们感到不舒服。

    更大的危险

    我们真的处于太多过滤,太多定制的危险之中吗?我理解Pariser“封闭在我们自己的个性化的网上世界中”的观点,但我仍然认为,现在我们的过滤器还不够多。谷歌和Facebook使用的社交过滤(利用社交线索来突出显示一些内容)功能很好地在过滤和“把我们封闭起来”之间把握了平衡——尽管我是人工筛选和过滤的粉丝,而不那么喜欢算法过滤。

    会不会出现只拥有单一社交图的人,任何形式的社交过滤都会让他们生活在一个网上回音室中?当然会有 ,其实这些人已经存在了,他们似乎生活在一个茧里,有没有互联网都能活得很好。社交过滤器并不会让这样的现象恶化。

    此外还有 “意外发现(serendipity)”,即那些奇怪或不寻常的故事和内容,是我们没有预料到自己会看到的,但我们看到的它们时候也会觉得很有趣。传统的报纸就可以被视为是一种“意外发现”引擎,因为它是由其他人生成的,这些人对我们的阅读习惯所知甚少,因此报纸上会出现一些比较出人意料内容。

    Web和数字工具使我们能够确切地知道什么人在阅读或看什么内容,并可以很容易地调整内容,以适应人们的阅读愿望,这是报纸和传统媒体永远无法实现的。像Zite、News360和Flipboard这样的服务根据我们的社交网络和我们的阅读习惯来定制我们读到的东西,因此Pariser可能也会把它们看成一种危险。但即使在这个领域中,一些服务(比如iPad应用News.me,让你可以浏览其他人的社交内容流)也注入了一些“意外发现”元素。Twitter最近也重新推出了让你看别人的时间表的功能。

    因此在我看来,信息过载的危险大于“过滤器过载”或“超定制”的危险。如果数据和内容的量大大超过了人们消费信息的能力,有些人就可能会离开,彻底不再关注任何信息 ,可以说这个问题甚至比Pariser的 “个性化世界”问题更严重。有了推荐和社交过滤,我们至少有了一些希望——遏制信息过载的洪水,或多或少地从中找出有意义的东西来。

    当互联网懂你之后,我们失去了什么编辑本段回目录

    以前,我们都认为自己生活在广播的社会中。在那个单调的没有网络的时代,分享信息的工具比较有限。若想与大众分享想法,你得自己有个印刷机或者电台。否则,就要认识个有这些东西的人。控制信息流通的是一群精英阶层,他们中有编辑、制作人或者传媒显要。他们决定了人们了解外部的内容。他们是信息传播的“把关人(Gatekeepers)”。

    互联网出现后,以低成本或零成本向无数人传播信息成为可能。只要接入互联网,任何人瞬间都可以与全世界分享观点。新闻媒介的民主时代隐隐若现。

    过去你也许听到过类似的故事:有可能源自保守派博主格伦•雷诺德(GlennReynolds)——博客是摧毁“把关人”的技术,抑或源自进步派博主马科斯•莫里萨斯(Markos Moulitsas)——他写了一本名为《冲破牢笼》(Crashing the Gate)的著作。这是对这种媒介的革命性力量的美好愿望,作为早期在线政治的践行者,我们就是这样经营MoveOn.org的。但是,我越来越认为我们最终都错了,而且还可能错得比较危险;在我们周围,还存在一群新的“把关人”,并且这一次执行的不是人,而是代码。

    如今,像谷歌、Facebook、雅虎和微软之类的网络巨擘把大众接触到越来越多的信息看成是一个机会。如果他们能提供经过过滤后的数据服务,进而为我们提供最具相关性、最吸引人的结果,吸引的用户就会很多、广告的浏览量也越多。因此,他们都争相提供个性化的过滤器,这样我们所看到的网络内容就是他们认为我们想看的。实际上,就是这些过滤器控制和限制着我们屏幕上显示的内容。

    目前,我们已经熟悉了网络上那种如影随形的广告,他们都是根据我们最近在商业网站上的点击而产生的。但是,我们搜索的信息也个性化了,这种情况越来越普遍,而且不易察觉。由于历史点击不同,两人在google 分别上搜索“埃及”一词得到的结果可能会差别很大。雅虎新闻和谷歌新闻都根据每个来访者以往的行为对显示的页面做了调整。而且,上个月开始,这种技术对新闻类网站如《华盛顿邮报》、《纽约时报》开始生效。

    当关于消费品的信息进入你的视野或从你的视野消失,这都是没有什么害处的。但个性化的信息除了影响我们的购买行为,还影响我们思维的方式,问题就严重了。民主社会发展依靠的是公民接触表达各种观点的能力;当网络提供给你的信息都是根据你以往的现成的观点时,这种个性化的信息就限制了你的参与能力。尽管有时只见到自己愿意见到的内容会很方便,但有些时候看到自己不想见到的内容也很重要。

    像以前的“把关人”那样,写“把关”代码的工程师有很大的权力决定我们了解世界上哪些内容。但是与以往那些把关人中的优秀分子不同,这些工程师不会认为自己承载着公众的信任。并不存在类似新闻职业道德那样的算法。

    Facebook的首席执行官马克•扎克伯格曾经告诉他的同事“与非洲垂死的人相比,眼下你家前院奄奄一息的松鼠也许会更与你的兴趣相关”。在Facebook,“相关性”几乎就是唯一决定用户所见内容的标准。关注最个性化的新闻(也即那个“松鼠”)是一个伟大的商业策略。但是,这样我们能看得的就只是前院发生的事情,再也读不到那些苦难、种族灭绝或者革命事件了。

    我们不可能回到过去的那种“把关人”体系了,也没必要。但是,如果算法代替编辑,决定我们所能看到的内容,我们得确信工程师能权衡多种因素而不是单一的“相关性”。除了给我们展示Apple 和卡内的新闻,我们还需要知道阿富汗和利比亚发生的事情。

    对此存在的问题,使用这些算法的公司必须认真地承担起补救的责任。他们必须给我们掌控我们所见东西的权利,也即我们必须清楚何时他们会采取个性化化的方法,而且还要有影响和调整我们自己的过滤器的权利。当然,我们公民这一方也必须配合,除了具备使用这些工具所需要的“过滤器”技能,还要能接受那些能开阔我们视野但让人不舒服的材料。

    让互联网真正能成为革命性的连接媒介是我们大家共同的利益。如果我们都被封闭在个性化信息的世界中,那将永远成不了现实。

    延伸阅读:网络真的“懂”你编辑本段回目录

    编者按:TED是一个非盈利性组织,致力于“传播有价值的思想”,它通过在其网站上发布一些谈话来使得人们能够接触这些思想。 帕雷瑟是MoveOn.org(民*主*行动组织)的前执行主任,现任该组织的董事会主席。他出版了自己的新书是“过滤器泡泡:网站对您隐藏了哪些东西”


    (CNN) -- With little notice or fanfare, the digital world is fundamentally changing. What was once an anonymous medium where anyone could be anyone -- where, in the words of the famous New Yorker cartoon, nobody knows you're a dog -- is now a tool for soliciting and analyzing our personal data.

    (美国有线电视新闻网) - 很少有人注意到,或者说在低调当中,数码世界正在从根本上发生改变。那些曾经的匿名媒介网站上,任何人都可能是任何身份——即著名的纽约人漫画上说的一句话,在上面,没人知道你是一条狗——现在却成为收集和分析我们个人数据的工具。

    According to one Wall Street Journal study, the top 50 Internet sites, from CNN to Yahoo to MSN, install an average of 64 data-laden cookies and personal tracking beacons each. Search for a word like "depression" on Dictionary.com, and the site installs up to 223 tracking cookies and beacons on your computer so that other Web sites can target you with antidepressants.

    据华尔街日报的研究中,排名前50位网站,从CNN到雅虎,再到MSN,每个网站平均安装设置了64个充满数据信息的Cookie或者说个人信息追踪指示器。在Dictionary.com翻译网站搜索单词“depression”,该网站就会在你的电脑上安装设置高达223个追踪Cookie和数据信息指示器,这样,别的网站就可以给你提供抗抑郁药的信息。

    The new Internet doesn't just know you're a dog; it knows your breed and wants to sell you a bowl of premium kibble.

    新兴的互联网应用不仅仅知道你是一只狗,而且知道你的品种,并且还打算将一碗粗磨粉狗粮卖给你。

    The race to know as much as possible about you has become the central battle of the era for Internet giants like Google, Facebook, Apple, and Microsoft. As Chris Palmer of the Electronic Frontier Foundation explained to me, "You're getting a free service, and the cost is information about you. And Google and Facebook translate that pretty directly into money."

    尽可能多地了解你的信息,已成为这个时代的互联网巨人,诸如谷歌、Facebook、苹果和微软之间的竞争。正如电子前沿基金会克的里斯.帕尔默向我解释的,“你得到免费服务,而付出的代价就是你的个人信息。谷歌和Facebook可以非常直接地将这些信息转化为金钱。”

    While Gmail and Facebook may be helpful, free tools, they are also extremely effective and voracious extraction engines into which we pour the most intimate details of our lives.

    虽然Gmail和Facebook可能是对我们有好处的免费工具,他们也是非常有效率的、贪婪的吸血引擎,我们倾注我们生活中最亲密的细节到这些引擎之中。

    As a business strategy, the Internet giants' formula is simple: The more personally relevant their information offerings are, the more ads they can sell, and the more likely you are to buy the products they're offering.

    作为一个商业战略,互联网巨人的公式很简单:他们的信息越是个性化,他们卖的广告越多,同时,你就越有可能购买他们提供的产品。

    And the formula works. Amazon sells billions of dollars worth of merchandise by predicting what each customer is interested in and putting it in the front of the virtual store.

    这个公式确实在起作用。通过预估客户喜欢的商品,并将这些商品放到虚拟商店的前沿,亚马逊网站卖出了价值数十亿美元的商品。

    What the Internet is hiding from you

    那互联网正在使得哪些东西让你不知道呢?

    Up to 60% of Netflix's rentals come from the personalized guesses it can make about each customer's movie preferences -- and at this point, Netflix can predict how much you'll like a given movie within about half a star. Personalization is a core strategy for the top five sites on the Internet -- Yahoo, Google, Facebook, YouTube, and Microsoft Live -- as well as countless others.

    网飞(Netflix)DVD出租公司高达60%的租金是来自对客户电影喜好的个人猜测—— 在这一点上,Netflix公司可以通过半星形式,预测到你对一部给定电影,有多大的喜欢程度。个性化是互联网上的五大网站的核心商业策略—— 雅虎,谷歌,Facebook,YouTube和微软Live - 以及其他无数的网站都是这么做的。

    It would be one thing if all this customization were just about targeted advertising. But personalization isn't just shaping what we buy. For a quickly rising percentage of us, personalized news feeds like Facebook are becoming a primary news source. Thirty-six percent of Americans under 30 get their news through social networking sites.

    是否所有这一切的客户化策略只是为了定制有针对性的广告,这将是问题的一个方面。但是,个性化不只是塑造我们购买什么的问题。对于我们中迅速上升的比例,个性化的新闻联播,如Facebook,正在成为一个新闻的主要来源。30岁以下的美国人当中,36%的人是通过社交网站获取消息的。

    And personalization is shaping how information flows far beyond Facebook, as websites from Yahoo News to the New York Times-funded startup News.me cater their headlines to our particular interests and desires. It's influencing what videos we watch on YouTube and a dozen smaller competitors, and what blog posts we see.

    随着雅虎新闻和纽约时代周刊的投资网站New.me开始使它们的头条迎合读者的特定兴趣和愿望,个性化正在以远超Facebook的影响力来塑造信息的流动方式。它正在影响我们在youtube和几个小竞争对手网站上看什么视频、看什么博客文章。

    It's affecting whose e-mails we get, which potential mates we run into on OK Cupid, and which restaurants are recommended to us on Yelp -- which means that personalization could easily have a hand not only in who goes on a date with whom, but in where they go and what they talk about. The algorithms that orchestrate our ads are starting to orchestrate our lives.

    它正在影响,我们得到哪些人的电子邮件,在OK Cupid网站上哪些是我们潜在的伴侣,在Yelp网站上推荐哪个餐厅给我们—— 这意味着个性化,不仅可以轻而易举地帮助我们和谁约会,也可以帮助我们到哪里去,以及谈什么内容。编排广告的算法开始编排我们的生活了。

    The basic code at the heart of the new Internet is pretty simple. The new generation of Internet filters looks at the things you seem to like -- the actual things you've done, or the things people similar to you like -- and tries to extrapolate. Together, these engines create a unique universe of information for each of us -- what I've come to call a filter bubble -- which fundamentally alters the way we encounter ideas and information.

    新兴的互联网的核心基本代码非常简单。在新一代的互联网过滤器关注的是你似乎喜欢的东西—— 你实际做的事情,或者类似的东西,你喜欢的人 ——并试图推断出来。总之,这些引擎创建一个我们每个人独特的全局信息——这就是我称之为“过滤器泡泡”的东西——这从根本上改变了我们以前遇到的想法和信息的方式。

    Of course, to some extent we've always consumed media that appealed to our interests and avocations and ignored much of the rest. But the filter bubble introduces three dynamics we've never dealt with before:

    当然,在一定程度上,我们一直消费那些吸引我们兴趣和爱好的媒体信息,同时忽略掉其他的部分。但是,过滤器泡泡加入了三个我们之前从来没有应付过的动力:

    First, you're alone in it. A cable channel that caters to a narrow interest (say, golf) has other viewers, with whom you share a frame of reference. But you're the only person in your bubble. In an age when shared information is the bedrock of shared experience, the filter bubble is a centrifugal force, pulling us apart.

    首先,你将独自面对过滤泡泡。一个有线电视频道,迎合的是狭隘单一的兴趣(比如,高尔夫)会有其他的观众,同那些人在一起,你可以分享一份参考信息。但你是唯一在泡泡中的人。在这样一个信息共享成为分享经验基石的时代,过滤器泡沫是一种离心力,把我们分开成一个个的个体。

    Second, the filter bubble is invisible. Most viewers of conservative or liberal news sources know when they're going to a station curated to serve a particular political viewpoint. But Google's agenda is opaque. Google doesn't tell you who it thinks you are, or why it's showing you the results you're seeing. You don't know if its assumptions about you are right or wrong -- and you might not even know it's making assumptions about you in the first place.

    第二,过滤器泡泡是无形的。大部分保守或自由的新闻观众知道,什么时候他们将去满足自己的政治观点投票站。但谷歌的日程单是不透明的。谷歌不会告诉你它认为你是谁,或者为什么它将这样的结果显示在你眼前。你不知道你的假设是否是正确的或错误的——你可能甚至不知道它对你的假设对还是不对。

    Finally, you don't choose to enter the bubble. When you turn on Fox News or read The Nation, you're making a decision about what kind of filter to use to make sense of the world. It's an active process, and just as you would if you put on tinted glasses, you can guess how the editors' leaning shapes your perception. You don't make the same kind of choice with personalized filters. They come to you -- and because they drive up profits for the websites that use them, they'll become harder and harder to avoid.

    最后,你不选择进入过滤泡泡。当您打开福克斯新闻或阅读Nation,你就在决定使用什么样的过滤器来理解世界。这是一个积极活动的过程,就像你,如果你戴上了有色眼镜时,就可能想象到编辑是怎样对你观点倾向进行塑造的。如果你有个性化的过滤器,你就不会这么选择了。他们来找上你——因为使用过滤器能为使用它们的网站提高利润,就会变得越来越难以避免。

    The consequences of living in a bubble are becoming clear. Left to their own devices, personalization filters serve up a kind of invisible autopropaganda, indoctrinating us with our own ideas, amplifying our desire for things that are familiar, and leaving us oblivious to the dangers lurking in the dark territory of the unknown.

    生活在一个泡泡中的最后结果是显而易见的。一切都留给自己的设备来处理,个性化过滤器服务成了一种无形的自动宣传工具,将自己的想法灌输给我们自己,放大我们对所熟悉的东西的愿望和期待,并让我们忘却潜伏在黑暗未知领域的危险。

    In the filter bubble, there's less room for the chance encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures. Combine an understanding of cooking and physics, and you get the nonstick pan and the induction stovetop. But if Amazon thinks I'm interested in cookbooks, it's not very likely to show me books about metallurgy. It's not just serendipity that's at risk.

    在过滤器中的泡泡,有很少的空间遇到能带来的洞察力和学习的机会。创意往往是引发由来自不同学科和文化的思想碰撞。对烹饪和物理学的理解的结合起来,你可以得到不沾锅和感应炉灶。但是,如果亚马逊认为我对食谱有兴趣,就不可能把冶金的书籍呈现给我了。这不只是偶然,而是危险。

    By definition, a world constructed from the familiar is a world in which there's nothing to learn. If personalization is too acute, it could prevent us from coming into contact with the mind-blowing, preconception-shattering experiences and ideas that change how we think about the world and ourselves.

    可以肯定,一个从熟悉中构建的世界是没有什么可借鉴的。如果个性化太严重,它可能阻止我们在头脑风暴、破除偏见经验中交流,也有可能阻碍我们对世界和我们自己认识的思考方式的改变。

    It's not too late to make sure that personalization avoids these traps. But to shift its course, we need more people to become educated about how and why the Web is being edited for them, and we need the companies doing this filtering to show us not just what we'll click most, but what we need to know. Otherwise, we could each find ourselves trapped in a bubble for one.

    确保个性化避免这些陷阱,还不算太晚。但要改变它的进程,我们需要更多的人接受网站如何和为什么这样编辑的教育,我们需要让制作过滤器的公司向我们展示那些我们点击不是最多的内容,我们需要知道。否则,我们每个人就会发现自己被困在一个泡泡之中。

    (The opinions expressed in this commentary are solely those of Eli Pariser.)

    (在这篇评论中表达的观点仅代表埃利. 帕雷瑟。)

    雾里看花:互联网对你隐瞒了什么?编辑本段回目录

    《雾里看花:互联网对你隐瞒了什么?》(The Filter Bubble: What the Internet is Hiding From You) 以利·帕里瑟(Eli Pariser)著。企鹅出版社出版。全书294页。定价25.95美元。

    以利·帕里瑟很担心。为什么呢?试试看,给身处外地或者外国的朋友们打个电话,让他们和你同时在Google上搜一样东西,你们得到的搜索结果会截然不同。这是因为在Google提供搜索结果的时候,会将人们所在的位置、搜索历史以及其他一些因素考虑在内。换言之,它会给你提供“个性化”的搜索结果。就像Google首席执行官拉瑞·佩奇(Larry Page)所说的,“我们强大的搜索引擎能完全明白你的意思,从而为你提供你最需要的结果。”Google的执行总裁埃里克·施密特(Eric Schmidt)则认为,也许终有一天人们会去咨询Google自己应该上哪所大学,或者接下来该读哪本书。

    这只是互联网人性化的一个简单例子。帕里瑟先生是一位互联网活动家,他因掌管前卫网上活动网站MoveOn.org而广为人知。他认为互联网人性化是一种非常危险的趋势。NetflixAmazonPandora等网站可以很精确地预测你喜欢的电影、书籍和唱片,并作出恰如其分的推荐。Facebook可以向你展示你最关心的朋友的动向,并过滤掉那些和你没有共同语言的人。帕里瑟先生这样写道,“当我发现那些‘保守’的朋友们从我Facebook页面上消失之后,顿时感到一丝不安。”这种结果就像是“雾里看花”,每个人看到的都是“一组特定信息的集合”,这就意味着我们不太可能在网上读上什么真正新鲜的信息,或者结识新的朋友。帕里瑟先生宣称:“在一个用熟悉事物营造的世界,我们什么新东西也学不到。”他将此称为“看不见的自我宣传”,即用我们自己的思维去灌输我们自己。

    这听起来挺吓人的。帕里瑟先生承认这种人性化和过滤功能有一定的合理性。当搜索获得海量信息的时候,它可以通过分析你的兴趣和你的交际圈过滤并找出适合你访问的网站。这基本上就像是个交易,你提供自己的个人信息,以换取有用的搜索结果。但这却阉割了互联网的一项功能即打破相互联系不大的人或者组织之间的社会壁垒的功能。帕里瑟先生忧心忡忡地写道,“我们正被粘得越来越紧,可沟通的桥梁却越来越少。”更有甚者,当互联网日益成为重要的信息来源(目前美国人的新闻来源中互联网仅次于电视,且对30岁以下的美国人来说,网络是最重要的新闻来源),人们可能会早不知不觉间远离那些令人不快的或者是复杂的重要话题,比如说无家可归者的问题或者外交政策问题。简而言之,帕里瑟先生关心的是,由于所谓的“个性化”,网络正逐渐背离它的“变革承诺”。(即不能继续推动人类和社会发展译者注。)

    最近互联网正因其固有的“民主情结”成为一个热门话题,尤其是在所谓的“阿拉伯之春”中,它同时为争斗的双方提供了助力。在1月份出版的《网络错觉》(The Net Delusion)一书中,作者尤金·莫罗佐夫(Evgeny Morozov)批判了将争取解放和获取权力寄望于网络的行为,他将这些称做“虚拟乌托邦”,他指出网络很容易被反过来用作镇压工具。与莫罗佐夫先生激烈的“破除网络迷信”主张相反,帕里瑟先生的论点很值得关注,他是从一个开放进步的角度批评互联网的。

    帕里瑟在书中提供了一份关于网络朝人性化发展的调查报告,解读了信息发布透明度对用户感受的影响,并对充斥于人们身边的各种“过滤”现象作了总结。作者的有些建议很有意义:毫无疑问互联网公司应该给用户在个人信息上提供更多的自主权。比如说有些情况下应当允许用户关闭“个性化”功能。如果你非常讨厌这种所谓的“个性化”过滤功能,那么完全可以选择那些在提供信息时更具透明度的网站。(首先就得把FacebookGoogle排除在外。这两者正是帕里瑟先生主要针对的目标,它们都将自己的过滤算法列为商业机密。)

    帕里瑟先生别的一些观点实在没什么说服力。他建议为大型互联网公司设立专门的审查机构,就像报纸行业那样。他主张那些网站的系统应该提供一些更“意外”的结果(他的意思貌似就是随机提供) - 比如说Amazon可以向用户推荐不属于他们喜爱类型的书籍,去碰运气,看看用户们是不是喜欢。另一个建议是让人类编辑辅助筛选算法,在提供过滤结果的同时提供一些另外值得用户去看的东西。这将会轻而易举地让新闻网站之类的互联网公司变得不再有偏差。最奇怪的是,帕里瑟先生呼吁那些大型互联网公司提供“积极的公共话题推广”和“公民意识培养”。无论你是否赞同帕里瑟先生的主张,毫无疑问他的书都明确地指出了网络发展中一些被忽略的方面,而这些方面会影响到每一个使用网络的人。

    参考文献编辑本段回目录

    http://article.yeeyan.org/view/153413/196381?from=index_cate_article
    http://edition.cnn.com/2011/OPINION/05/22/pariser.filter.bubble/index.html?hpt=Sbin
    http://dongxi.net/b06MC
    http://www.amazon.com/Filter-Bubble-What-Internet-Hiding/dp/1594203008
    http://www.alibuybuy.com/posts/60338.html
    http://dongxi.net/b08y9

    →如果您认为本词条还有待完善,请 编辑词条

    词条内容仅供参考,如果您需要解决具体问题
    (尤其在法律、医学等领域),建议您咨询相关领域专业人士。
    0

    标签: 《过滤器泡泡》

    收藏到: Favorites  

    同义词: The Filter Bubble,《过滤器泡沫》,Eli Pariser,埃利·帕雷瑟

    关于本词条的评论 (共0条)发表评论>>

    对词条发表评论

    评论长度最大为200个字符。