广泛烧钱之后,滴滴正试图加快商业盈利步伐。今日,滴滴宣布即将上线汽车上门试驾服务,该业务代号为“X计划”,被形容为“滴滴进行商业化探索的第一个新产品”。截至目前,滴滴公布的产品线已增至7条:出租车、专车、快车、顺风车、代驾、滴滴大巴,以及今日公布的试驾。相比较其他业务,试驾给滴滴带来更大的商业空间。滴滴试驾是个怎样的业务?简单说来,乘客通过滴滴出行的“试驾”入口,浏览、预约品牌汽车,经过平台认证的车主提供上门服务,乘客可以按照自己规划的线路驾驶,并通过与认证车主互动聊天,了解车辆况。滴滴并非首家试水试驾业务的用车软件,刚刚卖身乐视的易到也曾推出过试驾业务,无独有偶,该业务同样被易到寄予盈利期望:厂商提供试驾车辆资源和资金支持,易到则负责运营,在品牌推广、活动宣传方面易到会和厂商配合进行。,滴滴在新闻稿中是如此描述的“迄今通过滴滴试驾可以预约到超过20个品牌、100多个车型。汽车价位从10万左右到100万以上,覆盖了多种级别的主流车型。在和厂商的合作上,继奔驰首家入驻滴滴试驾平台后,其他国际国内知名汽车品牌陆续入驻滴滴试驾。”,滴滴意在将有车有本的用户均转化成其潜在“车主”。从实际体验来看,点击“试驾”无论是否想成为车主,用户均需要填写车主信息,包括姓名、身份证、车牌号、驾驶证、行驶证,无法跳过直接进行汽车预约。滴滴对此的回应是,“现在是车主征集报名阶段,所以必须要注册成车主才能进行下一步。”据悉,10月23日试驾业务在北京正式上线,预计于11月覆盖上海、广州、深圳、成都、杭州总计6个城市。借助试驾入口,滴滴可以怎么玩?“滴滴试驾旨在服务打算购置车辆、对汽车驾驶体验有爱好的用户,通过滴滴创造一个品牌车主、品牌汽车和意向购买者的体验式交互场景,既是滴滴出行服务的延伸,又能给品牌汽车厂商提供很好的营销服务。”滴滴出行技术副总裁、商业事业部总经理朱磊如此表述“试驾”的商业价值。从中可以看出滴滴主要想通过试驾来进入汽车营销服务。一方面握有精准的购车用户,另一方面有与之合作的汽车厂商,从而可以为汽车厂商提供营销服务,说白了就是卖车广告,或许可以从中抽成。做汽车营销是因为平台上有汽车厂商,而被滴滴寄予厚望的,并非车商而是个人车主。车主从提供汽车试驾,到二手车买卖,是十分自然的承接。若滴滴真加入到撮合交易环节,将对C2C二手车交易平台将造成很大冲击。如上文所述,若要尝试滴滴试驾需要填写包括姓名、身份证、车牌号、驾驶证、行驶证等个人信息,掌握个人信息后,可以开展的业务很多,而汽车保险是最好入手的一环。包括养车典典等汽车后市场APP的营收重点,大多来自汽车保险。从目前招募个人车主的力度来看,笔者猜测在上述业务中营销是表面,滴滴想要深入挖掘的或许是二手车交易市场。在上线试驾后,最有危机感的或许将是二手车交易平台。

人工智能经历了几次低潮时期,这些灰暗时光被称作“AI寒冬”。这里说的不是那段时期,事实上,人工智能如今变得异常火热,以至于科技巨头谷歌、Facebook、苹果、百度和微软正在争抢该领域的领袖人物。当前人工智能之所以引起大家的兴奋,在很大程度上是源于“卷积神经网络”的研究进展。这项机器学习技术为计算机视觉、语音识别和自然语言处理带来了巨大的、激动人心的进步。你可能已经听过它另一个更加通俗友好的名字——深度学习。几乎没有人比54岁的Yann LeCun更能与深度学习紧密地联系在一起。早在20世纪80年代末,LeCun就作为贝尔实验室的研究员开发出了卷积网络技术,并展示如何使用它来大幅度提高手写识别能力;目前美国许多手写支票依然是用他的方法在进行处理。上世纪末本世纪初,当神经网络失宠,LeCun是少数几名一直坚持研究的科学家之一。他于2003年成为纽约大学教授,并从此引领了深度学习的发展。最近,深度学习及其相关领域已然成为最活跃的计算机研究领域之一。这就是LeCun在2013年底加入Facebook负责新成立的人工智能实验室的原因之一,尽管他依然保持着在纽约大学的职务。LeCun出生在法国,保留了一些本国的“公共知识分子”角色所发挥的重要性。他的写作和演讲主要是集中在他的技术领域,当然,当涉及到其他领域,包括当今时事时,他也不会退让。IEEE Spectrum的Lee Gomes与LeCun在他纽约的Facebook办公室里进行了一次深度谈话,共有九部分。一、用8个单词解释深度学习这些天我们看到了许多关于深度学习的新闻。在这些对深度学习的众多描述中,你最不喜欢哪一种?我最不喜欢的描述是“它像大脑一样工作”,我不喜欢人们这样说的原因是,虽然深度学习从生命的生物机理中获得灵感,但它与大脑的实际工作原理差别非常非常巨大。将它与大脑进行类比给它赋予了一些神奇的光环,这种描述是危险的,这将导致天花乱坠的宣传,大家在要求一些不切实际的事情。人工智能之前经历了几次寒冬就是因为人们要求了一些人工智能无法给与的东西。因此,如果你是一名关注深度学习的记者,而且像所有新闻记者所做的那样,只用八个单词去描述它,你会说什么?我需要考虑一下。我想将会是“学着描绘世界的机器”(machines that learn to represent the world)。可能另外一种描述是“端对端的机器学习”(end-to-end machine learning)。这种理念是:在一个能够学习的机器中,每一个组件、每一个阶段都能进行训练。你的编辑可能不大喜欢这样。是的,公众将无法理解我所表达的意思。好吧,有另外一种方法。你可以把深度学习看作是,通过整合大量能够基于相同方式训练的模块和组件来构建拥有学习能力的机器,比如说模式识别系统等。因此,需要一个能够训练每个事物的单一原则。但这又超过了八个字。有哪些事情是深度学习系统可以做,而机器学习无法做到的?这是个更好的问题。之前的系统,我想我们可以称之为“肤浅的学习系统”,会受系统能计算的函数的复杂度的限制。因此,如果你使用一个类似于“线性分类器”的肤浅学习算法来识别图像,你将需要从图像中提取出足够多的参数特征来提供给它。但手动设计一个特征提取器非常困难,而且很耗时。或者使用一个更加灵活的分类器,比如说“支持向量机”或者两层神经网络,直接将图片的像素提供给它们。而问题是这不会提高物体识别的准确性。这听起来不像是一个简单易懂的解释,或许这就是为什么那些记者会尝试着把深度学习描述成……像我们的大脑。二、有5亿个开关的黑盒子其中有一个问题是,机器学习是一个非专业人士极其难以接近的研究领域。一些经过教育的外行能够理解一些半技术性的计算问题,比如说谷歌使用的PageRank算法,但我敢打赌只有教授才能对线性分类器和向量机了若指掌,这是因为该领域从本质上就很复杂难懂吗?事实上,我认为机器学习的基础原理非常简单易懂。我曾经向高中的老师和学生解释过这一主题,并没有让其中的许多人觉得枯燥乏味。模式识别系统就像一个黑盒子,背面装有摄像头,顶上有一个红灯和一个绿灯,前面装有一连串开关。比如说一种尝试着调节开关的学习算法,当一条狗出现在摄像头中时控制开关使红灯亮起;当一辆车出现在摄像头中时控制开关使绿灯亮起。为了训练该算法,你将一条狗放在机器面前,如果红灯亮起,什么都不做。如果光线模糊,扭动旋钮使灯变亮。如果绿灯亮起,扭动旋钮使灯光变暗;接下来换成汽车,扭动旋钮使红灯变暗或绿灯变亮。如果你进行多次尝试,并且保持每次都对旋钮进行逐渐微调,最终,机器每次都能得出正确答案。有趣的是它能正确的区分开它从未见过的汽车和狗。窍门在于要计算出每次扭动旋钮的方向和幅度,而不是乱动一气。这包含对“梯度”的计算,旋钮的每次扭动代表着灯光的相应改变。现在想象一下,有个盒子拥有5亿个旋钮、1000个灯泡,用1000万张图来训练它,这就是一个典型的深度学习系统。我认为你用“肤浅的学习”这个词好像有些不太严谨;我不认为那些使用线性分类器的人会认为他们的工作很“肤浅”。之所以用“深度学习”这个表述难道就没有媒体宣传的因素在里面?因为这看起来好像它学到的东西很有深度,但实际上,“深度”仅仅是指这个系统的级数?是的,是有点儿滑稽,但这反映了真实情况:肤浅学习系统有一层或两层,而深度学习系统一般有5-20层。肤浅还是深度指的并不是学习行为本身,而是指被训练的结构。三、追寻漂亮的创意Yann LeCun的标准简历里提到,在他们都对神经网络失去兴趣时,你依然坚持着探索神经网络的新方法。是什么使你能够无视世俗认知并一直坚持下去?自始至终,我都一直深深沉迷于能够训练出一套完整的“端对端”系统。你将未经加工的数据输入系统,因为系统具有多层结构,每一层都将知道如何对上一层产生的表征进行转化,直到最后一层输出结果。该理念——从头到尾你都应该把学习融合进来,以便机器能够学习到好的数据表征——这就是我在过去三十年终所着迷的东西。你的工作是符合黑客原则,还是科学原则?你是一直尝试到它们可以运行为止?还是会从洞悉理论开始?直觉洞察、理论模型、实际执行、实证研究与科学分析之间存在很多相互影响。洞察力是一种创造性思维;模型基于数学;实际执行涉及工程学和纯粹的黑客行为;实证研究和分析属于实实在在的科学。其中我最喜欢的是那些能够在实施中成功运行的简洁优美的理论。有些人倾向使用某种理论的原因仅仅是因为它简单,或者他们不理会那些真正有用的理论的原因是它们太难了,我对这样的研究人员完全没有耐心。在机器学习领域存在一些这样的现象。事实上,从某种程度上来说,上世纪末本世纪初的“神经网络寒冬”就是那种“研究原则”所导致的。看似拥有坚不可摧的理论依据,但实证结果却没有价值,这非常不利于解决接下来的工程问题。但采用纯粹的实证研究方法也有许多隐患。例如,语音识别领域一直保持实证研究的传统,只有当你的结果由于基准线时,才能得到本行业的关注。这扼杀了创造力,因为如果你想在测试结果上击败其他研究团队,而他们对此已经做了多年研究,那你首先应该潜心研究4-5年,建造自己的基本架构,这非常困难,且极具风险,因此没人这么做。所以对于整个语音识别领域,虽然研究进展连续不断,但都属于渐进式。你看起来一直在竭尽全力的将你的工作与神经科学和生物学拉开距离。例如,你提到了“卷积网络”,而不是“卷积神经网络”。你在你的算法里提到了“单位/个体”(units),而非“神经元”。的确如此。我们模型中的一些部分从神经科学中获得了灵感,但还有相当多部分与神经科学毫不相干,相反,它们是来源于理论、直觉和经验探索。我们的模型不希望变成大脑的模型,我们也没有宣称神经科学方面的相关性。但同时,如果说卷积网络的灵感来源于一些关于视觉皮质的基础知识,我也可以接受。有些人间接从神经科学获得灵感,但他却不肯承认这一点,我承认,这(神经科学)很有帮助。但我会小心翼翼的不去触碰那些会引发大肆宣传的词语,因为这个领域已经出现了疯狂炒作,这非常危险。四、大肆宣传的东西看起来像科学,但实际上不是炒作毫无疑问是有害的,但你为什么说这是“危险的”?因为这给基金会、公众、潜在客户、创业公司和投资者带来了预期,他们会因此相信我们正处在风口浪尖——我们正在建造一些像大脑一样强大的系统,但实际上我们离这个目标还差的很远。这很容易导致另一次的“寒冬周期”。这里会出现一些“草包族科学”(cargo cult science),这是理查·费曼的表达,指描述某些事物貌似科学,但实际上不是(译者注:这出自理查·费曼1974年在加州理工学院的一场毕业典礼演说,描述某些事物貌似科学,却遗漏了“科学的品德,也就是进行科学思考时必须遵守的诚实原则”)。能举几个例子吗?在“草包族科学”下,你往往是复制了机器的表象,却没有深入理解机器背后的原理。或者,在航空领域,你制造飞机时会完全复制鸟类的样子,它的羽毛、翅膀等等。19世纪的人们很喜欢这么做,但取得的成就非常有限。在人工智能领域也是如此,他们尝试着对我们所知晓的神经元和神经突触的所有细节进行复制,然后在一台超级计算机上启动一套庞大的模拟神经网络,希望从中孕育出人工智能,这就是“草包族科学”的人工智能。有许多拿到大笔基金支持的严肃的研究者基本上快要相信这些了。你认为IBM的True North项目(译者注:IBM的类人脑芯片,集成了 54 亿个硅晶体管、 4096 个内核、100 万个“神经元”和2.56 亿个“突触”)属于“草包族科学”吗?这听起来会有些刺耳。但我的确认为,IBM团队所声称的东西有点偏差并容易造成误解。从表面上看,他们的公告令人印象深刻,但实际上没有实现任何有价值的东西。在True North之前,那个团队用IBM的超级计算机来“模拟了一个老鼠级别的大脑”,但这只是一个随机的神经网络,除了消耗CPU运算周期以外没有发挥任何作用。True North芯片的悲剧在于它本来可以很有用,如果它当初没有坚持与生物学走的太近以及没有使用"spiking integrate-and-fireneurons"模型的话。因此在我看来——我曾是一个芯片设计者——当你在开发一个芯片之前,你必须确信无疑它能做些有用的事情。如果你打造了一个卷积网络芯片——很清楚如何去做——它能立刻应用到计算设备中。IBM创造了错误的东西,我们无法用它去完成任何有用的事情。还有其他例子吗?从根本上说,欧盟人脑计划(Human Brain Project)中的很大部分也是基于这样一种理念:我们应该建造一种模拟神经元功能的芯片,越接近越好,然后将芯片用于建造超级计算机,当我们用一些学习规则来开启它时,人工智能就出现了。我认为这纯属胡说八道。诚然,我刚才指的是欧盟人脑计划,并不是讽刺参与这个项目的每个人。许多人参与该项目的原因仅仅是因为它能获得巨额资助,这是他们所无法拒绝的。五、无监督学习——机器需要的学习方式对于一般意义上的机器学习,还有多少是有待发掘的?太多了。我们在实际的深度学习系统中使用的学习方式还是存在局限的。在具体实践中发挥作用的其实是“有监督学习”。你将一张图片展现给系统并告诉它这是一辆车,它就会相应调整它的参数并在下一次说出“车”。然后你再展现给它一把椅子、一个人。在几百个例子、耗费几天到几周的计算时间(取决于系统规模)之后,它就弄明白了。但人类和动物不是这种学习方式。当你还是婴儿时,你并没有被告知你所看到的所有物体的名字。然而你却能学会这些物体的概念,你知道世界是三维的,当我把物体放在另一个的后面,你还是知道它的存在。这些概念不是与生俱来的,是你将它们学会了。我们把这种类型的学习称作“无监督”学习。2000s中期,我们中的许多人参与到了深度学习的复兴运动中,包括Geoff Hinton、Yoshua Bengio和我自己——这就是所谓的“深度学习团体”——还有Andrew Ng,从此使用无监督学习而非有监督学习的理念开始兴起。无监督学习可以帮助特定的深度网络进行“预训练”。我们在这方面取得了不少成果,但最终能够应用于实践的还是过去那些能与卷积网络相结合的出色的有监督学习,我们在20年前(1980s)所做的事情。但从研究的角度来看,我们一直感兴趣的是如何恰当地做好无监督学习。我们现在已经拥有了可以实用的无监督技术,但问题在于,我们仅需要收集更多数据,再配合有监督学习就能击败它。这就是为什么在现阶段的产业中,深度学习的应用基本上都是有监督的。但将来不会再是这种方式。从本质上来说,在无监督学习方面,大脑远好于我们的模型,这意味着我们的人工智能学习系统缺失了许多生物机理学习的基本原则。六、Facebook的深度学习Facebook有兴趣建立一个人工智能实验室的原因有哪些?Facebook的宗旨是连接人与人(connect people)。这更意味着连接人与数字世界。2013年底,Facebook即将迎来十周年诞辰,MarkZuckerberg决定创建Facebook人工智能实验室,就是我领导的那个部门。公司在考虑未来十年间连接人与人意味着什么,然后意识到人工智能将发挥关键作用。 每天Facebook能向每个人展示2000条内容:帖子、图片和视频等。但没人有时间看这么多内容。因此Facebook必须自动筛选100到150项用户想看或需要看的内容。要深谙此道必须先理解人们,包括他们的口味、兴趣、关系、需要,甚至是生活目标等。也需要理解内容,知道帖子或者评论在讲些什么,图片和视频包含什么内容。只有这样,才能把最相关的内容筛选出来并呈现在用户面前。在某种意义上,出色地完成这项工作是一个“彻头彻尾的人工智能”问题:这需要理解人、情绪、文化和艺术。我们在Facebook人工智能实验室的大部分工作都是聚焦于制定新理论、新原则、新方法和新系统,以让机器理解图片、视频和语言,随后对其进行推理。我们刚刚谈及炒作,我自己也对炒作有些微辞。Facebook最近公布了一个人脸识别算法DeepFace,很多报道称人脸识别技术的准确性已经接近于人。但那些结果难道不是在精心策划的数据库中跑出来的么?如果在互联网上遇到随机的图片,这个系统报告还能取得同样的成功么?相比于人类,系统对图片质量更为敏感,这是肯定的。人们能通过不同的面部胡须等特征识别出众多不同构造的人脸,计算机系统在这方面鲜有优势。但是系统可以在非常大的人类集合中识别出某个人,这个集合会远远超出人类的处理能力。浏览网上的图片并找出譬如说奥巴马是否出现在图片里,DeepFace能否做的比我强?毫无疑问它将会更快。它会更准确吗?可能不会,但是它能从数亿人中发现某人,我可做不到。它能像研究中那样,达到97.25%的准确率么?没有在数据库上进行测试是很难说出一个具体数字的,这完全取决于数据的性质,如果图片库里有数亿张脸,那精确性就远不及97.25%。这里有个问题似乎是计算机研究者们使用的某些行话和外行们的理解有着不同含义。当研究人员论及“准确率”,他们实际上可能说的是精选的数据集得出的结果。而外行们可能认为,计算机识别图片就像我们日常生活中随意看到的图片一样,但是结果对计算机系统的要求要比它们新闻报道中的表现更为苛刻。是的。我们也进行许多基准测试,像其他人一样利用户外脸部检测数据库等,当然也将我们的方法和别人做比较。当然,我们也有内部数据库。所以一般而言,面对你们随意从网上找的图片,计算机在人脸识别上的表现有多接近于人?相当接近。能给个数字么?不,不行,情景不一样(结果也不一样)。在图片识别之外的领域,深度学习表现如何,尤其是当涉及到诸如自然语言等通用智能相关问题的时候?我们在Facebook的很大一部分工作都是集中于此。我们如何将深度学习的优势,与其通过学习描绘世界的能力、从短暂的信号中积累知识的能力(伴随着语言出现)、推理能力、与当前深度学习系统采取不同方式的知识存储能力结合起来?在当前深度学习系统下,就像学习一项运动技能,我们训练它们的方式类似于我们自学骑自行车。你学到了一项技能,但实际上却不涉及大量事实记忆或知识。但你学的其他一些事情,就必须要求你记住事实,你必须记住并储存一些东西。在Facebook、Google和其他许多地方,我们做的大量工作是一边建立神经网络,一边建立一个独立的存储器模块,这能被运用于自然语言理解等领域。我们开始看到,经由存储器模块强化的深度学习帮助自然语言处理取得了令人印象深刻的结果。该系统基于这样的理念,即用连续向量描述词语和句子,经由深层架构的多层级完成对这些向量的转化,并将它们存储在一种联合型存储器里。这对问答和语言翻译都非常有效。这种模式的一个范例是存储网络(Memory Network),这个模型是Facebook科学家Jason Weston、Sumit Chopra和 Antoine Bordes最近提出的。Google/Deep Mind的科学家也提出了一个相关概念“神经图灵机”(Neural Turing Machine)。所以你不认为深度学习将会成为解锁通用人工智能的那把钥匙?它将是解决方案中的一部分。在一定程度上,这一解决方案看上去像一张巨大而复杂的神经网络。但这与人们迄今在文献中看到的有很大不同。我说的这些东西,你已经可以开始看到一些相关论文了。许多人正在研究所谓的“周期神经网络”(recurrent neural nets)。在这些神经网络中,输出被反馈到输入端,这样你就能形成一个推理链。你可以借此来处序列信号,像语音、音频、视频和语言,初步结果相当不错。深度学习的下一个前沿课题是自然语言理解。如果一切顺利,我们可以期待机器很快能做到哪些它们现在做不到的事情吗?你或许能看到更好的语音识别系统,但在某种程度上它们是隐藏起来的。你的数字伴侣将会变得更完善;将会有更好的问答和对话系统;你可以和你的计算机进行对话;你可以向计算机发问而它会从知识库中为你寻找答案;机器翻译将会更精准;你还能看到自动驾驶汽车和更聪明的机器人,自动驾驶汽车将会使用卷积网络。七、深度学习能让机器获得常识吗?在准备这次采访时,我征集了一些计算领域从业者想要问您的问题。艾伦人工智能研究院(Allen Institute for ArtificialIntelligence,简称AI2)主任Oren Etzioni对于改进图灵测试的Winograd Schemas挑战(简称WS挑战)很感兴趣。WS挑战不仅仅涉及自然语言和常识,还包括对于现代社会运行机制的理解。计算机可能会采取何种办法来应对这些挑战?这个问题的关键是如何表达知识。在“传统的”人工智能里,事实知识以图形(是一套符号或实体及相互关系)的方式被手工输入。但我们都知道人工智能系统是可以通过学习自动获取知识的。所以问题就变成了“机器如何才能学会表达有关事实和关系的知识?”深度学习毋庸置疑是解决方案的一部分,但不是全部。符号的问题在于它只是一串毫无意义的比特,在深度学习系统里,代表实体的是大规模的向量,而它们是从数据和反应这些数据的特征中学习而来的。学习推理要归结于学会对使这些向量运算的函数。Facebook的研究人员Jason Weston、RonanCollobert、Antonine Bordes和Tomas Mikolov等人已经率先开始尝试用向量来表达单词和语言。人工智能的一个经典问题是让机器获得常识。深度学习领域对这个问题有什么见解?我认为通过使用预测式无监督学习可以获得某种常识。例如,我可以让机器观看大量的关于物体被抛掷或下落的视频。我训练它的方法是给它看一个视频,然后问它:“接下来会发生什么?一秒钟之后画面将如何?”以这种方式训练机器去预测一秒钟后、一分钟后、一小时后或一天后世界将会如何,它将获得很好的对世界的描述。这会使得机器了解物理世界的众多限制,如“抛向空中的物体在一段时间后将下落”、或者“一个物体不能同时在两个地方”、或者“物体被挡住后仍然存在”。了解物理世界的限制将使机器能够“填补空白”,以及在被告知包含一系列事件的故事后对世界的状态进行预测。 JasonWeston、Sumit Chopra和Antoine Bordes正在利用我刚才讲到的“记忆网络”建造这样一个系统。谈及人类的智能和意识时,很多科学家常说我们甚至不知道我们所不知道的东西到底是什么。你认为在建造人工智能时也会遇到这个问题吗?这很难说。我曾说过建造人工智能就像是开车在迷雾中前行,你只是顺着你能看见的路往前开,但是可能会突然出现一堵墙在你眼前。这样的故事在人工智能领域屡见不鲜:50、60年代的感知机(Perceptrons)如此;70年代的句法符号方法(syntactic-symbolicapproach)如此;80年代的专家系统如此;90年代初的神经网络(neural nets)依然如此;还有像图像模型、核机器(kernel machines)及其他诸多研究都是如此。每次都会产生一些新的进展和新的理解,但也会产生一些需要突破的限制。另外一个问题是来自加州大学伯克利分校的著名教授Stuart Dreyfus和Hubert Dreyfus兄弟:“媒体有报道说计算机现在已经厉害到能够识别并且自由攻击特定目标的程度,你对这件事及背后的道德问题怎么看?”我想道德问题不应该只丢给科学家!关于人工智能的伦理道德问题必须进行讨论。最终我们应当要建立一套关于人工智能可以用来做什么、不可以用来做什么的伦理准则。这并不是新问题。与很多强大技术伴随而来的伦理问题都需要社会来解答一样,比如核武器和化学武器、核能、生物科技、基因操纵与克隆、信息获取。我个人认为机器在无人类决策的情况下不可能发起攻击。但是话又说回来,这一类道德问题需要通过民主与政治程序来集体考察。你常常发表关于政治话题的尖刻评论,Facebook的掌门人不担心吗?只有一些问题让我坐不住,一种是不基于事实和证据的政治决策,只要某个重要决策的制定不是基于理性的我都会有所反应。聪明人对于解决问题的最佳方案可以有分歧,但是如果人们对坚定的事实都不能取得一致的话,我认为是非常危险的,这就是我所呼吁的。碰巧在这个国家,那些支持非理性决策与基于宗教决策的人们大部分都是右派的。但是我也要提醒左派的人,比如那些认为所有转基因生物(Genetically Modified Organisms)都邪恶的人──只有部分转基因生物是邪恶的,还有那些因非理性原因反对接种疫苗或核能利用的人。我是一个理性主义者。我也是一个无神论者、人文主义者,我并不害怕承认。我的道德理念的目标是,从长远来看使人类整体幸福最大化及使人类苦难最小化。这些只是我的个人见解,与我的雇主无关。我尽量明确的分隔开我(发表在Facebook个人主页)的个人见解以及我(发表在我的Facebook公共主页上)的专业文章。八、老生常谈的奇点理论你之前已经说过,不同意那些与“奇点运动”相关的观点。我很感兴趣的是你如何看待与之相关的社会学方面的问题?对于它在硅谷如此受欢迎你怎么解读?很难讲,对于这个现象我也有点困惑。正如 Neil Gershenfeld(译者注,麻省理工The Center for Bits and Atoms主任)指出,sigmoid函数曲线的初始部分是指数型上升的,这也意味着现在看起来指数般增长的趋势很可能会在将来遇到瓶颈,包括物理、经济,以及社会方面,紧接着经历拐点,然后饱和。我是乐观主义者,但同时也是现实主义者。确实有些人会大肆宣扬奇点理论,比如 Ray Kurzweil。他是个典型的未来主义者,对未来持有实证主义的观点。通过大捧奇点,他卖了很多书。但据我所知,他却对人工智能学科没有丝毫贡献。他卖了很多科技产品,其中一些有一定的创新,但并没有概念性的创新突破。确定无疑的是他没写过任何指导人们如何在人工智能方面有所突破和进展的论文。你觉得他在Google现有的位子上有什么成就吗?迄今为止,好像寥寥无几。我也注意到当我和一些研究者讨论奇点理论时,有一个很有趣的现象。私下里他们好像对此(奇点理论)很不以为然,可是一到公众场合,他们的评论又会温和很多。这是因为硅谷的一切大人物都很相信的原因吗?一线的人工智能研究者需要保证一种微妙的平衡:对于目标要保持乐观,但也不能过分吹嘘。需要指出其中不易,但也不能让人觉得希望渺茫。你需要对你的投资者、赞助商以及雇员诚实;需要对你的同事、同行诚实;还需要对外界公众和自己诚实。当未来的进步有很多不确定时,尤其是当那些不够诚实和自欺欺人的人总是对未来的成功夸下海口时,这(继续保持诚实)很困难。这就是为什么我们不喜欢不切实际地大肆宣扬的原因,这是由那些不诚实或者自欺欺人的人干出来的,但却会让那些严谨诚实的科学家的工作变得更难。如果你在Larry Page、Sergey Brin、Elon Musk和Mark Zuckerberg那样的位置上,你就得时刻思考长期来看科技到底该走向何处。因为你掌握着大量资源,并且可以利用这些资源让未来朝你认为更好的方向行进。因此不可避免地你得问自己这些问题:10年,20年甚至30年后的科技到底会是什么样子?人工智能的发展,奇点以及伦理问题到底会是怎样?是的,你说的对。但是你自己对于计算机科技如何发展有着很清晰的判断,我不觉得你会相信我们在未来30年就可以实现下载我们的意识。不会很快。或许永远不可能。不,你不能说永远不可能。科技在加速前进着,日新月异。有些问题需要我们现在就开始关注,而另外一些则很遥远,或许我们可以在科幻作品中费点笔墨,但现在还没有担心的必要。九、有时我需要亲手创造些东西另一个问题来自一位研究人员,C++之父BjarneStroustrup问:“你曾经做过一些非常酷的玩意儿,其中大多数能够飞起来。你现在是不是还有时间摆弄它们,还是这些乐趣已经被你的工作压榨光了?”工作里也有非常多乐趣,但有时我需要亲手创造些东西。这种习惯遗传于我的父亲,他是一位航空工程师,我的父亲和哥哥也热衷于飞机制造。因此当我去法国度假的时候,我们就会在长达三周的时间里沉浸于制造飞机。你Google+个人首页那张图片上是什么飞机?它是Leduc,它就在邻近巴黎的Musée de l’Air机场。我非常喜爱这架飞机。它是第一架依靠冲压式喷气发动机提供动力的飞机,这种发动机是特有的型号,能够支持非常高的飞行速度。SR-71黑鸟飞机也许是世界上采用冲压式喷气发动机和涡轮喷气发动机混合动力飞得最快的飞机。第一架Leduc原型机制造于二战前的法国,在德国入侵法国之前就被毁坏了,二战以后又先后制造了几架。这就是非常具有创造性的做事方式。它看上去非常棒,具有难以言表的外形,每一样设计都是为了满足速度要求,但是制造这样一架高效便捷的飞机耗资巨大。这架飞机冲压式喷气发动机的噪音也是难以忍受的。你的网站上有个帖子讲了一个有趣的故事,是你多年前偶遇Murray Gell-Mann(美国物理学家,获得1962年诺贝尔物理学奖),你还让他纠正你姓氏的发音。看起来你是小小的捉弄了一下这位杰出但自大的科学家前辈。现在你也变得相当有名,会不会担心自己也一样变得自大起来?我试着不那么引人注目。当你领导一个实验室时,需要让年轻人动用他们的创造力,这一点非常重要。年长者的创造力来自于他们所了解的东西,而年轻人的创造力则来自于他们所不了解的,这使他们可以进行更加广泛的探索。你可不想磨灭这种激情,与博士研究生以及年轻研究者交流是应对骄傲自满情绪的一种非常有效的方式。我认为我并不自大,而Facebook也是一家非常务实的公司,因此我们相当契合。

地图业务存争议诺基亚HERE部门目前为亚马逊、微软、雅虎,以及其他一些汽车导航系统提供地图数据。去年,诺基亚HERE地图业务总营收为9.7亿欧元,运营亏损12.4亿欧元,其中包括12.1亿欧元的商誉减值。该知情人士称,关于HERE业务是继续专注于消费者市场,还是转攻汽车和企业市场,诺基亚内部一直存有争议。诺基亚地图曾被认为是其杀手级应用(Killer App )之一,该地图由2010年诺基亚收购欧洲专业手机导航公司Reach Unlimited而来,拥有强大的语音导航以及离线地图包,并可以批量进行地图包语音包的编辑。相比同类的地图手机版,它不仅有超速警报,更强大的路线算法,还拥有一些地图所没有的离线地图包并支持批量管理,也可以实时对地点进行多个社交网络的签到。专业驾车界面,离线地点信息以及道路信息均可以媲美专业导航。收购该知情人士称,诺基亚HERE地图业务吸引了一些企业和私募股权公司的兴趣,预计他们很快会给出报价。诺基亚在财报中预计,其HERE地图业务价值约20亿欧元(约合21亿美元)。而诺基亚已经聘请了一家财务顾问。如果不能获得足够高的报价,诺基亚也可能会放弃该出售计划。市场反应在将手机业务部门以75亿美元出售给微软之后,诺基亚只剩下三项业务:网络部门(贡献诺基亚总营收的约90%),地图业务,以及负责专利授权的研发部门。去年第四季度,诺基亚营收为38亿欧元,净利润为4.43亿欧元。今日,诺基亚股票在赫尔辛基交易所一度上扬5.2%至7.55欧元,为2014年10月以来的最高涨幅。该价格为诺基亚估值约280亿欧元。

近日,虎嗅独家获悉,国内二手车电商交易平台人人车已完成8500万美元的C轮融资,本轮融资由腾讯领投,顺为、策源等上一轮投资者继续跟投,华兴担任财务顾问。本轮融资之后,人人车估值将超过5亿美元。人人车成立于2014年4月,去年已完成两轮融资,累计金额2500万美元。人人车创始人兼CEO李健告诉虎嗅,C轮融资是从今年5月开始筹备的,投资方腾讯其实在A轮融资时已有接触,只是当时他们对人人车的模式还需要观望,基于一定的了解,所以本轮融资达成比较快。二手车创业窗口正在关闭在人人车的核心团队中,有一半以上来百度,李健本人也曾担任百度产品总监。因此,人人车在本轮融资中与百度也有过沟通。之所以最终选择腾讯,李健表示,更看重腾讯能给资金以外的流量、社交产品及互联网金融等潜在资源。2015年伊始,BAT明显加大了对汽车后市场的投入。先是1月份腾讯联手京东投资易车;紧接着3月份,百度领投了优信拍,值得注意是2013年,腾讯曾参投过优信拍。4月份,阿里宣布将2014年底上线的二手车交易平台与本地汽车服务业务进行整合。相比之下,百度更侧重用车领域的投入,在投资Uber之后,今年上半年相继投资51用车、天天用车,一定程度上也是受到滴滴、快的合并的刺激。而李健认为,从创业者的角度来看,2015年开始,二手车创业窗口已经处于半关闭状态。他说,“2013下半年开始,拿钱比较容易,2014年是最容易的,那时候你只要提出一个不错的创业想法,团队不是特别笨,都能拿到钱。现在,投资人对团队、商业模式已经非常挑剔。所以,今年还没听到什么新出来的项目。”并不是资本市场对二手车创业者降低了热情,只是变得更加小心翼翼,倾向模式已经过验证的项目。李健表示,“2014年成立的公司,第一轮拿钱时还可以讲故事,现在窗口期一过,就只能用业务数据来说话。”那么人人车凭什么估值5亿美金?其业务数据又如何?人人车——商业模式分析传统的二手车交易流程复杂,一般中间需要经过4S店或二手车批发市场,到车商再出售到购车者手中。人人车采取C2C虚拟寄售模式,撮合转让车主与购车者达成交易,并从购车者一方扣取3%的交易佣金。该模式的优点,减少了传统二手车交易20%—30%的利润差。缺点是运营工作量大,交易效率低。创立一年的人人车实际经营情况如何?李健向虎嗅透露,目前公司业务覆盖20个城市,在售个人车源15000辆,7月份成交超过3000辆,成交均价10万元。当前,人人车在全国的员工已有700多名员工,其中近三分之二的员工是二手车评估师与销售。人人车在2014年之前,没有单独雇佣销售,其职责由评估师兼任。后来随着业务量增长,李健发现交易效率实在太低,而开始招募销售队伍,销售又分为电话销售和线下销售。电话销售从数据分析部分拿到转让车主的名单进行车源询问,然后转交给评估师,由评估师上门检车填写车检报告,并将报告及车照上传官网。线下销售负责撮合转让车主与购车者线下看车及交易。可见人人车在交易形态上为C2C模式,而在运营形态上又是O2O模式。按照李健给出的数据,虎嗅进行过推算,按一个销售平均一天带看3次车,能有1次成交,那其转化率已超过30%。而汽车购买属于高客单、低频次消费,他们又如何做到这么高转化的?李健给出的解释,“首先,二手车交易是高价值、重决策的消费,用户在看车之前会在网上充分比较,对于车况和车价的接受度已经非常高了,看车的时候只要车况跟网上相符,购车者不是车贩子,很容易达成交易。其次,目前二手车市场仍然是卖方市场,优质个人二手车不愁卖,这也使得买家担心错过好车源,更急于决策。而人人车的车检报告的准确性高,坚持‘6年10万公里以内’的车源标准也是交易转化高的基础。”对于C2C模式的二手车电商平台而言,优质车源会是核心竞争力之一。李健介绍人人车的来源,一部分来自线上广告投放和发帖,渠道主要有百度、58同城、汽车之家等;另一部分来自线下地推,比较普遍的做法是“插条”。在车源收集过程中,人人车发现在普遍存在车商伪造个人车源进行兜售,但李健觉得就C2C模式的二手车电商,拿车商的车没有任何意义。他表示,“维护自己品牌声誉,一次成交,我们需要两个C端同时传播,而车商是不会帮交易平台做口碑的。”当然,因为采取虚拟寄售的方式,转让车主在自己的车被售出之前,还能自行调配,所以其中不可避免同一车主选择多个类似平台进行售车的情况。李健告诉虎嗅,在一年的经营过程中,人人车在模式上进行了一定打磨调整:在人人车官网增添了“车友说”频道。在中国买车是低频消费,做在线社区一方面能够将用户沉淀下来,服务不坏有吐槽的地方,另一方面,可以引导用户做一些传播,结合线下的一些车友活动。更重要的因素是做二手车社区能帮助用户做决策参考。人人车当前在北京开有一家体验店,广州的一家体验店正在建。体验店主要做交易“最后一公里”服务,即在购车者办理过户时,可以在体验店进行委托。体验店也有“实验室”的属性,李健称人人车的团队偏互联网,对售后保养的各种细节缺乏经验,需要在这里摸索。人人车直接和转让车主进行交易,承诺20天售出,否则按商定的保底价收购。这种方式主要针对同类平台抢夺优质车源比较有效。如果出现自己平台不能“消化”的情况,人人车会将这部分车转交给二手车B2B交易平台车易拍进行拍卖。二手车电商洗牌大幕拉开根据中国汽车流通协会的数据统计,2014年全年,国内二手车交易总额为3675.65亿元,交易总数为605.29万辆。与发达国家相比,我国二手车与新车交易量的比值还相对较低,不足美国的1/10,德国的1/8,日本和韩国的1/6。预计线上交易份额占比还不到10%,二手车整体增量和在线交易比重增长的空间很大。虎嗅曾对国内的二手电商进行过报道,其中交易量最大的来自B2B、C2B竞拍模式,主角为车易拍、优信拍。2014年开始,二手车C2C寄售模式得到资本的追捧,在人人车诞生不到半年里,出现了好车无忧、赶集二手车等电商平台。也就在赶集涉足二手车之后,赶集屏蔽了人人车的一切信息,同行之间竞争关系恶化在所难免。李健认为,二手车电商比拼的是团队执行力和模式效率。虽然这个市场足够大,但洗牌已经开始,未来半年,二手车领域将会有大量的创业公司关停。因此,人人车C轮融资,很大程度上要用在市场投放上,抢占市场份额。根据华尔街日报的报道,与人人车同期上线的美国二手车C2C交易平台 Beepi,正在以20亿美元的估值,寻求新一轮约3亿美元的融资。而国内二手车B2B交易平台优信拍也正尝试2C业务。在李健看来,优信B2C业务本质是“帮车商卖车”模式,对车源不设门槛品质不可控,做不到“无差价”,售后服务更没有保证。因此,表示并不担忧。关于盈利方式,现阶段二手车C2C交易平台都收不齐3%的服务费,平台方普遍通过促销折扣、赠油卡等方式反补购车者,这也直接导致了平台方亏损,人人车也不例外。李健认为,3%的服务已经是最高的了,不能再加。未来,二手车电商盈利的最佳方式是汽车金融和融资租赁。

7月中旬以来,A股市场泥沙俱下,降息、降准、降手续费等常规举措没有获得预期效果,“国家队入场”、严打“恶意做空”等罕见的措施也没能阻止大盘一跌再跌。重要原因之一是,今朝A股市场杠杆无处不在。首先是配资()。当股价下跌到某预先约定的价格时,配资盘()必须追加保证金否则将被强行平仓。配资平台对客户的股票强行平仓很容易造成个股非理性急挫,进而在持有该股票的配资盘中引发连锁反应。更糟糕的是这种情况不会只发生在一两只个股上,于是千股跌停的“大规模踩踏”一次次上演。这种下跌逻辑在A股市场是前所未有的。由于场外配资被严打()和场内“两融”规模大幅萎缩(),在救市的另一条战线上,对“恶意做空”股指期货的围剿以及对交易规模、频次的限制,造成A股暴跌的另一名“嫌犯”也被捆住了手脚。()。分级基金的本质是杠杆所谓分级基金(Structured Fund)又叫“结构型基金”,是指在一个投资组合下,对基金收益或净资产进行分解,形成两个(或多个)风险收益表现呈差异化的子品种。例如将基金分拆为A、B两类份额,分别享受不同的收益分配。厌恶风险的投资者持有A类份额,享受固定收益;“爱好”风险的B类份额持有B类分额,在满足A类投资者的固定收益要求后享有剩余收益或承担亏损。目前多数股票型分级基金A、B份额是相等的,但两类份额的净值和售价各不相而且是动态的。假如某股票基金初始净值为2亿元,均分为A、B两类份额。每份A、B基金的初始净值和价格均为1元。B类份额持有者获得1:1的杠杆。半年后,由于股票大跌母基金净值降至1.54亿元,A类份额净值为1.04元(由于承诺收益),B类份额净值为0.5元。假如B类基金交易中溢价率为0,即每份额B类基金售价0.5元,此时购买B份额的投资者获得1:2的杠杆,相当于投0.5元承担1.5元炒股的损益。下折是怎么回事?随着母基金净值下降,B类份额的杠杆率急剧攀升。以上面的例子中,假如基金净值跌至1.14元,B类份额购入者将获得1:10的杠杆。为控制风险,分级基金均设有“不定期份额折算”机制。触发条件一般是B份额净值跌破0.25元。假如中A、B份额净值分别为1.05元和0.25元。重新折算的方法是:1)A份额投资者从A份额中拿回0.8元,留下0.25元作为新的净值为0.25元的分级A份额(未计算申赎手续费)。2)对新的分级A和留守的分级B进行净值调整,以附合新基金净值为1元的习惯(假如调整前A、B份额净值均为0.25元,调整的方法就是“四合一”)#也算“毁尸灭迹”了#折算的结果是基金规模大幅缩水,B类份额恢复到初始的杠杆水平。举个例子:2015年6月15日,易方达国企改革指数分级基金(主代码为502006)完成初始认购。总份额按2:4:4分为基础份额、A类份额和B类份额(A、B份额代码分为502007、502008)。2015年8月25日,易方达国企改革B类份额净值跌至0.179元,达到下折条件。8月26日进行折算时B类份额净值为0.1486元。短两个月,投资者损失85.14%!折算后基金规模缩水60.3%,理论上需要抛售20.5亿股票,这无疑是在“杀跌”。A股又临一坑今年6月,168只分级基金的份额达到5169亿份。在后面的两个月里,有多达53只分级基金遭遇下折。7月份最黑暗的9个交易日里,有24只分级基金遭遇下折。8月18日起,上证指数在7个交易日内暴跌逾1000点,从4000点以上跌到3000点以下。分级基金B高杠杆风险集中爆发,由此引发“下折潮”。24日、25日、26日三天内有29只分级基金触发下折。25日下折基金包括百亿级申万证券分级基金,26日下折基金中有净值超过200亿的富国国企分级基金。至此,规模最大的4只分级基金有3只下折(富国国企改B、富国创业板B、申万证券B)。分级基金下折令B类份额持有者损失惨重,此轮下折的28只分级基金中有20只B类份额净值低于0.2元,富国创业板B净值仅为0.1元,投资者损失80%甚至90%。另外,不明真相的群众买入交易中的分级基金B份额也有极大风险。随着基金净值下跌,B份额的杠杆比例越来越大,比如净值杠杆为4倍时,理论上B份额净值一天可跌40%。但由于受涨跌停限制,B份额交易价格最多只能跌10%,这时的价格是虚高的。若连续下跌,虚高的情况会越来越严重。而下折时参照的是份额净值,所有溢价都打了水漂,真是雪上加霜。上述53只分级基金总份额接近1275.15亿份,下折之后, A份额持有者获得了834亿份基础份额,这部分份额面临强烈的赎回变现要求。一旦分级基金触发下折,基金管理人要在2-3天内大幅减仓位应对赎回。以富国国企分级基金为例,基金经理在下折前要抛售140亿的股票,对相应个股面临巨大抛压。。目前,又有二十多只分级基金到了下折的边缘,只要母基金再跌5%~10%就会触发下折。搞不好会引起整个市场的连锁反应。吊诡的是近两个月一边是分级基金下折,一边又有新的分级基金出笼,目前总数已达192只。昨天(9月1日)又是一个“千股跌停日”,近200只分级基金象一颗颗地雷,爆炸声不时传来……直到8月下旬,证监会才暂停分级基金审批。8月21日,证监会新闻发言人称:“考虑到分级基金机制较为复杂,普通投资者不易理解,且前期出现了一些新情况、新问题,为此,我会暂缓了此类产品的注册工作,并正在研究有关政策。”填平分级基金下折这个坑,下一个就是大股东质押股票融资了,本质上也属于杠杆,今天的资本市场真是杠杆无处不在!

分类:社会

时间:2016-06-02 11:07:02