[repost ]IBM Acquires AlchemyAPI, Enhancing Watson’s Deep Learning Capabilities

oringinal:http://www-03.ibm.com/press/us/en/pressrelease/46205.wss

New York City, N.Y. – 04 Mar 2015: IBM (NYSE: IBM) today announced it has acquiredAlchemyAPI, a leading provider of scalable cognitive computing application program interface (API) services and deep learning technology. The acquisition will accelerate IBM’s development of next generation cognitive computing applications.

The acquisition also significantly expands the Watson ecosystem, welcoming 40,000 developers that have innovated on the AlchemyAPI platform to the IBM Watson developer community. Financial terms of the deal were not disclosed.

IBM will integrate AlchemyAPI’s deep learning technology into the core Watson platform, augmenting Watson’s ability to quickly identify hierarchies and understand relationships within large volume data sets. The technology is expected to enhance Watson’s ability to ingest, train and learn the “long-tail” of various data domains – including general business and target industries, as well as address the need to manage constantly evolving ontologies.

In addition, the acquisition will greatly expand the number and types of scalable cognitive computing APIs available to IBM clients, developers, partners and other members of the Watson ecosystem. This includes language analysis APIs to address new types of text and visual recognition, and the ability to automatically detect, label and extract important details from image data.

Founded in 2005 and headquartered in Denver, AlchemyAPI’s deep learning platform enables clients, partners, developers and other third-parties to build cognitive-infused applications with advanced data analysis capabilities such as taxonomy categorization, entity and keyword extraction, sentiment analysis and web page cleaning. The company’s software platform processes billions of API calls per month across 36 countries and in eight different languages: English, French, German, Italian, Portuguese, Russian, Spanish, and Swedish.

“IBM continues to invest in Watson‘s core technology and cloud development platform, amplifying a robust Watson ecosystem where third party organizations are creating new businesses and solutions powered by Watson,” said Mike Rhodin, senior vice president, IBM Watson. “Our ability to draw upon both internal and external sources of innovation, from IBM Research to acquisitions like AlchemyAPI, remain central to our strategy of bringing Watson to new markets, industries and regions.”

“Today is the start of a new journey for AlchemyAPI, our customers and our user community, as we join IBM, the leader in cognitive computing,” said Elliot Turner, founder and CEO, AlchemyAPI. “We founded AlchemyAPI with the mission of democratizing deep learning artificial intelligence for real-time analysis of unstructured data and giving the world’s developers access to these capabilities to innovate. As part of IBM’s Watson unit, we have an infinite opportunity to further that goal.”

Watson is the first commercially available cognitive computing capability representing a new era in computing. The system, delivered through the cloud, analyzes high volumes of data, understands complex questions posed in natural language, and proposes evidence-based answers. Watson continuously learns, gaining in value and knowledge over time, from previous interactions.

IBM is delivering new Watson services and APIs through the Watson Zone on Bluemix, the company’s digital innovation platform that enables developers to rapidly build, deploy and manage apps across any combination of public, private and hybrid cloud. Thousands of developers, entrepreneurs, data hobbyists, students and others have already built more than 7,000 apps powered by Watson to date.
AlchemyAPI’s capabilities, including new language analysis and visual recognition services, will be delivered through Bluemix, and enable developers to quickly build a range of business applications. New and existing users can sign up for a free trial and access the AlchemyAPI services today on www.bluemix.net.

Today’s news builds on the recent announcement of IBM Watson Personality Insights API and the launch of five new beta Watson Services, bringing the total number of cognitive API services to thirteen in the past six months alone.

IBM Watson: Pioneering a New Era of Computing

IBM Watson enhances, scales and accelerates human expertise, and represents a new era of computing in which apps and systems interact with human users more naturally, augment knowledge with Big Data insights, and learn and improve over time.

Fueled by innovation and a mission to transform industries and professions, IBM is delivering a range of cloud-based products and services to clients in industries such as banking, healthcare, insurance, retail and education.

In January 2014, IBM launched the IBM Watson unit, a business dedicated to developing and commercializing cloud-delivered cognitive computing technologies. The move signified a strategic shift by IBM to deliver a new class of software, services and apps that think, improve by learning, and discover insights from massive amounts of Big Data. IBM is investing $1 billion into the Watson unit, focusing on development and research, and bringing cloud-delivered cognitive applications and services to market. This includes $100 million available for venture investments that support IBM’s ecosystem of start-ups and businesses building cognitive apps powered by Watson.

About AlchemyAPI

AlchemyAPI’s mission is to power a new generation of smart applications that understand human language and vision by democratizing breakthroughs in deep learning-based artificial intelligence. Its easy-to-use, high-performance cloud services for real-time text analysis and computer vision give companies the intelligence needed to transform vast amounts of unstructured data into actions that drive their business. AlchemyAPI’s solutions have been used by more than 40,000 developers across 36 countries and a wide variety of industries to process billions of texts and images every month. For more information, visit the website at www.alchemyapi.com.

About IBM Watson

For more information on IBM Watson, visit: www.ibmwatson.com. Check out the IBM Watson press kit at: http://www-03.ibm.com/press/us/en/presskit/27297.wss

To join the social discussion about Watson, include the hashtag #ibmwatson. Follow Watson on Facebook and see Watson on YouTube and Flickr

[repost ]解剖互联网大脑,互联网神经生理学

original:http://liufeng.baijia.baidu.com/article/48118

摘要 : 目前最热门的互联网应用和科学成果几乎都与互联网神经生理学有关,包括物联网,云计算,大数据,工业4.0,移动互联网等与互联网的关系,社交网络与物联网的结合,深度学习算法与互联网人工智能的提升等,刚刚召开的两会上,李彦宏提出了中国大脑计划,推动建立基于互联网的人工智能基础设施。

作者:刘锋  首发百度百家

本文是互联网神经学系列文章的第三篇文章。

对于生物大脑,神经生理学的研究以神经解剖学为基础。它的方法是通过刺激脑及手术切除脑,实验性地分析研究整体的脑功能,考古学家发现,在公元前30世纪到公元前17世纪的古埃及纸莎草书上,出现了人类第一次关于大脑皮层的描述,出现脑的象形字。书中描写了脑的外露部分由褶皱,如同融化的铜。这说明古埃及人开始通过观察注意到脑的外形,文艺复兴思潮当中涌现的4位学者——达·芬奇、维萨里、威利斯和笛卡尔,堪称为“文艺复兴时期的神经科学四杰”。其中维萨里亲自做了大量的脑解剖的学者,他基本上完成了今天神经解剖学教科书上关于脑的描述【1】。

2015年2月我们在《互联网催生新学科-互联网神经学》中指出互联网神经学由5个部分组成(详细介绍见文章最后),第一个重要也是最基础的部分是互联网神经生理学,相对应,互联网神经生理学重点研究基于神经学的互联网基础功能架构以及运转机理。对于互联网神经生理学,我们是不是也可以学习生物大脑,对”互联网大脑“进行解刨。

幸运的是,互联网不是自然进化出来的精密结构,而是由前瞻的科学家和勇敢的创业者一点一滴的用双手构建出来,”互联网大脑“的每一个神经元,每一条神经纤维的细节都存在于学术论文中,程序代码或商业计划中,我们只要有足够耐心将这些细节遍览,“互联网大脑”的血肉就将浮现在我们的眼前。

目前最热门的互联网应用和科学成果几乎都与互联网神经生理学有关,包括物联网,云计算,大数据,工业4.0,移动互联网等与互联网的关系,社交网络与物联网的结合,深度学习算法与互联网人工智能的提升等, 2012年以来,谷歌,百度,科大讯飞,爱奇艺都推出了自己的互联大脑计划,刚刚召开的两会上,李彦宏提出了中国大脑计划,推动建立基于互联网的人工智能基础设施。

应该说相对于互联网神经学其他4个部分,互联网神经生理学目前是研究最为深入的一个领域,主要表现在如下五个方面:

1.2008年绘制出互联网类大脑架构图,这幅图是通过对脑科学已有成果的的借鉴,所形成预测的未来互联网成熟架构。

2.用互联网大脑结构图分析当前互联网领域的热门概念,云计算,大数据,物联网,工业互联网(工业4.0),移动互联网。

3.2012年提出互联网的神经反射弧现象,就是当互联网各神经系统发育成熟后,所出现的反射现象,互联网神经反射弧的研究会对理解互联网运行机理,发现互联网未来商业模式产生重要影响,我们在2012年出版的《互联网进化论》一书中提出了7中互联网神经反射模式。下图只显示其中一个模型。

4.2014年绘制出“互联网大脑的左右大脑结构图”,提出以搜索引擎为起点的百度大脑,谷歌大脑等互联网人工智能系统将进化成为互联网的左大脑,以Facebook,QQ,微信为代表的社交网络正在形成互联网的右大脑.“

5.2014年提出互联网神经元的“细胞体”-社交网络个人空间在形成更为成熟的互联网神经元时,必然会导致社交网络与物联网,工业互联网的结合,从而形成人与人,人与物,物与物社交的”大社交网络BIG SNS“

附录:关于互联网神经学和互联网神经生理学的定义【2】:

互联网神经学的定义(Internet neurology): 

1.基于神经学的研究成果,将互联网硬件结构,软件系统,数据与信息,商业应用有机的整合起来,从而构建互联网完整架构体系,并预测互联网沿着神经学路径可能产生的新功能和新架构;

2.根据互联网不断产生和稳定下来的功能结构,提出研究设想,分析人类大脑产生意识,思想,智能,认知的生物学基础;

3.研究互联网和人类大脑结构如何相互影响,相互塑造,相互结合,互助进化的双巨系统交叉关系。

4.互联网神经学从生理学和心理学层面可以分为5个部分:互联网神经生理学,互联网神经心理学,大脑互联网生理学,大脑互联网心理学,互联网认知科学

互联网神经生理学(Internet neurophysiology)定义:

互联网神经生理学重点研究基于神经学的互联网基础功能和架构,包括但不限于互联网中枢神经系统,互联网感觉神经系统,互联网运动神经系统,互联网自主神经系统,互联网神经反射弧,基于深度学习等算法,运用互联网大数据进行图像,声音,视频识别等互联网人工智能处理机制。

引用:【1】http://www.kexuemag.com/Article/ShowInfo.asp?InfoID=13287

【2】http://liufeng.baijia.baidu.com/article/46890

[repost ]“中国大脑”究竟意味着什么

original:http://zhaoyunfeng.baijia.baidu.com/article/48219

刚刚开幕的两会上,全国政协委员、百度CEO李彦宏在提案中提到一个非常前沿的设想:设立“中国大脑”计划,推动人工智能跨越发展,抢占新一轮科技革命制高点。“这个项目是要做一个关于人工智能的基础设施,把相应大规模的服务全集中建立起来,并开放给科研机构、民企、国企、创业者等社会各个层面,让大家在这个平台上尝试语音识别、视觉识别、自然语言理解、智能机器人等。”人工智能作为21世纪前沿技术的代表,其重要性可能会与阿波罗登月、人类基因计划、全球信息革命相提并论,会对人类的经济、社会产生深远影响。

1、人工智能的重要性——下一次技术革命

人工智能的重要性将首先表现在经济领域,会为几乎所有行业带来创新和变革。德勤DUP去年发布的一份报告列举了可以被人工智能影响的八大经济领域,包括银行业,自动欺诈探测系统使用机器学习可以识别出预示着欺诈性付款行动的行为模式;借助语音识别技术能够自动完成电话客服;声音识别可以核实来电者的身份;医疗健康领域,美国有一半的医院采用自动语音识别来帮助医生自动完成医嘱抄录,而且使用率还在迅速增长;机器视觉系统自动完成乳房X光检查和其他医学影响的分析;IBM 的Watson借助自然语言处理技术来阅读和理解大量医学文献,通过假设自动生成来完成自动诊断,借助机器学习可以提高准确率;生命科学领域,机器学习系统被用来预测生物数据和化合物活动的因果关系,从而帮助制药公司识别出最有前景的药物。此外,还包括媒体娱乐业、公共部门等。BroadbandTV 公司CTO Mehrdad Fatourechi提到,人工智能中的自然语言处理和机器翻译将变革旅行和通讯业;机器学习和增强现实将促使广告业发生革命性变化,等等。

根据人工智能“实现所有目前还无法不借助人类智慧才能实现的任务的集合”的定义,其重要意义除了对相关行业和领域产生积极影响以外,更重要的是对人类智力方面的增强和延伸。人类与机器的一个重要区别就是,前者具有意识、尝试和学习能力,而人工智能的研究就是努力使机器具备这些特质,例如,深度学习就是受人类大脑神经网络运作机理的启发,而目前基于深度学习的图像识别技术已经可以在非常大的人类图片集合中识别出某个人,这个集合会远远超出人类的处理能力。因此,随着人工智能的发展,它所带来就不仅仅是更智能的自动诊断和实时物流决策支持等实际应用,更多的还是一种认识世界的全新眼光,更好帮助人类决策。届时我们可以将更多的工作外包给机器,它会变成人类的“第二大脑”。因此,人工智能对于社会层面、国家层面也具有同样重要的意义。

2、发达国家的布局

美国、欧盟等发达国家早已开始了对人工智能领域的重点扶持,他们的一些相关部门也正在与科技公司开展积极合作。以下就是几个例子,或许我们可以从中获得一些经验。

1)  欧盟人脑计划

欧盟人脑计划于2013年入选了欧盟的未来旗舰技术项目,获得了10亿欧元的资金支持,也成为了全球范围内最重要的人类大脑研究项目。该项目旨在建立一套基于神经科学的全新的、革命性的信息通信技术。建造一种模拟神经元功能的芯片,然后将芯片用于建造超级计算机。可以利用HBP的高性能计算系统、神经形态计算系统和神经机器人平台来开发新兴的计算技术和应用,借助神经形态计算系统和神经机器人平台,研究者打造出极具市场应用潜力的软件原型。这些原型包括家庭机器人,制造机器人和服务机器人,它们会具备强大数据挖掘、机动控制、、视频处理和成像以及信息通信等。

2)  谷歌和DARPA的机器人

谷歌2013年底了收购波士顿动力公司(Boston Dynamics),该公司此前与美国国防部下属的DARPA一直存在密切联系,早在2012年就获得了后者1090万美元的合同,为其开发人形机器人。2013年,波士顿动力公司又为DARPA开发静音性能更好、防弹性能更强“大狗”机器人,计划在2015年开始参与相关军事演练,为给战斗中的作战人员降低风险。今年初,波士顿动力公司又发布了机器人Spot,它采用电和液压制动,即可以在室内作业又可以在室外作业,其头部的传感器可以帮助它导航并穿过崎岖的路面。考虑到之前的机器人Big Dog已经被美军用在了地形复杂的军事训练上了,所以Spot在军事方面的潜在作用也毋庸置疑。

3)IBM和DARPA的类脑芯片

2008年11月,美国国防高级研究计划局(DARPA)启动了自适应可塑可伸缩电子神经系“Systems of Neuromorphic Adaptive Plastic Scalable Electronics(SyNAPSE)”项目而开始。在SyNAPSE项目的第一阶段,DARPA向IBM以及与其共同研究的5所大学提供了490万美元的资助。2014年8月,IBM再度发布SyNAPSE的最新成果TrueNorth——能模拟人类大脑的芯片,相比前一代原型,新的芯片已达到量产要求,并且拥有100万个“神经元”内核、2.56亿个“突触”内核以及4096个“神经突触”内核,而功率则仅有70毫瓦,该芯片能够模仿人脑的运作模式,更擅长进行模式识别,而且低功耗,在认知计算方面要远远穿过传统计算架构。

由于新SyNAPSE芯片可能对当前人类的计算体系造成颠覆性改变,IBM因而特别开发了一套新的编程语言以配合使用。同时,IBM还推出了SyNAPSE University的教育计划,该计划获得了来自DARPA5300万美元的赞助资金。

4)NASA和奇点大学

奇点大学是一所以教育、鼓励和教授那些带头人将呈指数级增长的技术应用在处理人类的重大挑战方面为使命的大学。谷歌、思科、诺基亚和基因泰克在2009年大学成立时就成为了其合作伙伴。其他的资助者还包括Autodesk、Fauffman Fund以及ePlanet Capital。而这所大学就坐落于NASA的埃姆斯研究中心,NASA为期提供场地支持。如今,奇点大学已经孵化出Matternet无人机等众多人工智能项目。

5)DARPA

上文经常提到的美国国防部高级研究院(DARPA)本身就是一个专注于前沿科技创新研究的国家部门,也开创了许多人工智能领域的研究工作,比如Siri智能助理就脱胎于美国先进研究项目局(DARPA)投资1.5亿美元,历时5年的CALO( Cognitive Assistant that Learns and Organizes)项目,是美国首个得到大规模产业化应用的人工智能项目;DARPA目前正在进行一个名为“CwC”(与计算机交流)的新项目,旨在打破人和机器之间的语言壁垒,让计算机可以像人一样通过使用口语、面部表情以及手势来表达自己;此外,还有上文提到的和IBM合作的类脑芯片,人类阿凡达计划等和人工智能相关的诸多项目。

DARPA的运作模式是科研外包,自身不做科研,而是将每年的研究经费划拨给各个大学的实验室、科技公司等用于各式各样的前沿研究。从这些年DARPA取得的伟大成就来看,这种国家层面开放合作的机制看起来富有成效,而这也有李彦宏提到的搭建人工智能平台、开放资源不谋而合。

3、“中国大脑”的机会

必须承认,人工智能将对经济领域和整个社会产生积极影响,而发达国家已经在这方面开展积极布局并取得了令人瞩目的成就,但同时也存在一些问题,比如说欧盟人脑计划和IBM的类脑芯片就遭受过Facebook人工智能负责人Yann Lecun批评。他说: “从根本上说,欧盟人脑计划(Human Brain Project)中的很大部分也是基于这样一种理念:我们应该建造一种模拟神经元功能的芯片,越接近越好,然后将芯片用于建造超级计算机,当我们用一些学习规则来开启它时,人工智能就出现了。我认为这纯属胡说八道。”但““事实上,我们需要的是“会思考的机器”,而非必须“会像人脑一样思考的机器”。

而人工智能中的深度学习就是赋予了机器学习能力,让机器能够从数据中自行学习。百度、谷歌、Facebook等科技巨头也是通过深度学习也实现了人工智能的落地,为用户提供了更好的产品和服务,在技术提升了取得了爆发式增长。

从国内的现状来看,百度在这方面取得的成绩已经可以比肩其他全球性科技巨头。目前百度已经囊括了从深度学习专家Andrew Ng、余凯、张潼在内的人工智能研发团队,取得了大量成绩;在人工智能关键技术中的语音识别技术方面,百度Deep Speech在噪音环境中的表现已经超越谷歌Speech API、Wit.AI、微软Bing Speech以及苹果Dictation,图像识别技的识别度达到92%,计算机视觉系统Deep Image性能优于谷歌;百度建立起了参数规模达到百亿级别、世界上最大规模的深度神经网络以及M1、阳泉等数十个国际级别的云计算中心;百度迁徙、世界杯预测、百度疾病预测等大数据产品展示了其在数据积累、挖掘和展示方面的技术储备;开放平台大数据引擎也已经在医疗、交通和金融领域开始了具体应用;此外,百度还开始了自动驾驶、智能硬件等项目。百度在国内是人工智能探索的先行者,其积累的经验和获得的成绩都会为未来的中国大脑提供建设思路、平台化化的理论基础和指导依据。

未来的“人工智能的基础设施”将集中建立相应的大规模服务,开放给科研机构、民企、国企、创业者等社会各个层面,这涉及到智能人机交互、大数据分析预测、自动驾驶、智能医疗诊断、智能无人飞机、军事和民用机器人技术等重要研究领域,从中继续提升语音识别、视觉识别、自然语言理解和智能机器人等技术水平,进而体现出国家层面的竞争力。

一个充满想象力级别的科技项目取得成功会带来什么?看看美国“阿波罗登月计划”带动大批企业成长创新,美国军方DARPA的ARPAnet衍生出了互联网就知道了。更重要的是,这种“政府利用一个大的项目建立一个科技基础设施,然后把它开放给整个社会,谁愿意参与进来都可以”的范例,一旦进化成为 “政府和科技企业深度合作、互相促进”的一种经济发展新范式,那对中国经济的贡献将远不止是收获一批明星科技企业和科技成果,而将是整个经济和社会的转型动力。让我们期待那一天,一个由前沿技术和科技公司带来变革的未来。

[repost ]Parsing and serializing XML

original:https://developer.mozilla.org/en-US/docs/Web/Guide/Parsing_and_serializing_XML

and ) and provides functionality global to the document (such as obtaining the page’s URL and creating new elements in the document).” style=”margin: 0px; padding: 0px; border: 0px; color: rgb(0, 149, 221); text-decoration: none;”>Document) and want to use its content.

Serializing DOM trees to strings

First, create a DOM tree as described in How to Create a DOM tree. Alternatively, use a DOM tree obtained from XMLHttpRequest.

Now, let’s serialize doc — the DOM tree — to a string:

var oSerializer = new XMLSerializer();
var sXML = oSerializer.serializeToString(doc);

From within a JS XPCOM component (or a JS module), new XMLSerializer() is not available. Instead, write:

var oSerializer = Components.classes["@mozilla.org/xmlextras/xmlserializer;1"]
                            .createInstance(Components.interfaces.nsIDOMSerializer);
var sXML = oSerializer.serializeToString(doc);

“Pretty” serialization of DOM trees to strings

You can pretty print a DOM tree using XMLSerializer and E4X. First, create a DOM tree as described in the How to Create a DOM tree article. Alternatively, use a DOM tree obtained from XMLHttpRequest. We assume it’s in the doc variable.

var oSerializer = new XMLSerializer();
var sPrettyXML = XML(oSerializer.serializeToString(doc)).toXMLString();

Indents are provided with two spaces. You can, of course, use treeWalker to write your own, more performant version which also has the advantage that you can customize the indent string to be whatever you like.

Note: When using the E4X toXMLString method your CDATA elements will be lost and only the containing text will remain. So using the above method might not be useful if you have CDATA elements in your XML.
<content><![CDATA[This is the content]]></content>

Will become

<content>This is the content</content>

Serializing DOM trees to Javascript Object trees (JXON)

JXON (lossless JavaScript XML Object Notation) is a generic name by which is defined the representation of JavaScript Objects using XML. If you are interested to address only some parts of an XML document, use XPath instead of converting the whole document into JSON! Otherwise, read the article about JXON.

Serializing DOM trees to files

First, create a DOM tree as described in the How to Create a DOM tree article. If you already have a DOM tree from using XMLHttpRequest, skip to the end of this section.

Now, let’s serialize doc — the DOM tree — to a file (you can read more about using files in Mozilla):

var oFOStream = Components.classes["@mozilla.org/network/file-output-stream;1"].createInstance(Components.interfaces.nsIFileOutputStream);
var oFile = Components.classes["@mozilla.org/file/directory_service;1"].getService(Components.interfaces.nsIProperties).get("ProfD", Components.interfaces.nsILocalFile); // get profile folder
oFile.append("extensions"); // extensions sub-directory
oFile.append("{5872365E-67D1-4AFD-9480-FD293BEBD20D}"); // GUID of your extension
oFile.append("myXMLFile.xml"); // filename
oFOStream.init(oFile, 0x02 | 0x08 | 0x20, 0664, 0); // write, create, truncate
(new XMLSerializer()).serializeToStream(doc, oFOStream, ""); // rememeber, doc is the DOM tree
oFOStream.close();

Serializing XMLHttpRequest objects to files

If you already have a DOM tree from using XMLHttpRequest, use the same code as above but replace serializer.serializeToStream(doc, oFOStream, "")with serializer.serializeToStream(xmlHttpRequest.responseXML.documentElement, oFOStream, "") where xmlHttpRequest is an instance ofXMLHttpRequest.

Note that this first parses the XML retrieved from the server, then re-serializes it into a stream. Depending on your needs, you could just save thexmlHttpRequest.responseText directly.

See also

[repost ]Parse XML using JavaScript

original:http://stackoverflow.com/questions/17604071/parse-xml-using-javascript

I need to be able to parse XML using JavaScript. The XML will be in a variable. I would perfer not to use jQuery or other frameworks.
I have looked at this, XML > jQuery reading.
Thanks

I’m guessing from your last question, asked 20 minutes before this one, that you are trying to parse (read and convert) the XML found through using GeoNames’ FindNearestAddress.

If your XML is in a string variable called txt and looks like this:

<address>
 <street>Roble Ave</street>
  <mtfcc>S1400</mtfcc>
  <streetNumber>649</streetNumber>
  <lat>37.45127</lat>
  <lng>-122.18032</lng>
  <distance>0.04</distance>
  <postalcode>94025</postalcode>
  <placename>Menlo Park</placename>
  <adminCode2>081</adminCode2>
  <adminName2>San Mateo</adminName2>
  <adminCode1>CA</adminCode1>
  <adminName1>California</adminName1>
  <countryCode>US</countryCode>
 </address>

Then you can parse the XML with Javascript DOM like this:

if (window.DOMParser)
  {
    parser=new DOMParser();
    xmlDoc=parser.parseFromString(txt,"text/xml");
  }
else // Internet Explorer
  {
    xmlDoc=new ActiveXObject("Microsoft.XMLDOM");
    xmlDoc.async=false;
    xmlDoc.loadXML(txt);
  }

And get specific values from the nodes like this:

//Gets house address number
xmlDoc.getElementsByTagName("streetNumber")[0].childNodes[0].nodeValue;

//Gets Street name
xmlDoc.getElementsByTagName("street")[0].childNodes[0].nodeValue;

//Gets Postal Code
xmlDoc.getElementsByTagName("postalcode")[0].childNodes[0].nodeValue;

[repost ]深度学习引爆下一次科技革命

original:http://zhaoyunfeng.baijia.baidu.com/article/44572

摘要 : 深度学习不仅是人工智能的发动机,更是其他众多领域、甚至是整个社会科技进步的动力。

百度首席科学家吴恩达在今天百家BIG TALK硅谷活动上提到,从优秀产品到大量用户,再到海量数据,最后返回优秀产品是一个良性循环,但最后一个环节“海量数据到优秀产品”会出现问题,因为当数据积累过多时,就无法对这些数据进行完整和准确的处理,从而也无法为优秀产品的后续更新提供参考。直到深度学习出现才改善了这种局面,他把数据比作火箭的燃料,把深度学习比作发动机,是深度学习将数据这种燃料点燃从而将人工智能推到另外一个高度。而值得一提的是,在今天BIG TALK以及其他活动的演讲中,各领域专家都直接或间接的提到了深度学习。所以,我大胆的得出一个结论,深度学习不仅是人工智能的发动机,更是其他众多领域、甚至是整个社会科技进步的动力。

1、 深度学习的定义

传统人工智能的机器学习是通过标记数据进行有监督学习,随着其所需处理数据量的增大,外界对其的支持和帮助也就更大,而且计算结果的准确性也会受到影响。因此,对于这种传统算法,越来越多的数据将成为负担,也更容易达到极限或产生错误结果。但深度学习是从未经标记的数据展开学习,这更接近人脑的学习方式,可以通过训练之后自行掌握概念。面对海量数据,深度学习算法可以做到传统人工智能算法无法做到的事情,而且输出结果会随着数据处理量的增大而更加准确。这将大幅度提高计算机处理信息的效率。同时,深度学习在加速回归定律的指引下会使得进化过程中产物(输出结果)获得指数级增长,当深度学习的效率变得更高,就会吸引更多的资源向它聚合,使其发展更为迅速。王威廉在《国际机器学习大会ICML2013参会感想》提到:“用半监督或无监督学习方法挖掘无标签的数据,不仅是过去10年,还很可能是大数据时代的一个热点。

回到“海量数据到优秀产品”这一环节,这些数据处理效率的指数级增长其实是来源于我们对互联网产品的每一次微小的使用以及相应的每次数据的贡献,而这些汇集起来的数据再借助深度学习算法就会为会我们输出更加准确的结果,提供更好的服务,其产生的效果也会像滚雪球一样越来越大。这就是吴恩达在今天的讲座中提到的深度学习所促成的完整流程,也是他之前提到的人工智能正循环。

而深度学习带来的正循环不仅体现在人工智能领域,还体现在机器人技术、信息化医疗、社会物理学和能源问题等领域。

2、 深度学习对大数据的价值

如吴恩达所言,数据是人工智能的燃料。随着各个行业信息化程度的普及,任何行业所积累的数据会越来越多,但当真正面对海量数据时,各行业才意识到数据处理能力远远不够。在今天上午参观百度美国研究院时,百度高级技术总监吕厚昌提到了深度学习对大数据的重要性,他认为,此前在数据的数量和效率之间存在矛盾,收集更多的数据有助于提高最终结果的准确性,但数据越多,处理起来就越慢。当没有足够高效的处理工具时,大数据就变成了数据坟墓,即使这些数据再大,也无法提取出任何价值,因为没办法对其进行高效处理,这也违背了我们收集数据的初衷。

深度学习的出现就是解决了如何快速处理海量数据的问题,拿百度举例,吕厚昌说,百度的数据处理自上而下分成开放云、数据工厂和百度大脑三个层级,最底层的开放云收集数据,数据工厂对数据库进行管理,最上层百度大脑的模拟神经网络通过机器学习高效的输出结果,从而实现行业应用。深度学习就是在最后一个环节体现出巨大价值,带来更好的信息处理能力,从而产生更加广泛和深入的行业应用,比如百度大数据此前在医疗、交通和金融领域的应用。

此外,MIT人类动力实验室主任Alex Pentland的社会物理学就是基于大数据对人类的各种社会行为进行分析,从而得出结论并提供决策依据;伯克利大学能源专家Daniel Kammen也是基于大数据来解决气候变迁这个宏大的人类课题。这两个领域都需要有海量数据支撑,因此,拥有高效、良性处理能力的深度学习技术就显得尤为重要。

大数据已经变成各个行业的基础架构,而真正能帮助这些行业处理好数据,并最终实现具体应用的还是因为深度学习的出现。可以说,深度学习是大数据具体行业应用的必要工具。

3、 深度学习对机器人领域的价值

康纳尔大学创意机器人实验室主任Hod Lipson讲述了他研发的基于“元认知(Metacognition)”的机器人,他们事先没有对这些机器人的行为进行编程,而是让这些机器人更加自由的活动,对机器人的行为和“进化”进行研究,从而建造出能够具备自我学习能力和进化能力的机器人。TED对此进行了非常准确的描述:Hod Lipson及团队在创造一种能够决定自己如何走路的机器人;一种能够开发出自我感觉的机器人;通过不断试错,最终构建出“更像自己”的机器人。在技术哲学层面,Hod Lipson借鉴了美国知名人工智能专家、认知科学家Marvin Lee Minsky的理论,机器的大脑有两层结构,一层感知外部世界,一层感知自身,以此在虚拟和现实之间帮助机器构建出一个对自我意识的认识和思考,也就是他今天提到的“对思考进行思考”,从而让机器具有“自我”。思想家I.J.古德提到,机器设计是智能机器的能力之一,而Hod Lipson现在所做的就是在培养机器的这种“设计能力”。

Hod Lipson认为他现在之所以能够制造出拥有“自我意识”的机器人,原因有两个,第一是他一直推崇的3D打印技术的出现。第二就是深度学习技术的成熟,他对该领域保持关注了十多年,直到今天,深度神经网络的训练才达到令人满意的效果,拥有自我意识和学习能力的机器人才会出现。

深度学习赐予了Hod Lipson更加智能的机器人,那这对我们来说意味着什么?Hod Lipson认为这可以应用在医疗行业,因为具有意识的机器人能更好的了解人类的感受,从而对病人进行更好护理。他提到的这种应用已经实现,去年,欧盟发布了RoboEarth项目,四个机器人在模拟医院的环境中相互协作来照顾病人,它们通过与云端服务器的交互来进行信息共享和互相学习。例如,一个机器人可以对医院房间进行扫描并将完成的地图上传至RoboEarth,而另外一个对这个房间完全不了解的机器人就可以通过访问云端的这张地图来找到房间中一杯水,而不需要再进行额外的搜索。

这不仅体现了这种智能机器人在医疗行业的重要性,更预示着智能将从机器群组中涌现。不论是Hod Lipson的机器人,RoboEarth体系里的单个机器人,还是此前MIT发布的“多智能体系统”和哈佛大学的“白蚁机器人”,它们都是Robert Chambers在《Vestige of The Natural History of Creation》中变化论(transmutation)提到的“早期简单形态的物种”。而这种初期形态会逐渐向高级形态进行自然进化,这种法则可以被定义成单个个体的适应性,一种在群体中诞生并不断增长的学习能力。就像一只看不见的手,一只存在于大量低级成员中却控制并引导着整体的手,直到量变引起质变。更难得的是,机器的这种学习能力是有加速度的,随着时间推移,进化能力本身的多样性、复杂性和进化力也随之增长,这就是KK在《失控》里提到的群组的自我进化。

4、 深度学习对信息医疗领域的价值

斯坦福大学教授Walter Greenleaf的演讲是信息医疗,全球老龄化的加剧带来了严重的医疗负担,在过去的31年间,医疗开销超过了经济增长。而目前解决这个问题的最佳途径就是医疗信息化和数字诊断,移动智能设备的普及,医疗设备的数字化和便携式、云计算、社交化都在加速这个目标的达成,而当这一切都变成数字化时,医疗其实就变成了一个数据处理的过程,但数据量将会出现爆发式增长,越来越多的人加入,体征监测指标越来越多,服务层级也越来越丰富,这就需要深度学习来提供强大的数据处理能力。同时,由于机器在处理病情时可以做到完全按照数据处理结果进行客观诊断,而不像人类一样因为情感方面的原因做出错误判断,因此,医疗领域的发展也需要人工智能和深度学习的有力支持。

百度的大数据引擎把医疗行业作为重点应用方向,去年6月份上线的疾病预测可以对全国331个地级市,2870个区县的四种疾病进行未来趋势的预测,其中,百度的深度学习技术势必发挥了重要作用。IBM 和纽约基因中心 New York Genome Center, NYGC 合作,利用超级计算机的运算能力加速脑癌研究并找到最佳的治疗方法;Watson 负责整理医学文献并结合临床数据,并利用其认知技能及运算技术找到所有数据的关联性,根据病人的基因组找到最佳的治疗方式。波士顿Beth Israel Deaconess医疗中心的研究小组正在使用机器学习算法来解决正在困扰全国各地急诊室的数据质量问题:以结构化,标准化的方式获知病人来访的原因或“主要诉求”。

奇点大学生物技术和信息学项目负责人Raymond McCauley提到的基因检测技术也是解决我们医疗难题的一大途径,而深度学习也在这方面发挥着作用。比如说,多伦多大学的研究团队利用深度学习可以在基因未能被勘测的区域发现了自闭症和癌症的突变迹象,他们的最终目标是利用深度学习模型完成人类基因渐进式的“导航地图”,这被成为基因检测领域的转折点。Walter Greenleaf还提到,通过构建虚拟现实可以治疗毒瘾、酗酒、自闭症等疾病,而如果借助深度学习技术构建出一个更加智能、拥有意识的虚拟现实化身,将会带来更好的治疗效果。就像上文提到的,Hod Lipson的有意识的机器人可以更好的对病人进行护理。Facebook的人工智能专家LeCun也说:“对于基因和医疗数据,数据永远都不会够用。”深度学习的出现使我们可以放心去收集足够完善的医疗数据,从而借助技术解决人类的医疗困境。

5、 结语

在过去的500年里,人类越来越相信可以依靠科技来提升自我能力,而且这不只是盲目的信仰,而是在历史上经过了反复的证明。在科技的帮助下,我们能够进行工业革命,可以探索太空,破译基因密码,也可以通过互联网将全世界的信息和人连接在一起,未来甚至还可以创造出智力能够比肩甚至超越人类的新物种。《人类简史》中提到,人类语言的发明促生出文明,使人类走上了一条文明进化的快车道,而不是一直和其他动物一起堵在基因进化的路上。而如今,深度学习技术或许会是我们的另外一种“语言”,让我们自身与比特和机器实现互通,从而走上一条新的快速路。

在听Nick Sugimoto演讲时,注意到了他所在公司本田的一句广告词——The power of dream,这句话同样可以用在深度学习身上——Deep learning is the power of dream。

[repost ]虚拟现实技术的未来猜想

original:http://jijiapeng.baijia.baidu.com/article/44633

摘要 : 虚拟现实技术发展到一定阶段,人们进入虚拟现实的环境中也不需要什么介质了,我们随时可以将自己置身于一个包括视觉、听觉、触感和嗅觉全体感的虚拟环境中。最终甚至会让人不知哪里是现实,似梦非梦的感觉。

原创泛科技互联网产业「深度阅读」,请关注“一个字头的诞生”(微信公众号ID:Zitou23)

受百度百家的邀请,字头社在CES后再次赴美,踏上硅谷这片土地,考察硅谷,聆听BIG Talk的大家演讲。

此次行程颇为丰富,人工智能、深度学习、机器人等等,各种新兴科技概念都已经在硅谷开始实践,展示在我们眼前。但是对字头社而言,最大的感触便是虚拟现实技术的真正进步。

之前,我一直觉得虚拟现实技术尚未成熟,即便未来有一天成熟了应用范围也应该是比较有限,最多只能用在看电影和玩游戏上,仅仅是为了体验而发展。

但是事实上,这次考察硅谷,参观斯坦福实验室,硅谷的这帮技术达人告诉我:未来虚拟现实的应用范围非常广,堪称是人机交互的3.0时代。

其实对于虚拟现实,应该分为两个方面,一种是与现实世界无关,另一种是依靠全息技术,在现实的介质中产生虚幻的事物。但其实这都不重要,重要的是,未来虚拟现实的交互功能已然出现。

斯坦福大学虚拟互动实验室(Virtual Human Interaction Lab)创始人杰里米·拜伦森(Jeremy Bailenson)给我们播放了一段视频,后来我在国内的视频网站也找到了。(链接:http://v.qq.com/cover/n/npxja9kdoh1d7i0.html?vid=b0015jv6xec)

如同这个视频所阐述的,当我们带上智能眼镜之后,在凭借现实中的一些介质,可以呈现一些虚拟的事物。最关键的地方在于,用户竟然能够与这些虚拟的事物产生交互,可以点击。平淡无奇的一些事物,在用户的眼前展现出的是一个瑰丽的世界,现实生活中不存在的世界栩栩如生地出现了。

这样的虚拟现实技术,其实相当于人机交互的3.0时代到来。所谓的1.0时代,是指人与PC通过键盘、鼠标控制电脑,或者人与游戏机手柄控制游戏;2.0时代便是通过触屏或者体感感应器来与机器交互;而上述的3.0时代,则是在虚拟的现实中,人机直接进行交互。

在视频中,我们可以看到通过虚拟显示技术,人们可以进行一些设计、玩一些游戏等等。但事实上这种技术如果仅仅应用在此次,则格局或许偏小。无论是上述的拜伦森教授,还是后来给我们演讲的斯坦福荣誉教授Walter Greenleaf,都表示虚拟现实技术现在已经趋于成熟,他们正在研究如何将其逐步用于医疗,主要是在慢性疼痛疾病和精神疾病等方面。

Walter教授说,虚拟现实将会是一种新的医疗技术,虽然过去该技术一直发展,但因为成本太高,一直无法从实验室转到诊所。“但是现在公司用廉价的技术,在市场上发布虚拟现实的产品,如三星,索尼,微软。”Walter说,“我很兴奋,这对于应激障碍、自闭症等患者来说,未来有通过低廉的价格治愈的可能性。”

我感觉这个地方其实很有趣。虚拟现实和精神疾病似乎八竿子打不着,竟然能够帮助治疗?Walter教授认为,态度行为对健康是有影响的,很多精神疾病是由于焦虑和压力产生的,要治疗就让他们进入虚拟环境,让他们分心。而且虚拟现实的设备在家里使用,进入一个更放松的环境,而不是在医生的办公室里头。将患者放在虚拟环境里,教会他们怎么拒绝社会里的诱因,并且检测患者的数据。

而另外,对于一些虚拟现实也可以成为心理体验的方式。比如,你可以在虚拟世界中体验成为超人,帮助别人,拜伦森也表示,实验证明,在虚拟现实中体验过做超人的人现实生活中也会变得热心,帮助别人。此外,虚拟现实还可以让用户看到他在目前的生活状态下,喝酒的方式,体重的管理,财政管理都会影响将来的,赤裸裸的结果也会促使人们改变其生活方式。当然,虚拟现实还可以应用在运动员的训练,等等,此处就不赘述了。

这次硅谷之行,我们也接触了一些模拟触感技术的实验。虚拟现实未来是否会加入触感?我猜想,到一定阶段,人们进入虚拟现实的环境中也不需要什么介质了,即是说当开启了虚拟现实,我们就将自己置身于一个包括视觉、听觉、触感和嗅觉全体感的虚拟环境中。最终甚至会让人不知哪里是现实,似梦非梦的感觉,这或许也将涉及伦理方面的问题。不过,待到真的可以虚拟现实以假乱真之时,咱们再来讨论这个话题。

看完文章,还有什么想交流的,可以关注字头社微信公众号。“一个字头的诞生”微信公众号「ID:Zitou23」是专注于原创的科技互联网、中概股投资逻辑的公众号。不管是否同意本人观点,请维护本人表达观点的权利,本人所写的内容也仅基于对产业的认知和个人兴趣。