加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 正文

杨镇:从大数据与 AI 技术发展来看,跨链技术必要且必然

发布时间:2019-07-30 20:11:18 所属栏目:创业 来源:猎云财经
导读:副问题#e# 在不久未来,跟着AI能做的事越来越多,肯定会发生必要AI直接与其他AI举办交互的场景。那么,怎样担保AI与AI之间的信息交互是安详可信且可审计的呢?是通过在差异... 在不久未来,跟着 AI 能做的事越来越多,肯定会发生必要 AI 直接与其他 AI 举办
副问题[/!--empirenews.page--]

大数据101

在不久未来,跟着AI能做的事越来越多,肯定会发生必要AI直接与其他AI举办交互的场景。那么,怎样担保AI与AI之间的信息交互是安详可信且可审计的呢?是通过在差异...

在不久未来,跟着 AI 能做的事越来越多,肯定会发生必要 AI 直接与其他 AI 举办交互的场景。那么,怎样担保 AI 与 AI 之间的信息交互是安详可信且可审计的呢?是通过在差异公司之间成立数据网关?照旧简朴地通过客户端转发?我想真正的谜底就是智能合约 + 「跨链」技能。

原文问题:《从大数据和 AI 技能的成长看跨链技能的须要性和肯定性》 作者:杨镇,资深软件工程师、架构师、独立讲师,具备 18 年软件开拓履历,曾翻译《以太坊黄皮书》、《Solidity 官方文档》、《能干以太坊》,著有《深入以太坊智能合约开拓》、《以太坊智能合约高级开拓课程》、《工程师眼中的比特币和以太坊》

本文起首会对大数据和 AI 技能做一些观念扫盲,算是个小小的科普,也会涉及一些我以为有助于我们从本质上领略这些技能的要害点;我本人着实早就想聊聊这些内容,由于我见多太多人以致许多公司都并不确切地知道这些最根基的观念,都只是在跟风可能被许多媒体、大公司的贸易炒作所疑惑。以是本文的许多内容都可以看作是对从公共层面领略这些技能观念的误区的一种澄清。

虽然,本文中也会聊聊我小我私人「略懂」的区块链以实时下热点的「跨链」话题,这也是我写本文的首要目标。但愿本文能给专业的和非专业的伴侣都提供一些有效的信息可能开导。

写作本文可以说是一时鼓起,个中关于「跨链」的内容,灵感首要来自于前几天 Gavin Wood 博士说到的一个概念。

到底什么样的数据才是大数据

近些年,越来越多的企业、媒体在炒作「大数据(Big Data)」,我想无论是专业的技强职员照旧平凡公共,着实起首都要明晰一个观念——到底多大的数据才气叫「大数据」?

我曾经供职于一家险些全部中国人都知道的制造业公司,公司内部也曾说过要做大数据说明,要引入大数据观念内的技能器材和基本办法,其按照就是其营业数据量已经到达了 100 多 TB (1 TB 约便是 1 万亿字节)。但这显然忽略了一个重要身分,就是这 100 多 TB 数据是这家公司自创立以来的全部数据(20 多年的汗青数据)。而 Facebook 天天发生的数据量早已高出了 10 TB,请留意,是天天 。这是一个量级么?有可比性么?

以是我们谈「大数据」,最重要的指标着实在于「数据增量大」,可能叫做「数据增速大」。仅仅是汗青数据量大,谈不上「大数据」,由于不管汗青数据再多,他们都是「汗青数据」,是不会再修改的数据,说明一次就完事了;而假如「数据增速大」,其绝对数据量天然也就会很是大,那么它对付数据说明器材和相干技能的要求也就会响应进步。

而当我们以「数据增速大」作为要害指标来筛选的时辰,我们就会发明:着实今朝市面上 99.9% 的公司所谓的「大数据」说明,都只是给 20 多年前就呈现了的 BI (Business Inteligence,即贸易智能,由于篇幅缘故起因,这里不做睁开先容)营业换了个新马甲罢了。真正能称得上是「大数据」的营业,或许只有那些环球化的数据信息处事,可能信息化的社会民众基本处事。前者的代表就是环球化的交际媒体 / 内容平台(Facebook、Twitter、微信、早期的微博)、搜刮引擎(Google、百度)、高流量的电商平台(Amazon、淘宝)、高流量的付出买卖营业网关、高活泼度的移动智能装备体系处事等互联网应用;后者的代表则是相同运营商、民众基本办法处事(好比交通、能源)等一样平常由当局节制的社会民众基本处事。

「大数据」的观念初次被提出是在或许 10 年之前,今朝业内普及认同的 3V 指标是权衡大数据的最首要指标,它们包罗 Volume (数据量)、Variety (多样性)、Velocity (增添速率),其后有业内人士在 3V 指标的基本上增进了 Veracity (真实度)和 Value (代价),将其扩展为 5V 指标。而在大数据的多样性和高速增添特征的配合影响下,非相关型数据库(Nosql database)也获得了大量的应用和快速的进化成长。

另外值得一提的就是连年来获得飞速成长的物联网(Internet of Things)公司。基于大量的终端装备 / 传感器所收罗 / 传输的数据是有也许到达「大数据」的级此外,只是今朝能支持到「数亿」量级终端装备的公司还并不多,但这已经是一个可以看到的将来偏向了。

显然,大数据并不是平凡公司能玩儿的动的对象,说到底照旧成本 / 资源的游戏。虽然这里边的技能含量是有的,对技强人才的需求也是有的,只是这个偏向或许真的不得当拿来创业。

要处理赏罚海量的、异构的、高速发生的数据,肯定必要像诸如漫衍式数据客栈、数据洗濯器材、数据建模器材、数据说明器材等等相干的技能产物和技能栈的支持,并不是个简朴的事变;纵然只思量传统的 BI 技能栈,也是个技能活儿;市场需求是没题目的。但这些不是本文的重点,就不睁开先容了。

AI 又是什么

AI 就是人工智能(Arificial Intelligence),我想大部门人都知道了。以是这里我想再引入两个术语:神经收集(Neural Network)和专家体系(Expert System)。

今朝方兴未艾的深度进修(Deep Learning)着实就是基于人工神经收集(Artificial Neural Network)理论成长进化而来的一套算法体系。那么神经收集是什么奇怪对象么?并不是。最早的对付用呆板模仿人类神经勾当的研究开始于 19 世纪末期,而当代人工神经收集的最初发源则来自于图灵在 1948 年颁发的一篇论文。到上世纪八九十年月,神经收集的工程实现也有了一些盼望,呈现了一些雏形。近几年由 Google 引领的深度进修高潮,则是人工神经收集第一次靠近现实应用的实行,固然它也还仅仅是一些相比拟力成熟的算法罢了。

今朝知名度最高的深度进修项目就是 Google 的 Alpha Go 了,这个项目用在围棋规模已经培育了唯一档的「AI 流」,它乃至激发了一些基本围棋理论的成长演进。可是,这个项目着实是一个方针在医疗规模应用的「专家体系」。所谓「专家体系」,就是用呆板模仿人类的某个特定规模的专家来举办决定可能判定。专家体系同样不是什么新玩意儿。最早的专家体系呈现于上世纪七八十年月,它们凡是由两部门构成:揣度引擎(Inference Engine)和常识库(Knowledge Base)。也就是基于大量的履历信息 / 数据 / 指标和其对应的功效,用算法引擎来按照新的输入数据模仿相同于规模专家基于履历举办的判定,供人参考。今朝在医疗规模的一些深度进修项目,其揣度的精确率已经高出了平凡的大夫,尤其是在一些高度依靠于对图形举办搜查(对各类人眼不易识此外物理特征的判定)和一些指标相对很是明晰的细分规模。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读