9月4-5日,在宁波市人民政府的指导下,由博闻中国主办的第七届全球云计算大会·中国站在宁波泛太平洋大酒店隆重举办。本次大会旨在全面助力长三角地区乃至全国各传统行业企业加快云计算、大数据等新一代信息技术的应用步伐。会上,九州云作为开放基础架构的引领者也受邀出席大会,为加速国内工业互联网发展及智慧城市建设献出绵薄之力。

 

亮相全球云计算大会,九州云助力企业信息化建设

 

本次大会以“新技术、新转型、新机遇”为主题,从技术及应用两方面切入,侧重云平台企业的案例应用与实践分享。一场主论坛和四场分论坛深入探讨了云计算、网络安全、物联网、人工智能、大数据、区块链、云网融合等先进技术在制造、物流、金融、家居、医疗等行业的具体应用,进一步让中小企业了解“上云”优势,帮助他们解决“三缺”——缺技术、缺资金、缺人才疑虑,鼓励、扶持及推动中小企业将“上云”落到实处。两天的会议吸引了来自中国、美国、英国、印度等国家的1000多位行业专家莅临现场并开展交流合作。

 

获颁两项大奖,尽显九州云实力

 

亮相全球云计算大会,九州云助力企业信息化建设

 

作为本届大会的核心之一,第六届“云鼎奖”也正式揭晓。九州云凭借自身技术实力和企业影响力从117家企业中脱颖而出,荣获“2018 – 2019年度全球优秀解决方案奖”和“2018 – 2019年度中国领先品牌奖”。

 

“云鼎奖” 旨在表彰年度对中国云计算产业做出突出贡献和具有创新精神的集体、个人和产品,进而促进云计算在中国健康、快速、有序发展,并助推中国企业走向世界舞台。第六届“云鼎奖”自推出以来就备受业内人士广泛关注和积极参与,共计收到117家企业投递的203个奖项。能获颁两项大奖,也进一步证明业界对九州云实力的肯定。

 

发表主题演讲,分享边缘云

亮相全球云计算大会,九州云助力企业信息化建设

 

本次大会中,九州云还为参会嘉宾带去了精彩演讲。在9月5日的“云计算技术“分论坛上,九州云技术总监黄舒泉以”基于StarlingX的边缘机器学习优化“为主题展开了分享。

 

随着5G的到来,无人驾驶、智能摄像头和AR/VR等应用的兴起给用户带来了全新的应用体验,这些体验很多源于机器学习的使用。然而,由于资源受限和数据处理等原因,我们并不能很好地在边缘云进行模型训练和推理。StarlingX是一个针对高性能和低延迟应用进行优化的开源边缘计算云平台。我们可以通过StarlingX实现在中心云进行复杂的模型训练,然后将模型推送至边缘云完成推理的过程。黄舒泉此次的分享,介绍了如何通过StarlingX的云边协同能力,持续优化边缘云智能应用的推理能力。

 

设置展台,零距离传递新技术

 

亮相全球云计算大会,九州云助力企业信息化建设

 

与往届大会一样,此次会议也采取了主题演讲、品牌展示、商务配对,商务考察等相结合的形式,综合展现云计算产业在全球及国内的发展及应用前景。在“品牌展示”区汇聚了近20家国内外知名企业参展,为参会者集中展示了最前沿的技术和最优秀的产品及解决方案,这对促进宁波尽快实现大数据蓝图在云技术、大数据、人工智能产业的研究、应用等方面起到的积极推动作用。

 

两天的会议,九州云展台吸引了诸多业界专业人士驻足。在本次展会中,九州云向来自国内外嘉宾展示了最新版云平台产品Animbus® 7.2以及边缘IaaS、边缘编排管理平台MEPM V1.0和MEAO V1.0、边缘编排管理工具 Edge MANO V1.0等解决方案,让参会嘉宾零距离领略九州云开放基础架构的实力。

 

在“互联网+”、《中国制造2025》等一系列战略推动、国家利好政策的扶持和企业数字化转型升级迫切需求下,企业愈发重视信息技术的应用。而云计算无疑是企业更快部署信息化应用的“利器”, 国内云计算仍有巨大发展空间。未来,九州云将在OpenStack、边缘计算等赛道持续发力,赋能行业用户,实现合作共赢。

 

 

END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。

亮相全球云计算大会,九州云助力企业信息化建设

点击“阅读原文”,查看OpenInfra上海峰会完整议程!

随着5G的到来,物联网、无人驾驶、AR/VR等应用的兴起给用户带来了全新的应用体验,而由此产生的海量数据使得企业必须具备在边缘处理数据的能力,才能快速获取洞察力并做出实时决策。

 

近日,在宁波举办的第七届全球云计算大会·中国站上,九州云技术总监黄舒泉接受了51CTO的专访,就边缘计算、StarlingX以及九州云在混合云战略下的布局进行了深入解读。

 

媒体视角 | 5G时代云边协同快速发展 九州云全面布局混合云

 51CTO记者张鑫玮(左一)、九州云技术总监黄舒泉(右一)

 

边缘计算应运而生

 

边缘计算是继云计算、物联网之后,5G时代的又一创新技术。虽然云计算已经普遍被企业所接受,但是在一些领域应用中仍存在短板。例如无人驾驶会实时采集车辆各部件运转的数据与路况,当因带宽或网络原因导致信息传递不及时时,有可能会酿成交通事故。

 

由此,边缘计算应运而生。边缘计算是在靠近物或数据源头的网络边缘侧,融合网络、计算、存储、应用核心能力的分布式开放平台,就近提供边缘智能服务,满足行业数字化在敏捷联接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。边缘计算是通过网络边缘对数据进行分类,将部分数据放在边缘处理、减少延迟,从而实现实时以及更高效的数据处理,以达到云计算的能力补充。

 

黄舒泉介绍,边缘计算有三大特点。第一是低延迟,由于边缘计算更加靠近数据来源,在边缘端进行计算,因此可以减少延迟时间,一般要求延时小于20毫秒,因此在智慧工厂、制造等行业需求比较大。第二是高带宽,由于计算的距离变短,用户的流量可以分流到边缘端,网络传输的压力也就变小了,AR/VR就是具有高带宽低延迟的应用场景。第三是大规模分布的应用,由于计算更加靠近各自应用,因此应用程序的效率也会大大提升。

 

值得注意的是,由于运营商可以通过边缘计算将边缘站点盘活,依靠地域优势、价格优势,体现其独特价值。因此,拥有大规模节点的企业会在边缘计算领域更加有优势,例如电信运营商、国家电网等。

 

目前,边缘计算还没有开始大规模商用,更多的用户都是开始尝试进行试用。在黄舒泉看来,边缘计算会在垂直领域开始拓展,例如工业、农业、畜牧业等传统行业快速发展。

 

云边如何协同发展

 

有了边缘云后,更多的计算可以在边缘端来完成,那么云计算的中心计算与边缘计算该如何协同呢?黄舒泉表示,中心云代表了企业的数据中心,边缘云代表了企业分布在外面的数据中心,通过连接,将中心云的资源、任务,同步到边缘云,边缘云运行后将设备的使用情况反馈给中心云。中心云可以通过认证的方式,将不同的边缘云接入到中心云。

 

 

边缘云一般规模不大,因此进行模型训练就会出现瓶颈。模型训练是需要大规模的数据进行计算,而边缘云的服务器资源较少,计算能力有限。此外,受限于环境和资源,边缘云只能收集自己这个边缘端的信息,而模型训练需要多个边缘信息的数据才会更加精准。因此,不同边缘云的数据统一汇总到中心云,然后再进行训练。所以,推理更加适用于边缘云,当中心云训练好模型后可以推送到边缘云,边缘进行推理。

 

OpenStack可以解决云计算很多基础资源管理问题,而边缘计算则是在靠近用户或者靠近数据端去产生计算,它同样需要计算、网络、存储等资源。在解决问题方面,边缘计算与云计算也有诸多共性以及不同。针对低延时高带宽的需求,OpenStack社区就诞生了StarlingX项目,优化OpenStack在边缘端的基础设施层面的管理。

 

边缘计算框架StarlingX

 

StarlingX是OpenStack基金会孵化的独立开源项目,为分布式边缘云提供用户服务的开源项目。值得注意的是,StarlingX不是OpenStack子项目,它本身就是一个完整的项目。同时,它使用了许多OpenStack服务来提供核心的计算、存储和网络功能。

 

StarlingX是一个针对高性能和低延迟应用进行优化的开源边缘计算云平台,于去年推出第一个版本,StarlingX 1.0在专用物理服务器上提供了强化的OpenStack平台,帮助企业在边缘端进行基础架构的资源管理。

 

日前,StarlingX推出了2.0版本,实现集成OpenStack和Kubernetes强化平台的交付,为混合工作负载提供灵活性、稳健性以及相关支持,进而利用构建块来构建开源基础设施。黄舒泉表示,5G正成为现实,现在正是采用StarlingX构建边缘云基础设施平台实现5G低延迟和高性能应用的好时机。九州云将持续为StarlingX社区做贡献,助力5G部署。

 

StarlingX虽然发展时间不长,但是发展速度较快,也有众多企业用户参与,包括三大运营商、华为、中国银联等都有参与到社区中,并且通过StarlingX技术进行相关业务应用。

 

九州云的混合云布局

 

云计算的下半场是混合云。的确,如今的企业中至少都有两朵不同的云,而多云环境下也带来了诸多挑战,多云之间的互联互通,多云之间的统一管理,都成为企业面临的难题。

 

 

为了帮助企业应对混合云带来的挑战,九州云也是调整了业务布局。黄舒泉介绍说,九州云提供一整套混合云平台的架构,涉及到四个方面。九州云是以OpenStack为核心的私有云起家,一直在夯实私有云能力;同时,看到用户在边缘端的计算需求,九州云推出了基于StarlingX为基础的边缘云产品;当有了不同形态的云之后,企业可以通过九州云SD-WAN产品进行多云之间的连接,将不同数据中心、不同云之间进行连接;多云连接之后,九州云还提供统一的管理平台,帮助企业管理多云环境。

 

由此可以看出,面向混合云的战略下,九州云提供了私有云、边缘云、云连接以及云管理四大产品和服务,帮助企业应对混合云带来的挑战。同时,九州云还提供运维自动化等相关工具和服务,满足企业应对后期运维的需求。

 

此外,在5G正式商用后,为了满足用户对5G的需求,九州云还建立5G生态。作为合作伙伴与开发者之间的桥梁,九州云协助合作伙伴建立自己的5G市场地位,同时通过开放能力帮助开发者开发边缘应用,并且将这些边缘应用推送到合作伙伴中,扩大5G的生态圈。

 

本文转载自:51CTO

本文作者:张鑫玮

 

 

END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。

媒体视角 | 5G时代云边协同快速发展 九州云全面布局混合云

点击“阅读原文”,查看OpenInfra上海峰会完整议程!

 

Nova Conductor


Conductor 服务作为 Nova 核心部件之一最初在 Grizzly 版本中发布,在整个 Nova 中充当着组织者的角色。主要提供了 3 个功能:


  • nova-conductor 连接了 nova-api、nova-compute 和 nova-scheduler 服务,提供了 长时任务编排(Task Orchestration)功能。Nova 将所有耗时长,跨节点,易出错但相对固定的处理流程抽象成 Task,包括启动虚拟机、冷迁移和热迁移等。Conductor 作为 Task 的组织者,在执行 Task 的时候 Conductor 会一直追踪它的状态,并且能够执行错误处理、恢复等一系列工作。


  • nova-conductor 为 nova-computee 提供了 数据库的代理访问机制。因为计算节点是 OpenStack 云环境中与用户业务接触最近、数据最多、最容易被攻击的目标,所以 nova-compute 被设计成无法直接访问数据库,以此来保障数据库的安全。


  • nova-conductor 为版本较旧的 nova-compute 提供了 数据库版本向下兼容性。OpenStack 作为一个分布式系统,不同的服务可能运行在不同的代码版本上,在这些模块通信的过程中,Conductor 为传输的数据对象提供了版本兼容功能。让处于不同版本的 Nova 服务能够识别 RPC 请求中数据对象的版本,并完成不兼容的对象转换。但需要注意的是,这种兼容性是向下的。


Conductor 的代码包目录结构


  1. [root@localhost nova]# tree conductor/

  2. conductor/

  3. ├── api.py

  4. ├── __init__.py

  5. ├── manager.py

  6. ├── rpcapi.py

  7. └── tasks

  8. ├── base.py

  9. ├── __init__.py

  10. ├── live_migrate.py

  11. └── migrate.py


其中,在 manager 模块中主要实现了 ComputeTaskManager 任务编排封装类和 ConductorManager 数据库访问代理封装类。


数据库访问代理机制


Conductor 实现的数据库访问代理机制带来的好处:


  • 为 nova-compute 服务的数据库访问提供了一层额外的安全保障。


  • 在保证 Conductor API 兼容性的前提下,数据库 schema 升级的同时不需要升级 nova-compute 的代码版本。


  • nova-compute 可以通过创建多个协程来使用非阻塞的 nova-conductor RPC 调用。


需要注意的是,nova-conductor 作为代理服务成为了 nova-compute 访问数据库速度的瓶颈,好在由于 Conductor 服务是无状态服务,所以在性能和稳定性要求较高的环境中可以任意横向扩展 Conductor 节点的数量。


Versioned Object Model 机制


Versioned Object Model(版本化对象模型)机制在 Icehouse 版本被引入。Object Model 将每一张数据库表都与一个 Object 对应,将对数据库表的操作都封装到 Object 实例中,需要通过 Object 实例来进行数据库的操作。这听起来了 ORM 很相似,但实际上 Object Model 是比 ORM 更上一层的封装。ORM 只是单纯将数据库表结构映射成为了一个 Python 对象,但 Object Model 是在此之上做了更多的数据库操作实践和优化,Object Model 使用面向对象的思想对数据进行了封装,并为封装的数据提供了数据库代理、RPC 向下版本兼容、流量优化等一些列高级特性。


  • Nova 数据库访问方式与对象构建过程解耦:Object Model 支持 remote 和 local 两种数据库访问方式,并非成功构建了 Object 就可以直接操作数据库,在 nova-compute 中通一个 Object 来执行数据库操作实际上是远程的,是一种间接的数据库访问。这是实现数据库访问代理功能的关键。


  • nova-compute 和数据库的在线升级:nova-compute 通过 RPC 传递 Object 到 nova-conductor 时,Object 会维护一个版本号。假设 nova-compute 传递的是一个低版本的 Object,那么 nova-conductor 就会对该 Object 进行版本兼容处理,使得低版本的 Object 也能如常对高版本 DB schema 进行操作。


  • 对象属性类型的声明:Python 是一门动态的强类型解释语言,Python 不具有对象类型声明语句,这是 Python 轻便简单的根本,也是 Python 难以支撑开发超大型项目的病因。在 Web API 层面,我们可以通过 validation.schema 和 view_builder 来严格规范输入、输出的数据结构。而在后端程序的内部实现,我们则可以通过 Object Model 来实现对 Object 每个属性字段的类型声明,这帮助我们编写出来的程序具有更好的可读性和稳定性。


  • 减少写入数据库的数据量:Object Model 支持增量更新数据库记录属性值,而无需将整个对象的所有属性都更新一遍,每个 Object 都具有一个 _change_field 实例属性用来记录变化的值。


  1. def remotable(fn):

  2. """Decorator for remotable object methods."""

  3. @six.wraps(fn)

  4. def wrapper(self, *args, **kwargs):

  5. ctxt = self._context

  6. if ctxt is None:

  7. raise exception.OrphanedObjectError(method=fn.__name__,

  8. objtype=self.obj_name())

  9. if self.indirection_api:

  10. # indirection_api: 间接数据库访问 API,就是 conductor_rpcapi.ConductorAPI()

  11. # object_action: remotable 装饰器中调用,Versioned Object 实例通过这个方法来远程访问数据库

  12. # 相对的,object_class_action_versions: remotable_classmethod 装饰器中调用,Versioned Object 类通过这个方法来远程访问数据库

  13. updates, result = self.indirection_api.object_action(

  14. ctxt, self, fn.__name__, args, kwargs)

  15. for key, value in six.iteritems(updates):

  16. if key in self.fields:

  17. field = self.fields[key]

  18. # NOTE(ndipanov): Since VersionedObjectSerializer will have

  19. # deserialized any object fields into objects already,

  20. # we do not try to deserialize them again here.

  21. if isinstance(value, VersionedObject):

  22. setattr(self, key, value)

  23. else:

  24. setattr(self, key,

  25. field.from_primitive(self, key, value))

  26. # obj_reset_changes 重新设置 change 数据

  27. # 相对的,obj_get_changes 获取 change 数据

  28. self.obj_reset_changes()

  29. # _changed_fields 存放增量更新的数据

  30. self._changed_fields = set(updates.get('obj_what_changed', []))

  31. return result

  32. else:

  33. return fn(self, *args, **kwargs)


  34. wrapper.remotable = True

  35. wrapper.original_fn = fn

  36. return wrapper


END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


技术周 | Nova Conductor Versioned Object Model 机制


点击“阅读原文”,了解九州云更多信息!

虚拟存储器系统


在早期的计算机系统中,程序员会直接对主存储器的物理地址进行操作,这种编程方式导致了当程序出现寻址错误时有可能会导致整个系统崩溃,当一个进程出现寻址错误时也可能会导致另一个进程崩溃。显然,直接操作主存的物理地址不是一个好的方法。而且,由于不存在分页或分段的存储空间管理手段,所以 CPU 寻址宽度就成为了存储容量的限制,例如:32 位 CPU 只支持 4GB 内存的寻址。这导致了该计算机无法运行存储空间需求大于实际内存容量的应用程序。


为了解决这些问题,现代计算机系统通过操作系统和硬件的结合,把主存储器和辅存储器从逻辑上统一成了一个整体,这就是虚拟存储器,或称为虚拟存储系统。虚拟存储器是硬件异常、硬件地址翻译、主存、磁盘文件和内核软件的完美交互,它为每个进程提供了一个大的、一致的和私有的地址空间。


虚拟存储器的两大特点:


  • 允许用户程序使用比实际主存空间大得多的空间来访问主存

  • 每次访存都要进行虚实地址转换。


理地址,即物理主存的地址空间主存被组织成一个由 M 个连续的、字节大小的单元组成的数组,每字节都有一个唯一的物理地址(Physical Address,PA)。第一个字节的地址为 0,接下来的字节的地址为 1,依此类推。给定这种简单的结构,CPU 访问存储器的最自然的方式就是使用物理地址,即物理寻址。


虚拟地址,即虚拟存储地址空间,它能够让应用程序误以为自己拥有一块连续可用的 “物理” 地址,但实际上从程序视角所见的都是虚拟地址,而且这些虚拟地址对应的物理主存空间通常可能是碎片的,甚至有部分数据还可能会被暂时储存在外部磁盘设备上,在需要时才进行数据交换。


虚拟存储器的核心思路是根据程序运行时的局部性原理,一个程序运行时,在一小段时间内,只会用到程序和数据的很小一部分,仅把这部分程序和数据装入主存即可,更多的部分可以在需要用到时随时从辅存调入主存。在操作系统和相应硬件的支持下,数据在辅存和主存之间按程序运行的需要自动成批量地完成交换。


页式虚拟存储器


在页式虚拟存储器中,通过将虚拟存储空间分割成为了大小固定的虚拟页(Vitual Page,VP),简称虚页,每个虚拟页的大小为 P=2^n 字节。类似地,物理存储空间被分割为物理页(Physical Page,PP)也称为页帧(Page Frame),简称实页,大小也为 P 字节。


同任何缓存设计一样,虚拟存储器系统必须有某种方法来判定一个虚拟页是否存放在物理主存的某个地方。如果存在,系统还必须确定这个虚拟页存放在哪个物理页中。如果物理主存不命中,系统必须判断这个虚拟页存放在磁盘的哪个位置中,并在物理主存中选择一个牺牲页,然后将目标虚拟页从磁盘拷贝到物理主存中,替换掉牺牲页。这些功能是由许多软硬件联合提供,包括操作系统软件,MMU(存储器管理单元)地址翻译硬件和一个存放在物理主存中的叫做页表(Page Table)的数据结构,页表将虚拟页映射到物理页。页表的本质就是一个页表条目(Page Table Entry,PTE)数组。


CPU 通过虚拟地址(Virtual Address,VA)来访问存储空间,这个虚拟地址在被送到存储器之前需要先转换成适当的物理地址。将一个虚拟地址转换为物理地址的任务叫做地址翻译(Address Translation)。就像异常处理一样,地址翻译需要 CPU 硬件和操作系统之间的紧密合作。比如:Linux 操作系统的交换空间(Swap Space)。如果当 CPU 寻址时发现虚拟地址找不到对应的物理地址,那么就会触发一个异常并挂起寻址错误的进程。在这个过程中,对其他进程没有任何影响。


虚拟地址与物理地址之间的转换主要有 CPU 芯片上内嵌的存储器管理单元(Memory Management Unit,MMU)完成,它是一个专用的硬件,利用存放在主存中的查询表(地址映射表)来动态翻译虚拟地址,该表的内容由操作系统管理。


当页表已经存放在主存中,那么当 CPU 访问(虚拟)存储器时,首先要查询页面得到物理主存地址之后再访问主存完成存取。显然,地址转换机制让 CPU 多了一次访问主存的操作,相当于访问速度下降一半。而且当发生页面失效时,还要进行主存-辅助的页面交换,那么 CPU 访问主存的次数就更多了。为了解决这个问题,在一些影响访问速度的关键地方引入了硬件的支持。例如:采用按内容查找的相联存储器并行查找。此外,还进一步提出了 “快表” 的概念。把页表中最活跃的部分存放在快速存储器中组成快表,是减少 CPU 访问时间开销的一种方法。


快表由硬件(门电路和触发器)组成,属于 MMU 的部件之一,通常称为转换旁路缓冲器(Translation lookaside buffer,TLB)。TLB 的本质也是一个 Cache,它比页表小得多,一般在 16 个条目 ~ 128 个条目之间,快表只是页表的一个小小的副本。查表时,带着虚页好同时差快表和慢表(原页面),当在快表中找打条目时,则马上返回主存物理地址到主存地址寄存器,并使慢表查询作废。此时,虽然使用了虚拟存储器但实际上 CPU 访问主存的速度几乎没有下降(CPU 不再需要多次访问主存)。如果快表不命中,则需要花费一个访主存时间查慢表,然后再返回主存物理地址到主存地址寄存器,并将此条目送入到快表中,替换到快表的某一行条目。


大页内存


在页式虚拟存储器中,会在虚拟存储空间和物理主存空间都分割为一个个固定大小的页,为线程分配内存是也是以页为单位。比如:页的大小为 4K,那么 4GB 存储空间就需要 4GB/4KB=1M 条记录,即有 100 多万个 4KB 的页。我们可以相待,如果页太小了,那么就会产生大量的页表条目,降低了查询速度的同时还浪费了存放页面的主存空间;但如果页太大了,又会容易造成浪费,原因就跟段式存储管理方式一般。所以 Linux 操作系统默认的页大小就是 4KB,可以通过指令查看:


  1. $ getconf PAGE_SIZE

  2. 4096


但在某些对性能要求非常苛刻的场景中,页面会被设置得非常的大,比如:1GB、甚至几十 GB,这些页被称之为 “大页”(Huge Page)。大页能够提升性能的主要原因有以下几点:


  • 减少页表条目,加快检索速度。


  • 提升 TLB 快表的命中率,TLB 一般拥有 16 ~ 128 个条目之间,也就是说当大页为 1GB 的时候,TLB 能够对应 16GB ~ 128GB 之间的存储空间。


值得注意的是,首先使用大页的同时一般会禁止主存-辅存页面交换,原因跟段式存储管理方式一样,大容量交换会让辅存读写成为 CPU 处理的瓶颈。再一个就是大页也会使得页内地址检索的速度变慢,所以并非是页面的容量越大越好,而是需要对应用程序进行大量的测试取得页面容量与性能的曲线峰值才对。


启用 HugePage 的优点


  • 无需交换,不存在页面由于内存空间不足而换入换出的问题。

  • 减轻 TLB Cache 的压力,也就是降低了 CPU Cache 可缓存的地址映射压力。

  • 降低 Page Table 的负载。

  • 消除 Page Table 地查找负载。

  • 提高内存的整体性能。


Linux 服务器的大页内存设置


在 Linux 中,物理内存是以页为单位来管理的。页的大小为 4096 字节。1MB 的内存能划分为 256 页;1GB 则等同于 256000 页。CPU 中有一个内置的内存管理单元(MMU),用于存储这些页的列表(页表),每页都有一个对应的入口地址。在这种情况下,内存管理单元的大小(注:实际上是页表的大小)决定了服务器能使用的最大内存大小。


如果为服务器分配的内存远大于现有内存管理单元能管理的量,则会造成内存的浪费。CentOS 6 中为解决这个问题,使用了大页面的方式。简单来说,大页面即大小为 2MB 或者 1GB 的页。2MB 的页适用于管理 GB 级单位的内存;1GB 的页适用于 TB 级单位的内存。


手动去管理大页面较麻烦,往往需要更改代码。为了便于系统管理员和开发人员使用, CentOS 引入了 transparent huge pages (简称 THP )的概念。THP 是一个抽象层,其自动化了创建,管理和使用大页面的大多数步骤。


大页面配置需要连续的内存空间,因此在开机时就分配是最可靠的设置方式。配置大页面的参数有:


  • hugepages :在内核中定义了开机启动时就分配的永久大页面的数量。默认为 0,即不分配。只有当系统有足够的连续可用页时,分配才会成功。由该参数保留的页不能用于其他用途。


  • hugepagesz:在内核中定义了开机启动时分配的大页面的大小。可选值为 2MB 和 1GB 。默认是 2MB 。


  • default_hugepagesz:在内核中定义了开机启动时分配的大页面的默认大小。


要调整页的尺寸,必须将配置以参数格式写入到 Linux 操作系统启动命令中。如要为系统配置 10 个 1GB 的大页面,则启动命令中要包含:default_hugepagesz=1Ghugepagesz=1Ghugepages=10。配置 1GB 的大页面,CPU 特性需要支持 pdpe1gb ,系统内核也需要支持。e.g.


  1. grub


  2. GRUB_CMDLINE_LINUX="$GRUB_CMDLINE_LINUX default_hugepagesz=1G hugepagesz=1G hugepages=100"


查看大页的相关配置:


  1. $ sysctl -a | grep -I huge


  2. $ cat /proc/meminfo | grep -i Huge


配置大页面后,系统在开机启动时会首选尝试在内存中找到并预留连续的大小为 hugepages *hugepagesz的内存空间。如果内存空间不满足,则启动会报错 KernelPanic,Outof Memory 等错误。


使用大页面后,能减少系统管理和访问页的时间(扩大了 TLB 快页表查询的内存地址范围);内核中的 swap 守护进程也不会管理大页面占用的这部分空间。合理设置大页面能减少内存操作的负担,减少访问页表造成性能瓶颈的可能性,从而提升系统性能。


如只配置了一个大小的大页面,可以通过 /proc/meminfo 中的 HugepagesizeHugePages_Total 计算出大页面所在内存空间的大小。这部分空间会被算到已用的内存空间里,即使还未真正被使用。因此,用户可能观察到下面现象:使用 free 命令查看已用内存很大,但 top 或者 ps 中看到 %mem 的使用总量加起来却很少。


注意:一般情况下,配置的大页面可能主要供特定的应用程序或服务使用,其他进程是无法共享这部分空间的(如 Oracle SGA )。请根据系统物理内存和应用需求来设置合适的大小,避免大页面使用的浪费;以及造成其他进程因竞争剩余可用内存而出现内存溢出的错误,进而导致系统崩溃的现象。


Nova 虚拟机的大页内存设置


绝大多数现代 CPU 都支持多种内存页尺寸,从 4KB 到 2M/4M,最大可以达到 1GB。所有 CPU 都默认使用最小的 4KB 页,如果具有较大的内存可以选择启用大页内存进行分配,这将会明显减少 CPU 的页表项,因此会增加 TLB 页表缓存的命中率,降低内存访问延迟。如果操作系统使用默认的小页内存,随着运行时间,系统会出现越来越多的碎片,以至于后来难以申请到大页的内存。在大页内存大小越大时,该问题越严重。因此,如果当你有使用大页内存的需求时,最好的办法是在系统启动时就预留好内存空间。当前的 Linux 内核不允许针对特定的 NUMA 节点进行这样的设定,不过,在不久的将来这个限制将被取消。更进一步的限制是,由于 MMIO 空洞的存在,内存开始的 1GB 不能使用 1GB 的大页。


Linux 内核已经支持 THP(Transparent Huge Pages,透明巨型页)特性,该特性会尝试为应用程序预分配大页内存。依赖该特性的一个问题是,虚拟机的拥有者并不能保证给虚拟机使用的是大页内存还是小页内存。


内存块是直接指定给特定的 NUMA 单元的,这就意味着大页内存也是直接指定在 NUMA 单元上的。因此在 NUMA 单元上分配虚拟机时,计算服务需要考虑在 NUMA 单元或者主机上可能会用到的大页内存。为虚拟机内存启用大页内存时,可以不用考虑虚拟机操作系统是否会使用。


Linux 内核有一项特性,叫做内核共享存储(KSM),该特性使得不同的 CPU 可以共享相同内容的内存页。内核会主动扫描内存,合并内容相同的内存页。如果有 CPU 改变这个共享的内存页时,会采用写时复制(COW)的方式写入新的内存页。当一台主机上的多台虚拟机使用相同操作系统或者虚拟机使用很多相同内容内存页时,KSM 可以显著提高内存的利用率。因为内存扫描的消耗,使用 KSM 的代价是增加了 CPU 的负载,并且如果虚拟机突然做写操作时,会引发大量共享的页面,此时会存在潜在的内存压力峰值。虚拟化管理层必须因此积极地监控内存压力情况并做好现有虚拟机迁移到其他主机的准备,如果内存压力超过一定的水平限制,将会引发大量不可预知的 Swap 操作,甚至引发 OOM。所以在性能要求严格的场景中,我们建议关闭内存共享特性。


计算节点可以配置 CPU 与内存的超配比例,但是一旦使用了大页内存,内存便不能再进行超配。因为当使用大页内存时,虚拟机内存页必须与主机内存页一一映射,并且主机操作系统能通过 Swap 分区分配大页内存,这也排除了内存超配的可能。大页内存的使用,意味着需要支持内存作为专用资源的虚拟机类型。


尽管设置专用资源时,不会超配内存与 CPU,但是 CPU 与内存的资源仍然需要主机操作系统提前预留。如果使用大页内存,必须在主机操作系统中明确预留。对于 CPU 则有一些灵活性。因为尽管使用专用资源绑定 CPU,主机操作系统依然会使用这些 CPU 的一些时间。不管怎么样,最好可以预留一定的物理 CPU 专门为主机操作系统服务,以避免操作系统过多占用虚拟机 CPU,而造成对虚拟机性能的影响。Nova可以保留一部分 CPU 专门为操作系统服务,这部分功能将会在后续的设计中加强。


允许内存超配时,超出主机内存的部分将会使用到 Swap。ZSWAP 特性允许压缩内存页被写入 Swap 设备,这样可以大量减少 Swap 设备的 I/O 执行,减少了交换主机内存页面中固有的性能下降。Swap 会影响主机整体 I/O 性能,所以尽量不要把需要专用内存的虚拟机机与允许内存超配的虚拟机放在同一台物理主机上。如果专用 CPU 的虚拟机与允许超配的虚拟机竞争 CPU,由于 Cache 的影响,将会严重影响专用 CPU 的虚拟机的性能,特别在同一个 NUMA 单元上时。因此,最好将使用专用 CPU 的虚拟机与允许超配的虚拟机放在不同的主机上,其次是不同的 NUMA 单元上。


关于虚拟机在主机上的 CPU 与内存的布局决策,也会影响其他的主机资源分配。例如,PCI 设备与 NUMA 单元关系密切,PCI 设备的 DMA 操作使用的内存最好在本地 NUMA 单元上。因此,在哪个 NUMA 单元上分配虚拟机,将会影响到 PCI 设备的分配。


Nova 内存页设置


  1. openstack flavor set FLAVOR-NAME

  2. --property hw:mem_page_size=PAGE_SIZE


PAGE_SIZE


  • small (default):使用最小的 page size,e.g. x86 平台的 4KB。

  • large:只使用最大的 page size,e.g. x86 平台的 2MB 或 1GB。

  • any:取决于 Hypervisor 类型。如果是 Libvirt 的话,会根据服务器的大页内存设置进行决策,优先使用大的大页,依次递减。

  • pagesize:指定具体的 pape size,e.g. 4KB、2MB、2048、1GB。


e.g.

  1. openstack flavor create --vcpus 2 --ram 2048 --disk 40

  2. --property hw:mem_page_size=2MB Flavor1


  3. openstack flavor create --vcpus 2 --ram 2048 --disk 40

  4. --property hw:mem_page_size=1GB Flavor2


NOTELarge pages can be enabled for guest RAM without any regard to whether the guest OS will use them or not. If the guest OS chooses not to use huge pages, it will merely see small pages as before. Conversely, if a guest OS does intend to use huge pages, it is very important that the guest RAM be backed by huge pages. Otherwise, the guest OS will not be getting the performance benefit it is expecting.


手动为 KVM 虚拟机中设置大页内存(http://www.linux-kvm.org/page/UsingLargePages):


  1. # 2G 内存设置 256

  2. # 4G 内存设置 512

  3. # 8G 内存设置 1024


  4. echo 1024 > /proc/sys/vm/nr_hugepages


END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


技术周 | OpenStack 高性能虚拟机之大页内存


点击“阅读原文”,了解九州云更多信息!

概览


技术周 | Kuryr对接之Baremetal containers networking


packstack安装openstack


准备


控制节点与计算节点同时运行。

关闭防火墙

1.  systemctl stop firewalld  

2.  systemctl disable firewalld  

 

关闭SELinux

1.  sed -i ‘s#SELINUX=enforcing#SELINUX=disabled#g’ /etc/selinux/config  

2.  setenforce 0  

 

修改yum源

1.  yum -y install wget  

2.  wget http://mirrors.aliyun.com/repo/Centos-7.repo  

3.  yum update  

 

下载安装包


控制节点与计算节点同时运行。

1.  yum install -y centos-release-openstack-rocky  

2.  yum install -y openstack-packstack  

 

控制节点生成并修改answer文件


控制节点运行下述命令生成answer file。

1.  packstack –gen-answer-file answer.txt  

修改生成的answer.txt,根据实际控制节点与计算节点的IP,修改下述信息。

1.  #关闭非必须组件减少安装时间  

2.  CONFIG_CINDER_INSTALL=n  

3.  CONFIG_MANILA_INSTALL=n  

4.  CONFIG_SWIFT_INSTALL=n  

5.  CONFIG_AODH_INSTALL=n  

6.  CONFIG_CONTROLLER_HOST=<控制、网络节点IP>  

7.  CONFIG_COMPUTE_HOSTS=<计算节点IP>  

8.  CONFIG_NETWORK_HOSTS=<控制、网络节点IP>  

9.  #启用LB  

10.CONFIG_LBAAS_INSTALL=y  

11.CONFIG_NEUTRON_METERING_AGENT_INSTALL=n  

12.CONFIG_NEUTRON_ML2_TYPE_DRIVERS=vxlan,flat  

13.CONFIG_NEUTRON_ML2_TENANT_NETWORK_TYPES=vxlan  

14.#将默认的OVN backend切换为ovs  

15.CONFIG_NEUTRON_ML2_MECHANISM_DRIVERS=openvswitch  

16.CONFIG_NEUTRON_L2_AGENT=openvswitch  

 

控制节点运行安装


1.  packstack –answer-file answer.txt  


准备openstack中K8S所需项目、用户及网络信


创建K8S所需资源可以在dashboard中进行,也可以直接通过命令行操作。


创建K8S专用的项目,用户信息

1.  openstack project create k8s  

2.  openstack user create –password 99cloud k8s-user  

3.  openstack role add –project k8s –user k8s-user admin  


在K8S项目下创建pod 网络子网及service 网络子网

1.  openstack network create pod_network  

2.  openstack network create service_network  

3.  openstack subnet create –ip-version 4 –subnet-range 10.1.0.0/16 –network pod_network pod_subnet  

4.  openstack subnet create –ip-version 4 –subnet-range 10.2.0.0/16 –network service_network service_subnet  


在K8S项目路由器连接pod网络子网与service网络子网


1.  openstack router create k8s-router  

2.  openstack router add subnet k8s-router pod_subnet  

3.  openstack router add subnet k8s-router service_subnet  


在K8S项目创建pod安全组


1.  openstack security group create service_pod_access_sg  

2.  openstack security group rule create –remote-ip 10.1.0.0/16 –ethertype IPv4 –protocol tcp service_pod_access_sg  

3.  openstack security group rule create –remote-ip 10.2.0.0/16 –ethertype IPv4 –protocol tcp service_pod_access_sg  


注意,这里的创建的project id,user name,password,pod subnet id,service subnet id,security group id均需要记录,用于后期配置kuryr controller。

 

kubeadm安装Kubernetes

准备

master节点


以下操作在master节点和work 节点均执行。

关闭虚拟内存

1.  swapoff -a  

2.  sed -i ‘s/.*swap.*/#&/’ /etc/fstab  

配置转发参数

1.  cat <<EOF >  /etc/sysctl.d/k8s.conf  

2.  net.bridge.bridge-nf-call-ip6tables = 1  

3.  net.bridge.bridge-nf-call-iptables = 1  

4.  EOF  

5.  sysctl –system  

配置kubernetes阿里源

1.  cat <<EOF > /etc/yum.repos.d/kubernetes.repo  

2.  [kubernetes]  

3.  name=Kubernetes  

4.  baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/  

5.  enabled=1  

6.  gpgcheck=1  

7.  repo_gpgcheck=1  

8.  gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg  

9.  EOF  

设置docker源

1.  wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -P /etc/yum.repos.d/  

安装docker

1.  yum install docker-ce-18.06.1.ce -y  

 

设置镜像仓库加速

1.  sudo mkdir -p /etc/docker  

2.  sudo tee /etc/docker/daemon.json <<-‘EOF’  

3.  {  

4.    “registry-mirrors”: [“https://hdi5v8p1.mirror.aliyuncs.com”]  

5.  }  

6.  EOF  

 

启动docker

1.  systemctl daemon-reload  

2.  systemctl enable docker  

3.  systemctl start docker  

安装kubernetes相关组件

1.  yum install kubelet-1.12.2 kubeadm-1.12.2 kubectl-1.12.2 kubernetes-cni-0.6.0 -y  

2.  systemctl enable kubelet && systemctl start kubelet  

开启IPVS

加载ipvs内核,使node节点kube-proxy支持ipvs代理规则。

1.  modprobe ip_vs_rr  

2.  modprobe ip_vs_wrr  

3.  modprobe ip_vs_sh  

4.    

5.  cat <<EOF >> /etc/rc.local  

6.  modprobe ip_vs_rr  

7.  modprobe ip_vs_wrr  

8.  modprobe ip_vs_sh  

9.  EOF  

 

下载镜像


1.  cat <<EOF >> master.sh  

2.  #!/bin/bash  

3.  kube_version=:v1.12.2  

4.  kube_images=(kube-proxy kube-scheduler kube-controller-manager kube-apiserver)  

5.  addon_images=(etcd-amd64:3.2.24 coredns:1.2.2 pause-amd64:3.1)  

6.    

7.  for imageName in ${kube_images[@]} ; do  

8.    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName-amd64$kube_version  

9.    docker image tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName-amd64$kube_version k8s.gcr.io/$imageName$kube_version  

10.  docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName-amd64$kube_version  

11.done  

12.  

13.for imageName in ${addon_images[@]} ; do  

14.  docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName  

15.  docker image tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName  

16.  docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName  

17.done  

18.  

19.docker tag k8s.gcr.io/etcd-amd64:3.2.24 k8s.gcr.io/etcd:3.2.24  

20.docker image rm k8s.gcr.io/etcd-amd64:3.2.24  

21.docker tag k8s.gcr.io/pause-amd64:3.1 k8s.gcr.io/pause:3.1  

22.docker image rm k8s.gcr.io/pause-amd64:3.1  

23.EOF  

24.  

25.chmod u+x master.sh  

26../master.sh  


kubeadm init安装master节点


注意这里的pod network cidr与service cidr必须和前文中创建的openstack中pod subnet cidr及service subnet cidr保持一致。


1.kubeadm init –kubernetes-version=v1.12.2 –pod-network-cidr=10.1.0.0/16 –service-cidr=10.2.0.0/16  在成功运行该命令后会输出类似如下图所示的结果:


技术周 | Kuryr对接之Baremetal containers networking


①  表示kubernetes master节点安装成功。

②  根据命令执行同样操作。

③  记录该指令,用于后期添加kubernetes node节点。


配置flannel


这里配置flannel网络插件,仅用于对接kuryr前简单验证kubernetes功能是否正常。


下载配置文件


1.  curl -LO https://raw.githubusercontent.com/coreos/flannel/bc79dd1505b0c8681ece4de4c0d86c5cd2643275/Documentation/kube-flannel.yml  

 

修改pod network cidr

1.  sed -i “s/10.244.0.0/10.1.0.0/g” kube-flannel.yml  

 

启动flannel

1.  kubectl apply -f kube-flannel.yml  


设置API代理

1.  kubectl proxy –port=8080 –accept-hosts=’.*’ –address=’0.0.0.0′  

 

node节点


下载镜像

1.  cat <<EOF >> node01.sh  

2.  #!/bin/bash  

3.  kube_version=:v1.12.2  

4.  coredns_version=1.2.2  

5.  pause_version=3.1  

6.    

7.  docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64$kube_version  

8.  docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64$kube_version k8s.gcr.io/kube-proxy$kube_version  

9.  docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64$kube_version  

10.  

11.docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:$pause_version  

12.docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:$pause_version k8s.gcr.io/pause:$pause_version  

13.docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:$pause_version  

14.  

15.docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$coredns_version  

16.docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$coredns_version k8s.gcr.io/coredns:$coredns_version  

17.docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$coredns_version  

18.EOF  

19.  

20.chmod u+x node01.sh  

21../node01.sh  

 

添加node节点


使用在master节点安装成功后保存的hubedem join命令,添加node节点。

1.  kubeadm join 192.168.1.12:6443 –token lgbnlx.ehciqy1p1rpu6g6g –discovery-token-ca-cert-hash sha256:0acd9f6c7afcab4f4a0ebc1a1dd064f32ef09113829a30ce51dea9822d2f4afd  

 

验证


在master节点运行下述命令可以看到node节点被正确加入

1.  [root@kuryra-1 ~]# kubectl get nodes  

2.  NAME       STATUS   ROLES    AGE   VERSION  

3.  kuryra-1   Ready    master   21h   v1.12.2  

4.  kuryra-2   Ready    <none>   21h   v1.12.2  

 

安装配置kuryr


安装kuryr-k8s-controller


安装

1.  mkdir kuryr-k8s-controller  

2.  cd kuryr-k8s-controller  

3.  virtualenv env  

4.  git clone https://git.openstack.org/openstack/kuryr-kubernetes -b stable/rocky  

5.  . env/bin/activate  

6.  pip install -e kuryr-kubernetes  

 

配置

1.  cd kuryr-kubernetes  

2.  ./tools/generate_config_file_samples.sh  

3.  mkdir /etc/kuryr  

4.  cp etc/kuryr.conf.sample /etc/kuryr/kuryr.conf  

这里需要修改配置文件kuryr.conf。具体配置项需根据上文中在openstack内创建的用于K8S环境的信息填写。

1.  [DEFAULT]  

2.  use_stderr = true  

3.  bindir = /usr/local/libexec/kuryr  

4.    

5.  [kubernetes]  

6.  api_root = http://192.168.1.11:8080  

7.    

8.  [neutron]  

9.  # 需根据上文章节中创建的项目、用户信息填写  

10.auth_url = http://192.168.1.11:5000/v3  

11.username = k8s-user  

12.user_domain_name = Default  

13.password = 99cloud  

14.project_name = ks  

15.project_domain_name = Default  

16.auth_type = password  

17.  

18.[neutron_defaults]  

19.ovs_bridge = br-int  

20.# 下面的网络资源ID需根据上文章节中创建的资源ID填写  

21.pod_security_groups = a19813e3-f5bc-41d9-9a1f-54133facb6da  

22.pod_subnet = 53f5b742-482b-40b6-b5d0-bf041e98270c  

23.project = aced9738cfd44562a22235b1cb6f7993  

24.service_subnet = d69dae26-d750-42f0-b844-5eb78a6bb873  

 

运行

1.  kuryr-k8s-controller –config-file /etc/kuryr/kuryr.conf -d  


安装kuryr-cni


安装

1.  mkdir kuryr-k8s-cni  

2.  cd kuryr-k8s-cni  

3.  virtualenv env  

4.  . env/bin/activate  

5.  git clone https://git.openstack.org/openstack/kuryr-kubernetes -b stable/rocky  

6.  pip install -e kuryr-kubernetes  

 

配置

1.  cd kuryr-kubernetes  

2.  ./tools/generate_config_file_samples.sh  

3.  mkdir /etc/kuryr  

4.  cp etc/kuryr.conf.sample /etc/kuryr/kuryr.conf  

此处需要修改配置文件kuryr.conf。

1.  [DEFAULT]  

2.  use_stderr = true  

3.  bindir = /usr/local/libexec/kuryr  

4.  lock_path=/var/lib/kuryr/tmp  

5.     

6.  [kubernetes]  

7.  # 填k8s master的IP  

8.  api_root = http://192.168.1.11:8080  

 

修改cni配置


执行下述命令。

1.  mkdir -p /opt/cni/bin  

2.  ln -s $(which kuryr-cni) /opt/cni/bin/  

由于前文安装k8s时已经安装过flannel,这里/opt/cni/bin目录已经存在。新增/etc/cni/net.d/10-kuryr.conf文件,按如下信息修改配置文件,同时删除同目录下flannel的配置文件。

1.  {  

2.      “cniVersion”: “0.3.1”,  

3.      “name”: “kuryr”,  

4.      “type”: “kuryr-cni”,  

5.      “kuryr_conf”: “/etc/kuryr/kuryr.conf”,  

6.      “debug”: true  

7.  }  

安装相应依赖包

1.  sudo pip install ‘oslo.privsep>=1.20.0’ ‘os-vif>=1.5.0’  

运行

1.  kuryr-daemon –config-file /etc/kuryr/kuryr.conf -d  

 


END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


技术周 | Kuryr对接之Baremetal containers networking


点击“阅读原文”,了解九州云更多信息!

昨日,官方正式公布了OpenInfra上海峰会的完整议程,九州云携手中国联通、中国移动研究院、诺基亚、中兴、戴尔、Verizon等合作伙伴提交的五大议题全数入选,向业界分享开源最佳实践和创新。

——导言


重磅消息!九州云五大议题入选OpenInfra上海峰会!


11月4-6日,OpenInfra全球峰会将首次来到中国,在上海世博中心向来自全球的IT领袖、服务提供商、应用开发者、社区贡献者、电信运营商等展现开源的风采。


据官方透露,此次OpenInfra上海峰会将展示一系列开源项目,如Ceph, Kubernetes, ONAP,OPNFV等,包括OpenStack基金会托管的开源项目:OpenStack、Airship、Kata Containers、StarlingX和Zuul。


峰会议程包括10个专题:人工智能(AI)、机器学习(ML)和高性能计算(HPC);容器基础设施;持续集成/持续交付(CI/CD);5G、网络功能虚拟化(NFV)、边缘计算;新手入门;开放式开发;私有云和混合云;公有云;安全性;实践工坊。涵盖了OpenStack、Kata Containers、Kubernetes、Hadoop以及StarlingX等30+开源项目的应用案例、专题报告和现场演示。  


在此次OpenInfra上海峰会现场,九州云将分享五大议题,与业界共同谋划开源基础设施的未来。


1


重磅消息!九州云五大议题入选OpenInfra上海峰会!

范桂飓

重磅消息!九州云五大议题入选OpenInfra上海峰会!

俞谦

重磅消息!九州云五大议题入选OpenInfra上海峰会!

白永君

      

OpenStack和Kubernetes的统一监控和秒级告警方案

Unified monitoring and second-level alarm scheme for OpenStack and Kubernetes


演讲者:范桂飓、俞谦、白永君

内容简介:在愈演愈烈的多云趋势下,统一的、松耦合的、迅速响应的监控告警方案,是复杂多样的云生产环境所亟需的。传统 OpenStack 的 Telemetry 架构无法延伸开来对诸如底层物理基础架构、Kubernetes 资源和其他云集群的监控,同时随着集群规模的增大,如何进行快速的告警响应也是关键问题。


我们提出了一种体系结构,通过对 Prometheus-operator 的优化,对多云下的各种资源进行统一采集管理,解决了存储的持久化问题,能够对节点、集群服务、虚拟机整个纵向栈的故障进行秒级告警,并提供了多种 Exporter 及整套监控的自动化部署方案。目前,我们已将其应用到具有 500 台物理服务器的生产环境中。


2


重磅消息!九州云五大议题入选OpenInfra上海峰会!

黄舒泉

重磅消息!九州云五大议题入选OpenInfra上海峰会!

   Ildiko Vancsa

重磅消息!九州云五大议题入选OpenInfra上海峰会!

   David Paterson

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Gergely Csatari

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Beth Cohen

                            

扩大范围:边缘计算工作组更新

Expanding Scope: Edge Computing Working Group Update


演讲者:黄舒泉、Ildiko Vancsa(OpenStack基金会)、David Paterson(Dell EMC)、Gergely Csatari(Nokia)、Beth Cohen(Verizon)


内容简介:边缘计算工作组继续致力于定义边缘计算的使用案例,明确不同项目之间的协同,并且基于已定义的使用案例来构建出可供参考的边缘应用架构。你可以在工作组讨论的时候加入我们,了解我们在过去的一年中是如何与 OpenStack、Open Infrastructure 以及其他开源社区进行合作的,还可以了解我们将在明年开展的工作。


3

 

重磅消息!九州云五大议题入选OpenInfra上海峰会!

黄舒泉

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Qihui Zhao

重磅消息!九州云五大议题入选OpenInfra上海峰会!

tao jiang

 

如何实现电信营运商多异构边缘云的协同与管理?

How to achieve coordination and management of heterogeneous and multi-vendor cloud on telco edge?


演讲者:黄舒泉、Qihui Zhao(中国移动研究院)、tao jiang(中兴)


内容简介:电信运营商可以在边缘提供网络服务、MEC 计算能力、IaaS、PaaS、SaaS 和许多其他的服务。边缘基础设施则是所有这些上层服务的底层支撑。电信的边缘基础设施与核心基础设施有很大的不同,后者只会拥有少量的云和解决方案,相比之下边缘基础设施则更加的开放和多样化。电信边缘云的数量和类型都要多于核心云。如何管理这些异构的,来自多家云服务提供商的边缘云将会是电信运营商在边缘上提供各类云和服务时需要面临的问题。


在本次会议中,我们将会介绍边缘云的体系结构,还会介绍几个现存的与异构边缘云相关的解决方案,以及我们在探索边缘云管理和集中式 O&M 解决方案时所遇到的一些问题和经验。


4


重磅消息!九州云五大议题入选OpenInfra上海峰会!

黄舒泉

重磅消息!九州云五大议题入选OpenInfra上海峰会!

陈丹

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Qihui Zhao

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Yongbing Fan

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Wei Hu

   

中国电信运营商是如何看待边缘计算的?

How China Telco Carriers think of Edge Computing?


演讲者:黄舒泉、陈丹(中国联通)、Qihui Zhao(中国移动研究院)、Yongbing Fan、Wei Hu


内容简介:在数字化转型浪潮与 5G 到来的前夕,传统网络通信架构面临着如何处理海量边缘数据的巨大压力。同时,大数据和人工智能(AI)等创新型应用也需要在边缘网络上提供更加强大的支持。


中国移动,中国联通和中国电信,三大中国电信运营商都在积极地推动着基于自身业务特点所探索出来的边缘计算实践经验,为即将到来的 5G 时代做好准备。


我们希望邀请这些运营商的代表来讲述他们对即将到来的边缘计算和 5G 时代的看法,并分享一些这方面的实践,如:StarlingX 功能评测和 POCs。


5


重磅消息!九州云五大议题入选OpenInfra上海峰会!

李开

重磅消息!九州云五大议题入选OpenInfra上海峰会!

陈丹

重磅消息!九州云五大议题入选OpenInfra上海峰会!

Wei Hu

  

中国联通使用边缘编排系统在 5G 环境中管理 StarlingX、K8S 和 OpenStack 边缘数据中心

China Unicom’s edge Orchestration system in 5G to manage StarlingX, K8S and OpenStack edgeDC


演讲者:李开、陈丹(中国联通)、Wei Hu


内容简介:该主题旨在演示中国联通的边缘管理与编排(Edge-MANO)系统如何在 5G 环境中管理基于 StarlingX、K8S 和 OpenStack 的 3 类边缘站点。我们将演示其中的一些功能,例如:TOSCA(The de-facto edge app descriptor from carriers)的软件包分发,边缘资源编排和边缘应用程序的生命周期管理(deployment, scaling-up, scaling-down and seamless upgrading)能力。我们还将介绍一些与边缘相关的后端设计,例如:怎么为 VM-Based 或 Cloud-Native 的应用程序设计 MEAD(Mobile Edge Application Descriptor),以及针对 5G PNFs/VNFs 的 NFVO/VNFM 协同设计。


从以上五大议题可以看到,大多为偏向边缘计算内容。随着5G概念的出现,逐渐成熟强大的OpenStack开始从云计算延伸到了边缘计算领域,奠定了边缘计算的架构和基础。而在OpenStack方面领先的九州云也敏锐地捕捉到了边缘计算的“风口”。


近两年九州云确立了边缘计算的战略方向,并将自身在OpenStack领域的优势延续到了边缘计算领域。实现了边缘IaaS、边缘CaaS、边缘PaaS、边缘MANO、边缘SD-WAN等多项技术突破,并深化了“边缘云解决方案”赛道,成长为边缘计算领域的一匹“黑马”。


在此次峰会上,除OpenStack相关话题外,九州云将更多的向业界同行分享边缘计算的生产需求和实战经验, 与业界共建开源基础设施新生态。


OpenInfra上海峰会完整议程:请点击这里

九州云五大议题详情全览:请点击这里



END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


重磅消息!九州云五大议题入选OpenInfra上海峰会!


点击“阅读原文”,查看OpenInfra上海峰会完整议程!

技术周 | StarlingX overview和功能点详解

介绍StarlingX之前需要先介绍一下StarlingX的前身。早在2014年风河就成立了TitaniumCloud生态系统项目,设计目标就是要成为电信网络应用软件理想的云操作系统平台,以最高的可靠性地运行网络虚拟化功能。StarlingX是面向边缘计算场景的多功能性的基础设施堆栈,由于StarlingX是从WindRiver产品开源产生的,而WindRiver的这款Titanium Cloud已经从成立到现在有5年时间之久的发展,Titanium Cloud算是一款比较成熟的产品了,因此即使到今年7月份为止,StarlingX仅仅发布了第一个版本,StarlingX也具备一定条件的生产化使用基础。

 

StarlingX既是一个开发项目又是一个集成项目。它将新服务与更多开源项目结合到一个总体边缘云软件堆栈中。由于风河Titanium Cloud平台在性能、可用性上都有了比较高的提升。目前风河的软件可以在通用服务器硬件上实现电信级的性能;提供的NFV平台可以达到6个9,完全满足电信级要求。而StarlingX基于该风河的商业产品进行开源优化形成,因此StaringX也继承了Titanium Cloud的优点。

 

StarlingX主要面向的场景是工业IoT、电信、视频业务等对延迟要求较高的业务。并且基于Titanium Cloud,StarlingX提供了性能兼顾高可用的特点。

 

StarlingX最初的代码是由英特尔和Wind River提供,目前StarlingX项目由OpenStack Foundation托管代码,StarlingX目前与领先的开源项目(包含OpenStack、Ceph和OVS)相结合。StarlingX在2018年10月才release了第一个版本,因此StarlingX是一个非常年轻的项目。

 

对于一些想了解边缘计算云更详细的资料的同学,OpenStack社区发表了边缘计算的白皮书,介绍了边缘计算云的起因,挑战,解决思路和应用场景,链接如下:

https://www.openstack.org/edge-computing/cloud-edge-computing-beyond-the-data-center?lang=en_US

 

白皮书总结到,一个成熟的边缘计算云是面向于开发者和应用的,并把基础设施的资源下沉到边缘网络上。那么如何定义边缘计算呢?最重要的一点就是延迟,即从各类终端、最终应用到边缘云的网络延迟需要小于20ms。

 

第二部分介绍的是StarlingX的功能点, StarlingX由于包含了OpenStack,因此OpenStack的功能点StarlingX同样具备,但是以下功能点是与OpenStack不一样的地方。

技术周 | StarlingX overview和功能点详解

Configuration Management

配置管理功能在边缘云基础设施架构中变得非常重要,特别是在管理大量的远端节点的时候,因为有些远处的节点,不太方便直接对其进行配置。因此借助于Configuration Management功能点,可以方便地对远端的物理服务器进行配置管理,配置管理中包含了CPU、GPU、内存、Huge pages,crypto/compression PCIE配置等。

 

Fault Management

这个组件是可以统计报警和查看log,并且同时包括了中心云和边缘云的物理资源和虚拟资源,并且在Horizon上都可以进行查看,监控的方面比OpenStack更广。

 

Host Management

这个组件可以检查虚拟主机的状态,并在主机关机的情况下尝试自动重启,并根据集群状态、关键进程、资源的阈值、物理主机的故障等来使用不同的调度策略来进行对虚拟机的重启。

 

Service Management

该功能点提供了服务的高可用,使用了多路通道来避免通信的断开和服务的脑裂问题,基于StarlingX本身服务的active/passive状态的切换来保障服务的高可用,并对服务的状态进行监控。

 

Software Management

从kernel到OpenStack服务的全栈软件包升级,该功能可以实现滚动升级,比如在需要对物理服务器关机的情况下实现对虚拟机的热迁移的情况,该功能在StarlingX中仅需要在horizon界面上进行操作,该热迁移可以自动把需要更新软件包主机上的虚拟机或者容器事先迁移到可用的主机,并在更新完成之后,再自动将资源分配到更新完成的主机上,该功能提供了对升级时候的虚拟机关机问题的生命周期管理的机制。

 

第三部分是StarlingX的整体架构,StarlingX基于OpenStack组件,并进行功能的增强,提供了上述5个核心功能点的能力。

 

OSS全称为Operation support system是指运营支撑系统,BSS全称为Businesssupport system,BSS系统包括客户关系管理、数据采集系统、计费帐务、综合结算、营销支撑这些功能模块。StarlingX的上述功能点可以赋能这些系统,提供更全功能的基础设施架构。

 

在计算节点上对底层的KVM进行了优化,在网络部分引进了SR-IOV、OVS-DPDK、Intel网络加速方案,使得在计算节点的能力有了质的提供,如果说上述几个功能点提供了鲁棒性和高可用性,对底层组件的优化则是提升了整体边缘云的性能。存储节点仍然是集成了业界优秀的分布式存储方案Ceph,并提供了多种存储解决方案,可以通过分布式、集中式和商务SAN存储的融合,来保障运营商级别的存储高可用。

技术周 | StarlingX overview和功能点详解

分组核心网EPC(EvolvedPacket Core),该系统的特点为仅有分组域而无电路域、基于全IP结构、控制与承载分离且网络结构扁平化,其中主要包含MME、SGW、PGW、PCRF等网元。其中SGW和PGW常常合设并被称为SAE-GW。

 

CPE,英文全称为Customer Premise Equipment ,实际是一种接收移动信号并以无线WIFI信号转发出来的的移动信号接入设备,它也是一种将高速4G或者5G信号转换成WiFi信号的设备,可支持同时上网的移动终端数量也较多。CPE可大量应用于农村,城镇,医院,单位,工厂,小区等无线网络接入,能节省铺设有线网络的费用。

 

在对于上层的虚拟网元接口VNFs方面,StarlingX可以提供通过在虚拟机中部署虚拟的EPC、CPE来实现对电信网元的支撑。

 

StarlingX社区目前在进行对容器的支持,以后可以同时在边缘处给用户提供虚拟机和容器两种资源,同时还将开发在不同操作系统中部署StarlingX系统的能力。

 

 

END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。

技术周 | StarlingX overview和功能点详解

点击“阅读原文”,了解九州云更多信息!

爱分析 | 九州云李开:边缘计算发展与落地实践


近日,爱分析在北京举办的“2019爱分析·中国企业云高峰论坛”落下帷幕。爱分析邀请了九州云联合创始人李开进行题为《边缘计算发展与落地实践》的演讲。


李开认为,边缘云管理通过增强边缘端的硬件感知和应用编排能力,可以有效解决边缘端复杂的应用分发,扩容和升级难题。

 

现将李开的演讲实录分享。

 

01

边缘计算的核心是解决

中心系统处理能力瓶颈


李开:谢谢大家,刚才金山云的宗总讲到基于CDN的机房,基站的机房,这里面确实是有这几种模式,但有一点大家忽略的问题,比方说有一个机房在我旁边,虽然物理位置近在眼前,但是可能他的网络位置远在天边,如果去了解边缘网络,他其实是绕一大圈的。边缘计算有比较复杂的地方,不管是模式,还有一些要发力点是大家可以讨论的。


今天讲几个内容,一个是什么是边缘,怎么样的东西适合边缘模式,他的架构是什么样的。第二个是关于MEC的架构,在运营商的架构里面都会出现MEC的架构,最后一个就是怎么实践。

 

什么是边缘计算?商业模式是什么样子?现在上海在搞垃圾分类,深圳的同事在微信里面说,在上海别乱扔垃圾,我们每天都会讨论,早上七点到九点,晚上八点半之前必须把垃圾扔到垃圾筒去,有大妈在那儿守着。

 

这里我们想说为什么要进行垃圾分类?垃圾处理厂处理不过来,所以要做垃圾的分类,原来的处理方式是全送到垃圾的分类处理中心去做。但是对于一些可以进行分类的东西我们可以进行一些简单的处理,不管是有害的,还是可以回收的。

 

这只是一个比喻,其实不管是现在已经发生的视频上传,或者数据要求,还是由于5G或者IOT网络即将产生的大量数据上传都会导致处理过程处理不过来。这里产生两种场景,一种场景是运营商,在边缘基站或者基站接入机房做一些预处理,另外一些企业,假如我是一个有很多门店的企业,有很多的要分发的地方,可能也会遇到门店的压力越来越大,门店东西越来越多,其实我们只要问一个问题,不管你是企业还是运营商,你有什么垃圾要处理,这就是边缘计算产生的价值。


这是边缘计算部署的东西,从未来接入的地方到汇聚的地方再到核心网。运营商有非常强的边缘计算需求,也有天然的优势。他们现在在做的事情就是骨干网,不管未来在高清视频也好,还是ARVR数据,或者是IOT数据,如果上传的话对他来说压力很大。同时由于天然线路的原因,与地理位置相通,地理位置越近,延时越短,要解决这两个问题要增强他的能力。


02

运营商与企业均有建设

边缘计算的强烈需求


运营商的边缘其实是网络和数据中心,他的很多能力是通过第三方也好或者通过一些合作的方式也好,在边缘的机房能够呈现更多,比如说驾驶、工业控制。

 

其实边缘只是一种模式,运营商有这种需求,企业也有这种需求,我们还看到一些企业级的需求,当然这个地方有点相似,现在有很多的像国家电网在做一些泛在互联,有一些无人机的巡线,相应的铁塔缺陷的东西,包括他们未来想做的机器人检修,都需要上传非常多的传感数据、视频数据。这个其实电网的模式和运营商有点像。

 

还有一些企业级的,我们遇到一些企业级的需求,处理很多数据中心,医院传过来的脱敏的资源。我这里大概分两类,一类就是从边缘的角度来讲,有自己的网络,运营商,电网,他追求低延时,要处理大数据的需求,有自己独立主网的能力,同时运营商对外提供这个服务。

 

第二种是企业级,企业级有时候不一定要低延时,他没有网络,他的诉求是说在边缘端把这个数据处理掉,就像我们刚才讲的医院的影像数据清洗完之后再上传到中心,免得会产生一些消耗。

 

我们这里面有一些其他的需求,比方说我们之前也在跟肯德基、麦当劳聊过,他们也有一些门店交互能力越来越强的机器,需要更新他的状态。其实在企业级也有边缘的需求。


边缘长什么样?我们在做开源领域,这是MEC架构,从运营商视角讲,边缘的解决方案其实基本上包含三个方面,一个是基础架构,编排和应用,组成一个方案。这些是我们可以用到的边缘技术;对于我们来讲,我们在做的是用边缘编排。不管你的边缘基础架构是基于X86还是基于其他服务器,基本上都会有一层容器的框架,我们希望把很多的能力推送到边缘去,然后会有一个核心的系统做相应的工作。这个工作主要能力是能够把能力输出到边缘上面去,这有运营商的,也有企业级的产品,做不同的分类。他的主要架构都会是说,有传输网络、边缘的机房。

   

我们的主要任务是说把边缘的建好,再建立一套框架,可以实现部署、扩容、缩容和升级。虽然看起来我们做的事情比较简单,但其实里面会有一些难点,因为我们在这里面有一点非常重要,一般部署完一个应用之后,如果这个应用自己开发,升级也好,扩容也好都比较容易做。如果我们现在帮助运营商,企业面对他五花八门应用的时候,怎么做到扩容缩容和升级这会比较难。所以我们借鉴了这种描述方式,这种描述方式是之前运营商利用很多网源实现扩容缩容和升级的实践,我们采用了这个方式去解决这个问题。

   

我们跟MEC的硬件有一些集成,可以承载不同的底层,实现应用的部署。在边缘全球的项目里面,我们是亚洲唯一的厂商,今年可能有变化,国内的厂商也在参与这个项目。我们还有一些其他的边缘项目,包括我们跟运营商的合作,包括我们自己在其他领域的实践。

 

我们原来是做云出身的,还在持续做云,现在在边缘,很多技术都可以复用。最后我们和其他几家合作伙伴一起建立了边缘社区,里面有一些对行业的分享,如果大家愿意的话可以加入到社区。谢谢。


END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立六年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


爱分析 | 九州云李开:边缘计算发展与落地实践


点击“阅读原文”,了解九州云更多信息!

2019半年刊 | 多赛道齐发力,做5G时代实力玩家


2019上半年,秉承“开源赋能变革”的理念,九州云持续将自身在开源领域的技术优势,从“赋能云计算”延续到“赋能边缘“,实现了边缘IaaS、边缘CaaS、边缘PaaS、边缘MANO、边缘SD-WAN等多项技术突破,成长为边缘计算领域的一匹“黑马”。同时在项目落地上,九州云在“企业云发行版“、“开源云发行版”两条赛道上,深化“边缘云解决方案”的赛道,拓展了”行业云发行版”赛道,在各个领域均取得了出色的成绩。随着云计算成熟、5G兴起、边缘突破的大潮来临,作为一家以开源技术沉淀为根本、开源技术驱动为使命、开源业务创新为信念的公司,九州云紧跟风口,正在实现自我的不断突破和超越。


社区贡献


2019半年刊 | 多赛道齐发力,做5G时代实力玩家


4月10日,OpenStack社区正式发布了Stein版本,根据stackalytics.com 网站提供的社区贡献统计,来自150多个组织的1400多名人员参与贡献,九州云在Commits的贡献中国第1,全球第4;Reviews的贡献中国第2,全球第3;Resolved Bugs的贡献中国第3,全球第12;BP的贡献中国第6;全球第16,持续领跑国内企业。了解详情


产品更新


2019半年刊 | 多赛道齐发力,做5G时代实力玩家


2019上半年,九州云系列产品实现了多项功能更新升级:

 

云平台发行版:

  • 继续深化基于OpenStack产品形态,在原有开源发行版、企业发行版基础上,增强了针对行业云的功能,在基本计算、存储、网络实现一个小型公有云的完整服务,包括:

  • 实现了CaaS、RDS关系数据库、裸机服务、防火墙、企业云盘等功能;

  • 针对教育、电商、政企等特色,增强了行业模板的能力;

  • 增强了行业云需要的运营能力,实现了全业务线的计费计量,支持产品折扣、会员等级、包年包月、消费预测、欠费提醒、到期自动操作等运营能力;

  • 丰富了在近线快照、远程备份的功能;

  • 针对行业云的公有化部署,增强了安全防护能力,实现了双因子认证、云主机控制台安全加固、用户信息加密、API鉴权加强等功能;

  • 实现了云主机安全中心,集成安全主机防护产品,实现入侵检测、漏洞检测、安全预警和安全体检功能。


边缘解决方案:

  • 基于StarlingX,增强了边缘IaaS的CaaS能力,支持基于容器平台的边缘应用承载;

  • 发布了针对运营商的边缘编排管理平台MEPM V1.0和MEAO V1.0,遵循ETSI规范,支持和4G/5G 网元集成,实现边缘SaaS和边缘PaaS的全生命周期管理;

  • 发布了针对企业的边缘编排管理工具 Edge MANO V1.0,支持企业级别的边缘应用分发和管理,集合SD-WAN技术,实现企业边缘SaaS和边缘PaaS的全生命周期管理。


认证培训


2019半年刊 | 多赛道齐发力,做5G时代实力玩家


2019年上半年延续了一贯以来的高质量、重实战、100%开源的培训风格,由九州云专家亲自授课,为企业技术团队和工程师们带来了一场场精彩的培训,帮助他们掌握openstack、kubernetes的理论、架构,在实战中熟练相关操作、技能,并利用丰富的项目经验解答学员针对技术实际应用领域的相关疑问。2019年上半年,九州云完成20场培训,包括10场内训和10场公开培训,学员考试通过率超过95%。


最新用户


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

中国联通边缘计算MEC开发合作项目    中国联通主要经营GSM、WCDMA和FDD-LTE制式移动网络业务,固定通信业务,国内、国际通信设施服务业务,卫星国际专线业务、数据通信业务、网络接入业务和各类电信增值业务,与通信信息业务相关的系统集成业务等。在国内31个省(自治区、直辖市)和境外多个国家和地区设有分支机构,是中国唯一一家在纽约、香港、上海三地同时上市的电信运营企业,连续多年入选“世界500强企业”。九州云和中国联通在边缘IaaS(StarlingX)、边缘编排(Tacker)、边缘CaaS(K8S)等多个领域开展合作。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云成功签署中国石化河南油田基地项目    中国石油化工股份有限公司河南油田分公司基地位于豫西南的南阳盆地。工矿区主要位于河南南阳、驻马店、周口和新疆巴州、伊犁等地市,下属15个二级单位,勘探开发30多年来,发展成为集石油勘探、油气开发、规划设计等为一体的综合型石油化工企业。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云签订山东淄博市税务局项目    国家税务总局淄博市税务局是由原淄博市国家税务局、淄博市地方税务局合并而成,是主管淄博市国税和地税工作的行政机构。纳税人在综合性办税服务厅可统一办理国税、地税业务,实行“一厅通办”、“主税附加税一次办”,为纳税人提供了更加优质高效便利的服务。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云签署中国信息安全测评中心项目    中国信息安全测评中心是中央批准成立的国家信息安全权威测评机构。依据中央授权,测评中心主要职能包括:开展信息安全漏洞分析与风险评估;开展信息技术产品、系统和工程建设的安全性测试与评估;开展信息安全服务和信息安全专业人员的能力评估与资质审核等。测评中心是国家信息安全保障体系中的重要基础设施之一。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云中标上海电信SD-WAN项目    上海电信拥有中国电信集团内最大的城市电信网络,为超过2200万用户,提供包括移动通信、宽带互联网接入、信息化应用及固定电话等产品在内的综合信息解决方案,始终保持上海地区通信市场的领先地位。一直以来,上海电信不断创新发展智慧政务、智慧医疗、智慧交通、智慧教育、云计算、大数据等信息化应用,服务政府、服务企业、服务民生,助力上海智慧城市建设。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云签订中国资源卫星应用中心项目    中国资源卫星应用中心承担我国对地观测卫星数据处理、存档、分发和服务设施建设与运行管理,积极拓展卫星应用领域,为国家经济建设和社会发展提供宏观决策依据,为全国广大用户提供各类对地观测数据产品和技术服务,并提供研究成果。中心承担国家对地观测的重要任务,是国家三大卫星应用中心之一。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云成功签署重庆云投扩容项目    重庆云投成立于2016年,由重庆市两江新区管委会直属企业重庆云计算投资运营有限公司投资控股的混合所有制公司。公司主营业务涉及数据中心机房环境运营维护,信息系统规划、建设、运维,以及相关通信业务及系统维护等。公司有效整合云计算资源,致力于成为建设两江国际云计算产业集群、推动两江新区及全市互联网云计算大数据产业快速发展的主力军和生力军。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云和Intel StarlingX开发合作    英特尔公司于 1968 年在美国硅谷创立。经过 40 年的发展,英特尔公司在芯片创新、技术开发、产品与平台等领域奠定了全球领先的地位,并始终引领着相关行业的技术产品创新以及产业与市场的发展。


战略合作


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云与平安科技达成战略合作,共同发展开源云市场。   平安科技是世界五百强企业平安集团旗下科技解决方案专家,专注于为机构、企业、政府提供端对端智能科技服务,基于人工智能、云计算解决方案,服务5亿+用户,覆盖金融、医疗、汽车、房产、智慧城市五大生态圈,帮助企业高效智能化转型,与合作伙伴共建云端生态。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云成为陕西省大数据集团战略合作伙伴,共同促进行业数字化转型升级。   陕西省大数据集团有限公司作为省政府批准成立的国资股份制企业,省政府唯一授权运营政务数据和智慧陕西的企业,肩负盘活政府数据,带动社会数据,引导产业发展的使命。公司以政务大数据开发利用为核心,以大数据综合服务为主营方向,构建国家级大数据汇聚中心,引流行业及跨界衍生数据,深度挖掘大数据应用价值。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云与安智科技签署战略合作协议,为国家可持续发展战略和环境保护事业发挥重要作用。    安智(北京)科技有限公司是一家专业从事生态环境调查、评估、修复、技术服务于一体的专业型科技公司,公司与中国环境科学研究院、美国、德国、日本、以色列等国的企业及科研机构合作,为生态环境检测,并进行全产业链布局,业务范围涉及大气、水、土壤检测,为政府和企业提供完整的智慧化、标准化、权威化的整体评估与修复方案。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云与高德集团成功签约,共同打造Shopping mall云平台和边缘计算的创新与落地。   高德置地集团成立于1995年,时名为高盛企业集团,是一家专业的商业地产开发商及营运商,凭借17年的商业地产开发运作经验,成功运作了一批优质的商业产品,与世界最著名的SOM、KCA等建筑设计公司、迪拜帆船酒店管理公司JUMEIRAH GROUP建立了合作关系,并与中建系统等国内最优质的建筑公司合作,致力打造设计一流、建筑一流、营运管理一流的优质商业物业。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家

九州云与氦氪达成战略合作,加大在边缘计算领域的布局。   氦氪成立于2013年,物联网云计算领域的领跑者,国家高新技术企业、杭州市高新技术企业、“雏鹰计划”企业。团队由物联网、云计算、大数据、人工智能、移动互联网等相关领域的精英组成,核心成员来自于阿里云、微软和传统物联网软硬件公司。氦氪提供覆盖全球的云计算服务,自研了物联网核心操作系统,拥有物联网平台、协议引擎、AI引擎、SaaS、通信等核心专利技术。


收获荣誉


入选2019爱分析·中国企业云科技服务商50强

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

作为私有云行业的引领者,7月17日,九州云凭借自身突出的商务优势和技术实力,成功入选 “2019爱分析·中国企业云科技服务商50强”。九州云也是唯一一家入选的私有云服务提供商。了解详情


九州云获MEC优异解决方案奖

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

5月16日-17日,在“5.17世界电信日大会”的分论坛——“2019 MEC技术与产业论坛”上,九州云“基于ETSI规范的边缘开放管理平台解决方案”还荣获“2018-2019年度MEC优异解决方案奖”,加速赋能5GMEC,推动产业发展。了解详情


中国人寿项目获中国SDN/NFV优秀案例奖

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

4月17日,中国人寿携手九州云共同推荐的“基于SDN的生产云联合实践”从46个候选案例中脱颖而出,经专家组评定,被授予优秀案例奖,并在 “2019中国SDN/NFV/AI大会”上获得正式颁奖。了解详情


汕头大学医学院项目获中国开源云·实效应用奖

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

4月11日,汕头大学医学院“互联网+医教研”融合转化云平台成功入围“2019中国开源云·实效应用”的评选,被评为最具代表性和推广价值的优秀实践案例。了解详情


九州云获中国联通MEC边缘云金牌合作伙伴

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

在2019MWC巴塞罗那拉展会上,中国联通为十家企业举办了隆重的“2018年MEC边缘云金牌合作伙伴先行者”表彰仪式,以表彰这些企业与中国联通在边缘计算合作发展方面作出的贡献,九州云有幸成为此次十家联通边缘云金牌合作伙伴之一。了解详情


市场活动


受邀参加“2019爱分析·中国企业云高峰论坛”

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年7月17日

地点:北京康莱德酒店

活动简介:7月17日,由爱分析主办的“2019爱分析·中国企业云高峰论坛”在京举行。作为私有云行业的引领者,九州云也受邀参加了此次会议,并凭借自身突出的商务优势和技术实力,成功入选在本次会议发布的“2019爱分析·中国企业云科技服务商50强”。了解详情


举办乌镇“边缘计算研讨会”

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年7月6日

地点:浙江乌镇枕水酒店

活动简介:7月6日下午,由ITSS数据中心运营管理工作组(DCMG)和双态IT联盟(BOA)主办、九州云出品的“边缘计算研讨会”在乌镇成功举办。本次研讨会从时下最热门的话题——上海的垃圾分类开始,引起了与会嘉宾的广泛热议。了解详情


亮相2019上海MWC大会

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年6月26-28日

地点:上海新国际博览中心

活动简介:作为边缘计算的积极探路者,九州云全力支持5G应用的落地。在本次展会上,九州云在展台通过多个方面来呈现自身在边缘计算的前沿技术和新产品,吸引诸与会者驻足体验。了解详情


应邀出席“5.17世界电信日大会”

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年5月16-17日

地点:北京新世纪日航饭店

活动简介:九州云作为边缘计算行业的领先者应邀出席本次大会的“2019 MEC技术与产业论坛”,与来自电信运营商、设备商、应用方案提供商、研究机构等200余人齐聚一堂,共议5G与边缘计算发展之关键,畅谈5G+MEC的机遇与未来。了解详情


亮相Open Infrastructure丹佛峰会

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年4月29日-5月1日

地点:美国科罗拉多州丹佛市

活动简介:首届Open Infrastructure峰会在美国科罗拉多州丹佛市召开,九州云技术团队积极参与其中,重点聚焦边缘计算,专注StarlingX项目建设,并分享与“边缘计算”相关的议题,精彩不断,干货满满!了解详情


应邀出席2019中国SDN/NFV大会

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年4月17日-18日

地点:北京新云南皇冠假日酒店

活动简介:九州云技术总监黄舒泉应邀出席此次会议,并在多接入边缘计算分论坛上分享了《基于StarlingX的边缘计算机器学习优化》主题演讲,向参会嘉宾演示了基于StarlingX架构的实时人脸识别场景。了解详情


出席中国开源云计算用户大会

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年4月11日

地点:北京万寿宾馆

活动简介:九州云出席本次会议并发表精彩演讲,同时由九州云协助实施的汕头大学医学院“互联网+医教研”融合转化云平台被评为最具代表性和推广价值的优秀实践案例。了解详情


应邀出席中国双态IT用户大会

2019半年刊 | 多赛道齐发力,做5G时代实力玩家

时间:2019年1月13日

地点:北京金茂威斯汀大酒店

活动简介:本次大会由DCMG和双态IT联盟联合主办,是业内首个为行业用户打造,完全由行业用户做案例分享,方便行业用户之间进行经验交流的盛会。九州云的南方电网广东公司项目被授予“2018年度IT用户最佳实践案例”荣誉称号。了解详情


媒体观察


2019半年刊 | 多赛道齐发力,做5G时代实力玩家



END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立七年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


2019半年刊 | 多赛道齐发力,做5G时代实力玩家


点击“阅读原文”,了解九州云更多信息!

7月6日下午,由ITSS数据中心运营管理工作组(DCMG)和双态IT联盟(BOA)主办、九州云出品的“边缘计算研讨会”在乌镇成功举办。本次研讨会从时下最热门的话题——上海的垃圾分类开始,引起了与会嘉宾的广泛热议。


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议

九州云乌镇专题研讨会现场

 

议题一:垃圾分类与边缘价值


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议

九州云联合创始人&副总裁 李开

 

研讨会的开场,九州云联合创始人&副总裁李开以《垃圾分类与边缘价值》为主题展开了精彩的演讲,激发起在场嘉宾强烈的好奇心。垃圾分类与边缘计算会有怎样的联系呢?

 

上海垃圾焚烧中心只能处理全市1/3的垃圾,这样的负荷永远满足不了实际需求。其实从源头来讲,很多垃圾不一定非要运到垃圾处理厂,这就是推行垃圾分类的主要原因。

 

“垃圾分类可以把可回收垃圾在边缘处理掉,只留有害垃圾送到处理中心。在数据中心场景中,云与边缘的分工也是同样的道理。Gartner预测,未来边缘会吃掉很多原本属于云的市场,5G低延时网络给了大家很多的想象空间,未来将是一个中心+多个边缘的形态。”九州云联合创始人李开如是说。

 

那么,边缘都有哪些需求呢?据李开介绍,九州云在今年上半年把最主要的精力放在支持运营商做边缘计算,包括建立边缘IaaS、MANO等。因为运营商有清晰明确的行业标准,包括在5G环境下怎么做EPC(演进分组核心网)和MEC(多接入边缘计算)等,跟着运营商的标准做,可以把问题考虑得比较仔细和规范。

 

与此同时,九州云遇到一些客户,比如国家电网有无人机巡检、应急救灾等强烈的需求需要在边缘进行处理。无人机巡线时可以通过图像识别发现铁塔上按纽的松动、零件易位等问题,红外拍摄还能检测温度,这些图片不一定非要上传到核心数据中心才能做人工智能分析。

 

在工业领域,九州云前段时间跟联通一起对格力电器进行了调研,九州云自己也在数控机床行业展开了一些工作,中国有6000多万数控机床的存量市场,可以输出很多IP信息进行检测等方面的工作。

 

在汕头大学医学院,影像处理、基因检测数据都要上传到中心,数量过于庞大,也构成了边缘的需求。

 

上海梅赛德斯奔驰中心有体育场馆,针对360全视角镜头捕捉与手机端回放、远程无人值守维护等在边缘需要有大数据处理能力。

 

出现了这么多的需求,边缘怎么实现?这是问题的关键。

 

李开介绍,首先是部署,接着会有扩容的需求,比如体育场馆要做直播,就会对视频解码能力进行扩容,在远程对应用进行升级,直播结束后还要远程终止,所以MANO做的事情是部署、扩容、缩容、升级和终止等工作。


议题二:物联网边缘PAAS平台介绍


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议

 氦氪云CEO 苏立挺

           

研讨会上,苏立挺向嘉宾们展示了如何通过基于物联网的边缘PaaS平台,支持在工业、金融、能源和智能园区领域落地。

 

说起云与边缘计算,苏立挺表示有点三十年河东、三十年河西的味道。

 

因为以前大家都说万物皆上云,后来发现玩不转了。现在有大量传统工业和政府并没有上云,为什么?

 

原因很简单,大家有太多的顾虑:数据是资产,为什么要交给别人?互联网企业都有很强的侵略性,把数据交给他们,将来自己的立足根本在哪?

 

突然有一天,边缘计算来了。企业可以把数据中心部署在内部,数据和机器都是自己的,并且有管理边缘计算的相关套件,从开发到运维都能搞定。以前,传统企业跟互联网公司根本没有讨价还价的余地,有了边缘计算,现在可以按照自己的思路做事情了。

 

据介绍,氦氪从2013年开始,6年多来一直在做IoT PaaS和相关垂直产业的应用。

 

IoT很难做,要打通整个链路,需要硬件、前端、架构、设计师等十多个部门的协同。而且在开发过程中,比如硬件嵌入出了问题,可能会误认为是APP或者云端服务器的问题,情况十分复杂。

 

氦氪IoT PaaS平台分为感知层、连接层、平台层、应用层和交互层。其中最难的是协议的虚拟化,或者叫做多元异构数据处理,这是对PaaS平台最大的挑战。氦氪云的连接层提供了协议的虚拟化,为任何设备提供一个标准化的平台,就像是把全世界将近200个国家的不同语言翻译成同一种语言,这样大家才能相互对话。而在上层,可以开发很多垂直行业的应用,氦氪云目前已经服务了智慧消防、智慧工厂等超过500个边缘项目。


议题三:基于边缘IaaS承载AI人脸识别应用现场演示


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议

九州云边缘技术高级架构总监 蒋柬青

 

在此次研讨会现场,九州云边缘技术高级架构总监蒋柬青通过基于StarlingX的ME-IaaS, 结合英特尔® OpenVINO™ 、英特尔® Movidius™等技术,向嘉宾们演示了对实时采集的视频数据进行智能分析的任务,完成了人脸识别、特征分析等边缘功能。

 

九州云的边缘IaaS产品是基于OpenStack社区的StarlingX项目。九州云技术总监黄舒泉是StarlingX社区的技术指导委员会成员之一,也是唯一的华人成员,在他的带领下,九州云以StarlingX为基础,构建全新的ME-IaaS(边缘基础设施即服务),有效地满足边缘计算场景下的高可用性、高服务质量、高性能等方面需求。


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议

StarlingX边缘虚机化平台

 

上图是StarlingX的技术架构图,底层是Ceph存储,libvirt,QEMU,Open vSwitch等。上层加入了很多OpenStack原生组件,如配置管理、错误故障管理、编排服务管理和软件升级等。下一代StarlingX的方向是会把OpenStack部分进行容器化,然后部署在KBS集群上面。

 

StarlingX的目标是为边缘计算重新配置成熟的云技术,主要包括在系统内协调资源,部署和管理边缘云、共享配置,以及简化部署地理位置分散的边缘云。它可以涵盖交通运输、能源、制造业、零售、视频和智慧城市,医疗、无人驾驶等各种场景。

 

三大议题演讲结束后,参会者们意犹未尽,还与各个演讲嘉宾就边缘计算在垂直行业中的应用场景与价值体现进行了开放式的交流讨论。不难看到,边缘计算成为了当下业界关注的焦点,并正在大步走向数字化转型舞台的C位。

 

近两年来,逐渐成熟强大的OpenStack也开始从云计算延伸到了边缘计算领域,奠定了边缘计算的架构和基础。而在OpenStack方面领先的九州云,也敏锐地捕捉到了边缘计算的“风口”,于2017年确立了边缘计算的战略方向。未来九州云将与自己赛跑,把握5G带来的机遇,实现自我的不断突破和超越,做边缘计算领域的实力玩家。


END

九州云成立于2012年,是中国早期从事开放基础架构服务的专业公司。成立六年,秉承“开源 · 赋能变革”的理念,不断夯实自身实力,先后为政府、金融、运营商、能源、制造业、商业、交通、物流、教育、医疗等各行业的企业级客户提供高质量的开放基础架构服务。目前拥有国家电网、南方电网广东公司、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等众多重量级客户,被用户认可为最值得信赖的合作伙伴。


从垃圾分类到边缘计算,九州云乌镇专题研讨会引发热议


点击“阅读原文”,了解九州云更多信息!