Category : 未分类

在当今的IT行业中,认证有多重要?你需要他们来完成你的工作,保持相关性,或者得到提升吗?还是在职培训就足够了? 一些IT专业人士获得认证是因为他们是被要求的,一些是因为金钱原因,还有一些是为了他们自己的个人发展。在工作中,这是一个很大的话题。这是我的经验和我的决定。 当我作为一名网络工程师开始我的IT职业生涯时,我对认证并不熟悉,但是由于我工作的敏感性,获得CompTIA Security+认证是我工作的一个要求。通过获得认证,我将更加了解如何保护网络并确保它们的安全。在通过考试之前,我必须试三次,因为我必须学会如何参加考试,而不是因为我没有掌握材料。这教会了我在考试中保持放松,重读试题,也教会了我坚持是有回报的。  获得安全+认证给了我信心,我可以获得更多的认证,所以我决定尝试康普蒂亚网络+认证,以增加我的知识基础网络。 为了那份证书而进入我的学习,我感到很害怕。材料包括掌握子网,并围绕办公室冷水机子网被认为是具有挑战性的,如果可能的话要避免的东西。不过,当我学习的时候,一个灯泡亮了;子网为我点击。我得到了它。我能做到的。当我第一次通过Network+认证时,我的信心更大了。 在工作中,我每一个空闲时间都在办公桌前学习。看到这一点,并看到它的成功回报,激励我的同事更新他们的证书或获得新的。这对我的工作环境有好处,因为我们都获得了更多的技术知识。另外,我的经理注意到我在运用我学到的知识,给了我加薪。 我在思科的一家商店工作,在获得两项康普蒂亚认证后,我确信成为一名思科认证网络助理(CCNA)将是有益的,所以我去了。在学习的过程中,我发现我为两个CompTIA认证所学的大部分知识都是我为CCNA所需要知道的知识的一部分。当我放弃第一次尝试时,我欣喜若狂。在这个行业中,CCNA得到了很多尊重,作为一名it专业人士,获得它是我“我现在在这里”的时刻。我因努力工作而得到了工作场所的认可,又加薪了一次。  那是在2019年。我原计划尝试思科认证网络专业人员(CCNP),但我听说思科正在修订其认证计划,所以我决定等到修改完成。然后COVID-19发生了。我休息了一下,想弄清楚下一步我想获得什么样的认证,于是决定去申请CompTIA Cloud+认证。我选择它是因为组织和公司正在使用云计算进行存储、服务器、软件和网络。  人们还在远程工作,而且大多数考试设施都关闭了,所以我不得不在家里参加考试。我对那种不熟悉的考试形式有困难,我没有通过考试。  我没有重新参加CompTIA Cloud+考试,而是在为AWS云从业者认证而学习。一旦我得到它,我将去CCNP数据中心认证。  推荐白皮书 信用社云系列#1:20云考量 信用社云系列#1:20云考量 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用社云系列#3:允许云 信用社云系列#3:允许云 在准备和参加IT认证考试时,有许多宝贵的经验值得我们学习。你会有好日子和坏日子,但关键是保持不变和坚持。别放弃。不断学习测试策略和技术。伸出援手。我和托德·拉姆莱通信,他是我使用的研究指南的作者,他很容易接受。是他让我知道思科改变了证书,并建议我等着拿到CCNP。 记住,证书让你更有价值。你会学到可能不是每天都需要的技术技能,但当他们需要的时候,你会成为一个积极进取的人。而且,正如我所说,我收到了两份与我的证书直接相关的加薪。  当你已经有了一份全职工作的时候,为证书而学习是一项艰苦的工作,也是一项具有挑战性的工作。当我决定去申请证书时,我会提前安排考试,为自己设定一个学习目标。我在办公室休息时学习。我晚上和周末在图书馆和巴诺学习。投入时间很重要。 一些网络工程师可能认为认证不是一个好主意,是浪费时间和金钱。他们认为在职培训加上经验是最好的老师。他们至少部分是对的。在职培训确实提供了知识和专业知识。然而,在IT行业中,学习必须是不断的,为了保持相关性,你必须不断学习最新的技术。IT认证可以提供一个学习和记录你的成就的结构。 考虑到个人成长、信心、金钱回报和同龄人的尊重,这些证书可以给予我,它们是我的正确道路,也可能�..

Read more

开源是推动企业基础设施向前发展的许多技术的核心,下面是五个最重要的技术之一。 多年来,开源软件一直是企业IT的关键支撑,因此,它与应用程序开发一样有助于推动基础设施的发展也就不足为奇了。 有些项目的影响力比其他项目大得多,下面是五个最能帮助企业基础设施跟上日益复杂的操作环境的需求的项目。 OpenStack OpenStack之所以引人注目,部分原因在于它是VMware VSphere市场上最重要的专有虚拟化软件的开源竞争对手。对于将服务器虚拟化到一个灵活的计算资源池的基本任务来说,区别似乎在于易用性—在没有太多内部虚拟化或私有云专业知识的情况下,使用VMware更简单。 OpenStack在网络中的重要性有一个主要原因:电信部门和网络功能虚拟化(NFV),它使用企业虚拟化技术来执行以前分配给与专有软件相关的专用硬件的网络任务。电信供应商喜欢这个想法,因为它可以让他们用通用交换机和服务器取代昂贵的专有产品。此外,用于NFV的软件(如OpenStack)允许它们动态地调配工作负载,并更灵活地部署新功能。 Linux基金会负责网络和协调的总经理arpitjoshipura说,OpenStack和其他支持NFV的项目已经迅速成为电信运营的核心。 他说:“电信完全是专有的,从(无线接入网)到边缘到核心,无所不包。”在过去的五年里,电信网络已经完全依赖于开源。” Ansible 最初由Red Hat开发的Ansible是一个开源的IT自动化和配置管理工具,它提供了手动配置硬件的替代方法。这个想法是IT团队编写一个脚本来描述网络和它应该做什么,然后Ansible自动配置相关的设备。它不使用代理软件,而是通过SSH将“Ansible模块”直接推送到设备上,以便于部署。 “Ansible很重要,因为一旦你拥有了大量的机器,你就需要能够协调你的机器,”约瑟夫说您可以自己管理一台或两台或10台服务器,但部署和自动管理它们要容易得多。” Red Hat还为Ansible提供了一系列付费附加组件,包括改进的安全性、基于角色的访问控制和作业调度。Ansible提供了一种网络配置方法,允许IT人员在单个控制器上设置一次配置,并自动将配置推送到网络上的设备上。也可以将软件推送到网络上的所有设备上,或者只通过编辑到主剧本中的一个子集。可以在Git或其他版本控制系统中跟踪和识别更改。 Akraino Akraino于2019年推出,是Linux基金会LF Edge计划的产物,该计划旨在为Edge计算部署创建开放框架。Akraino是一个配置蓝图的集合,旨在为特定用例的网络和硬件配置提供免费可用的现成配方。 阿克雷诺目前包括11个蓝图家庭分组的一般使用面积和27个具体的蓝图。StarlingX Far Edge Distributed Cloud就是一个例子,它指定了硬件设置、容器化提供者和编排框架,以使应用程序能够在机场、体育场馆和商场等高密度位置运行。其他蓝图集中在AR/VR基础设施、电信无线电部署和各种类型的物联网。 StarlingX背后的理念是为供应商和成熟的最终用户提供一种简化边缘部署公共元素配置的方法。一家为特定垂直市场开发了新应用程序的公司表示,为互联工厂提供实时监控的公司可以专注于此,而无需设计底层计算基础设施。 K8s Kubernetes是一个用于各种企业工作负载的容器化平台,最初是Google工程师的产品,但在2014年作为开源发布。451研究所的一项研究显示,它已经成为一项行业标准,占企业集装箱运输使用量的71%。 一般来说,企业喜欢集装箱化,特别是Kubernetes,因为相对于单一的服务部署模型,它是一种有效的简化。Kubernetes将应用程序使用的每个进程分解到自己的容器中,并将其虚拟化,而不是单个应用程序提供一系列服务并需要专门的基础设施。 这意味着容器化工作负载可以运行在任何本地、公共云、私有云或其各种组合的地方 同时运行,就像将它们捆绑到在专用硬件上运行的单个应用程序中一样。因此,开发人员可以创建一个概述服务应该如何工作的文件,而Kubernetes自动化了从供应到故障切换到更新的一切。 据ElizabethK。Joseph是IBM的开发人员倡导者和开源专家。 她说:“很多大公司聚集在一起,共同打造这些东西,为如何运作提供了一个框架或核心。”一家小公司可以自己经营,但这实际上有点困难。这些公司投资于(这些项目)的原因是,他们知道自己可以在这个框架上销售东西,让他们不用写那些基本的、无聊的东西。” Linux 任何对企业网络非常重要的开源项目列表都必须包含Linux内核。Linux从根本上支撑了大量现代企业网络,包括这里列出的所有其他项目。红帽公司(Red Hat)2019年的一项调查显示,从外延上说,这意味着它也是90%公共云背后的基本操作系统。 即使是操作系统本身,也包含了强大的网络功能,使其易于在白盒硬件上部署。随着部署和管理网络的任务越来越基于软件,Linux技能对几乎所有网络IT专业人员来说都越来越重要。”“我认为人们认为这是理所当然的,”约�..

Read more

如果您是Linux用户,那么您无疑熟悉“dock”——屏幕一侧排列的图标列,其中包括重要的应用程序、您的收藏夹。它允许您只需左键单击其中一个图标即可打开应用程序。 但你知道你可以添加或删除应用程序从你的码头,有时甚至改变码头的位置在你的屏幕上?这篇文章向您展示了如何在Ubuntu上进行这些更改。 要将应用程序添加到dock,请按常规方式启动应用程序。一旦它打开,你应该看到它被临时添加到了码头。如果你想让它呆在那里以备将来使用,只需在dock中单击它的图标,然后从打开的菜单中选择“添加到收藏夹”。在这个屏幕截图中,终端窗口被添加到dock中。 在下一个屏幕截图中,将添加设置工具。您可以使用这些设置来更改dock中图标的大小,如果需要,可以将dock移动到屏幕的底部或右侧。 下面的屏幕截图显示了选择Settings=>Appearance后您将看到的显示。“图标大小”滑块允许您放大或缩小停靠点中的图标。“屏幕上的位置”选项允许您将基座移到屏幕的底部或右侧,或者,如果需要,将其移回左侧。 要从dock中删除应用程序,您将执行与添加应用程序时相同的操作。右键单击图标并选择“从收藏夹中删除”。如果在将设置应用程序添加到dock后,您改变了主意并希望将其删除,请右键单击图标并选择“从收藏夹中删除”,如下所示。 如果您选择的收藏夹超过了屏幕上的显示范围,则可以向下滚动查看列表的底部。你也可以用鼠标左键点击一个图标,然后把它移到船坞的更高位置。 总结 通过让dock包含您经常使用的应用程序,您可以更好地利用dock。在上面的截图中,收藏夹包括Firefox浏览器、打开我的主目录内容的文件夹、Rhythbox(音乐播放器)、LibreOffice Writer、推荐你可能要安装的应用程序的Ubuntu软件应用程序、有用的桌面指南、设置,终端和用于显示已安装应用程序�..

Read more

据报道,Pulse Connect安全VPN软件中的漏洞已被攻击者利用,其中一些被认为与中国有关,以危害网络。 使用Pulse-Secure移动VPN的组织应该修补据称在野外被利用的漏洞,可能是一个“中国间谍演员”。 这里提供的补丁程序被认为非常重要,以至于网络安全和基础设施安全局(CISA)给联邦机构的最后期限是4月23日。 CISA的指南指出,Pulse Connect安全VPN的联邦用户必须使用该公司的免费实用程序来确定他们的设备是否易受攻击。 如果发现该漏洞,必须立即将受影响的政府脉冲安全软件和设备与网络隔离,并提交完整报告。除了漏洞检测工具外,Pulse Secure还发布了一个替换XML配置文件,用于防止在受影响的设备上使用漏洞。 FireEye网络安全子公司Mandiant在一篇博文中写道:“组织应该检查现有的法医证据,以确定攻击者是否泄露了用户凭据。”[Pulse Secure母公司]Ivanti强烈建议重置环境中的所有密码并检查配置,以确保无法使用任何服务帐户对该漏洞进行身份验证。” Pulse Secure建议使用其在线Pulse Connect安全完整性保证工具来确定Pulse Connect安全软件是否已受到危害。 Mandiant称,已知的漏洞迫使SSL VPN身份验证系统显示凭据,并在检查这些凭据时欺骗它生成“成功登录”结果。已经使用了几种利用漏洞的技术,但结果是相同的VPN设备和远程执行的攻击代码遭到破坏。 推荐白皮书 信用社云系列#1:20云考量 信用社云系列#1:20云考量 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用社云系列#3:允许云 信用社云系列#3:允许云 Pulse Secure自己的博客文章称,这些漏洞部分基于过去两年修补的三个已知问题。较新的缺陷允许攻击者绕过Pulse Secure Connect网关上的双因素身份验证并执行远程代码。利用这一漏洞显然已被多个组织用来攻击美国国防和工业网络。 Mandiant说,目前有12个单独的恶意软件家族攻击Pulse Secure VPN,多个参与者可能在野外利用这一漏洞,其中至少一个似乎与中国政府有关。 在博客文章中被称为“中国间谍演员”的APT5组织在数年的时间里,一直以美国航空航天和国防公司为目标,并攻击网络和软件公司,以达到这�..

Read more

为了获得最高的存储性能,NVMe/TCP标志着SSD网络的下一步。 在数据中心开始从硬盘驱动器过渡到固态驱动器(SSD)后不久,NVMe协议就开始支持高性能、直连PCIe SSD。NVMe紧随其后的是NVMe over Fabrics(NVMe oF),它旨在高效地支持超规模远程SSD池,有效地取代直连存储(DAS),成为云基础设施中分类存储的默认协议。 最近,基于TCP的NVMe已经出现,它提供了一种更强大的NVMe技术,在降低部署成本和降低设计复杂度的同时保证了高性能。本质上,nvmeovertcp使用简单高效的TCP/IP结构将NVMe扩展到整个数据中心。 进一步了解数据中心技术: 人工智能如何创建自动驾驶数据中心 4个基本边缘计算用例 数据中心培训、招聘需要改变,以满足人员需求 无服务器计算:准备好了吗? 商业和技术咨询公司Capgemini North America的IT主管埃里克·基林格(Eric Killinger)说:“能够在高带宽、低延迟的情况下进行通信,同时在存储阵列之间实现物理隔离,然后添加一个包含TCP协议的普通交换网络进行传输,这将改变游戏规则。”云Hyperscaler已经采用了这项技术,取代了以前已有2年和3年历史的新SSD技术,为数据分析和物联网提供了更大的查询访问能力,”他说。 背景:NVMe的出现和NVMe的发展 当第一批使用NVMe ssd构建的阵列到达时,存储速度得到了巨大的提升,但是这些设备仍然通过基于SCSI的主机连接与服务器进行通信。部署的NVMe可以跨交换结构支持基于NVMe的块存储设备的远程直接内存访问(RDMA)。 “这是一种专门为固态存储优化的高性能存储网络协议。。。技术研究公司IDC的基础设施系统研究副总裁Eric Burgener说:“它提供了更低的延迟、更高的带宽、并行性和更高的效率。”。 的NVMe可用于不同类型的网络传输,包括光纤通道(FC)、以太网和InfiniBand。在以太网中,有不同的传输选项,包括RDMA over Converged Ethernet(RoCE)、iWARP以及TCP。 缺点是FC、InfiniBand、RoCE和iWARP选项都需要定制的主机总线适配器和驱动程序,这使得它们的实现和维护既困难又昂贵。”nvmeovertcp是一个真正的行业标准,它与几乎所有企业服务器上都提供的标准聚合以太网适配器配合使用。此外,大多数主要的Linux变体现在在其标准发行版中都包含了一个nvmeovertcp驱动程序。 “这是一个已发布和接受的标准,这意味着从长远来看,它将主导NVMe的部署,”Burgener说它的实现成本也较低,不需要标准Linux或以太网适配器之外的升级计划,但是它的延迟比RoCE要高一些,RoCE是迄今为止广泛部署的另一种以太网选项。” RoCE和iWARP都支持RDMA,而FC和TCP则不支持RDMA。这种支持RDMA的能力允许稍微降低延迟,但是所有这些方法都比基于普通SCSI的存储网络技术(如光纤通道(FC)和iSCSI)提供了显著的性能改进 NVMe/TCP部署和使用 采用NVMe/TCP的一个主要原因是提供一个低延迟的共享存储解决方案。 “如果你有一个基于NVMe的全闪存阵列,但仍然通过基于SCSI的存储网络连接到服务器上,那么你可能会留下很多性能问题,而且你的固态存储资源使用效率也不高,”Burgener说如果您希望将基于NVMe的全闪存阵列的性能一直提供给您的应用程序,则需要存储网络的NVMe。” 对于大多数组织来说,最终的传输选择将取决于已经部署的任何技术或规模要求的性能。 “FC是满足后一种要求的最佳传输方式,但随着高带宽以太网的每一个新版本的推出,这种区别就缩小了,因为以太网能够处理更多的。。。“更高带宽的存储工作负载,”Burgener说有一些对性能非常敏感的应用程序,使用FC作为NVMe的传输层会做得更好,但随着时间的推移,它们会越来越少。 如果一个企业已经拥有一个FC网络,那么在其上安装NVMe oF就相对容易,因为许多组织已经这样做了。然而,大多数商业绿地部署将选择使用以太网,TCP最终将在那里胜出,Burgener说。 在应用程序方面,“我们可能会及时看到大量基于TCP的NVMe,用于AI/ML驱动的大数据分析工作负载,特别是如果它们本质上是实时的,”Burgener说[采用]有意义的另一个地方是,环境已将大量工作负载整合到单个存储阵列上,并且需要能够在高工作负载密度下提供大规模性能。” 虽然AI/ML驱动的大数据分析应用正在增长,但该领域仍处于相对新兴的阶段。更直接的是,NVMe/TCP在基于flash的超大存储部署环境中获得了越来越大的吸引力,特别是在必须通过高带宽交换网络的现有投资快速访问大量低延迟数据的情况下。 Killinger说:“Hyperscalers是这项技术的天然消费者,因为它可以实现闪电般的数据访问,并允许数据分布在多个数据中心吊舱中,提供电网、冷却和本地化的高可用性体系结构好处,而无需普通光纤网络建设带来的额外成本。”。 NVMe/TCP还可以允许采用者利用交换网络技术的现有投资,这些技术已经商品化并可从许多原始设备制造商处获得。”Killinger说:“与Infiniband或光纤通道相比,连接多个绑定10G交换以太网端口的每个端口的成本使得利用NVMe的TCP堆栈实现成为可能。”。 Burgener指出,许多高端存储采用者已经致力于FC存储网络,并且已经或正在计划升级到RoCE。然而,这种情况在未来几年可能会发生变化。 Burgener说,随着存储基础设施越来越多地转向固态存储,客户也越来越关心基础设施的效率,基于TCP的NVMe将明显优于SCSI,而且成本低廉,易于实现。 NVMe over TCP可用性 NVMe及其规范由NVM Express,Inc.拥有和维护,NVM Express,Inc.是一个由网络、存储和其他IT相关公司组成的财团。NVMe规范于2011年发布,它定义了主机软件如何通过PCI-Express(PCIe)总线与非易失性内存通信,目前已成为pciessd所有外形尺寸的行业标准。NVMe/TCP于2018年获得NVM Express consortium的批准。 从目前的情况来看,NVMe/TCP支持主要来自网络供应商,如Mellanox Technologies(现在归NVIDIA所有),以及一些存储初创公司,包括Lightbits Labs、Excellero、Pavilion Data和Infinidat。SSD芯片制造商Kioxia(以前是东芝的一部分)也支持TCP上的NVMe。 NVMe/TCP可用性预计将在未来几年快速增长。”大多数主要的企业级存储供应商还没有推出它,但可能会在未来12到18个月内推出。 目前的一个障碍,短期,大规模的NVMe对TCP的采用也是一个原因,它很可能成为一个长期的成功。 ..

Read more

企业数据中心的专业人士正在接受云服务,发展高速网络,支持远程劳动力,并采用自动化和人工智能。 在COVID-19流感大流行带来技术挑战之前,数据中心网络已经发生了变化,未来企业中很少有哪个领域会继续受到比数据中心更大的影响。 这是因为无数的技术正在推动数据中心的变化,从对高速网络的巨大需求、对远程工作人员的支持、更高的安全性、更严格的管理,以及可能最大的变化——云服务的大量增长。 云是关键 650集团的创始人和技术分析师艾伦·韦克尔说:“这场大流行使许多多年的数字化转型和现代化项目迅速发生。”。“10年前云改变网络的方式类似于COVID现在快速过渡到新技术以支持新的工作负载的影响,人类与这些工作负载的交互方式也不同。在边缘数据中心尤其如此。” 如何处理多云管理 随着在家工作政策的增加,员工不再坐在离数据中心不远的办公室里,Weckel说,“数据必须快速移动,网络带宽和入口/出口需要调整,以支持远程工作者和远程客户。数据中心的网络现在必须支持更多的云应用程序和服务。” 专家说,事实上,企业数据中心客户的游戏名称是云。 VMware NSX Networking高级副总裁兼总经理Umesh Mahajan说:“企业早就知道云模型是实现敏捷性和响应性的标准。“此模型由各个级别的自动化定义,通常通过软件定义的基础设施提供。” 数字化转型 戴尔集团(Dell’Oro Group)高级研究主管萨梅•布杰尔本(Sameh Boujelbene)表示,这种流行病无疑加速了数字化转型,并影响到数据中心。Boujelbene说:“数字化转型将对数据的产生地、分析/处理地以及消费地产生重大影响。”。 Boujelbene说:“重点将从谈论数据中心转向谈论数据中心,许多数据将在边缘创建。因此,根据延迟要求,它可以在边缘进行处理和分析,也可以发送到云端。“同时,移动消费者希望能够随时随地消费服务。换言之,IT基础设施正在向四面八方扩展,几乎没有边界。” Mahajan说,云和自动化将在新的数据中心中扮演重要角色,“这场流行病只会加速客户转向云操作模式的努力。该模型由各个级别的自动化定义,通常通过软件定义的基础设施交付。客户必须能够跨整个网络和安全堆栈实现自动化,以实现云操作模式的全部好处。这意味着交换、路由、负载平衡、安全性。这不仅意味着在数据中心网络内部,而且还意味着通过广域网和互联网无缝地扩展数据中心网络。” IDC数据中心和多云网络集团的研究副总裁Brad Casemore在该研究公司最近举行的“企业网络的未来:新常态的出现”网络研讨会上说,企业数据中心运营商越来越明白,网络必须改变,以支持跨云分布的应用程序 Casemore说:“加快采用云技术以实现业务弹性,有效地分布了数据中心,对网络具有重大影响。”。“多云网络通过在混合/多云环境中提供操作简单性和一致的策略,支持业务弹性。” 关键数据中心资源的位置以及网络如何处理这些工作负载也在发生重大变化。 Gartner去年写道,“传统数据中心的角色将被降级为传统的保留区,专门用于其他地方无法支持的非常特定的服务,或支持那些在本地最经济高效的系统。” Gartner高级研究总监Jonathan Forest说:“我们看到,尽管云网络越来越流行,但数据中心仍有投资。”。“将云的弹性和灵活性引入内部部署,可能会给数据中心带来更多的活力,并摆脱传统的硬件观念。我们仍然相信,未来几年,大多数组织将以混合模式运行,包括内部部署数据中心和云。” 马哈詹说,传统数据中心是否继续发挥作用还有待观察。 Mahajan说:“(客户)将在云中运行工作负载,他们将在prem上运行工作负载。不同的工作负载只需要不同的东西,混合云将是他们前进的道路。这意味着要建立一个基础设施,提供prem上的公共云体验。即使是决定使用公共云的客户,也仍然希望连接回prem上的公共云,或者能够灵活地使用多个公共云而不被锁定。” 持续的数据中心挑战 专家表示,随着这些核心变化,企业数据中心客户面临着许多挑战。 Gartner的Forest提出了IT领导者需要回答的几个问题:那些拥有prem数据中心的企业如何实现更高的自动化并解决技能差距?他们将如何管理混合环境,在这种环境中,应用程序可以部署到任何地方,因此基础设施需要无处不在?当网络团队被期望用更少的资源做更多的事情时,他们如何控制成本? Forest说,通过更容易地启用当前部署的产品中包含的基础设施功能,可以相对快速地解决其中一些问题。这可以增强操作,最大限度地延长正常运行时间,并降低支持成本。其他问题可以通过“随着时间的推移,更多地采用基于订阅的定价模式,而不是有助于价格可预测性、简单性和灵活性的资本支出模式”来解决。另一个趋势是采用基于云的管理来简化管理和编排的交付方式。与WLAN/LAN和SD-WAN相比,这在数据中心网络中的应用较少。” 戴尔Oro的Boujelbene表示,自动化将是必要的,因为随着新数据中心基础设施的规模及其不断变化的需求,手动管理已不可能实现。Boujelbene说:“自动化与提高网络可视性/遥测/实时监控齐头并进:如果你不知道网络中发生了什么,你根本无法实现网络自动化。”。 人工智能也将在这方面发挥作用。Boujelbene说:“需要人工智能来分析网络数据并将其转化为可操作的信息。” 650集团的韦克尔说,人员配备是一个限制因素。他说:“IT业的人无法扩展,未来将依赖更多的自动化和人工智能来提供和控制他们的数据中心网络。”。 远程工作的员工数量激增,对访问数据中心资源提出了新的要求。Extreme Networks首席技术官办公室技术总监蒂姆•哈里森(Tim Harrison)说:“现在企业已经分散化,将每个用户视为一个分支是至关重要的。“每个用户都需要有一个企业级的分支机构的经验,而在他们的家庭办公室,希望很快,在咖啡店或公园。用户体验将变得更加重要,企业数据中心将需要启用这种体验。那些未能适应新常态的人,在落后于曲线时,会更加挣扎。” 合并零信任 哈里森说,这也是重新关注了解数据、数据驻留位置、数据访问方式以及访问者的重要时刻。 “随着我们在与技术的交互中变得高度个性化,当用户从任何地方访问和参与时,确保我们的交互更加重要。“零信任策略不是一种你可以从供应商那里购买的特定技术或解决方案,而是一种了解你的数据、用户及其关系的方法,”哈里森说。 随着数据中心部署在边缘或以其他方式分布,它们内部的安全性变得更加重要。VMware的Mahajan说,数据中心内部的事情变得太复杂了,复杂性是安全的大敌,除非你是黑客。 Mahajan说:“因此,我们看到的数据中心趋势之一是推动安全成为网络的一部分,推动更多的分析、可见性和自我修复。”。“实施东/西保护并将安全提升到应用程序连接层将是数据中心下一个重大创新领域之一。” Mahajan说,现代应用程序的性质以及支持和保护动态和分布式劳动力的特点要求私有数据中心的发展更像公共云 Mahajan说:“客户只能通过提供全套网络和安全服务的软件来实现这一点。”。“使用这种方法,客户可以实现诸如部署20TB横向扩展防火墙和在私有数据中心支持一百万个SSL事务等功能。” “客户硬件时代已经屈指可数。Mahajan说:“数据中心的未来是一个简单的以太网结构,提供服务器连接,其他一切都在一个基于软件的L2-7堆栈中,运行在通用服务器上,甚至可以利用SmartNICs。我们看到,SmartNICs对减轻网络和安全服务负担的兴趣是不可能的。” 2020年的影响 虽然大的变化肯定正在进行中,但2020年流感大流行的影响确实延缓了一些实施。Boujelbene说,例如,大型企业的网络支出在今年上半年暂停,原因是流感大流行带来的不确定性和缺乏商业信心,这有利于追求运营支出模式(公共云)与资本支出模式(prem)。 Boujelbene说:“尽管这场流行病加速了公共云的采用,但对于这些规模庞大的企业来说,建立和管理自己的私有数据中心仍然比使用公共云更经济。”。 对于小型企业来说,私人数据中心甚至在流感大流行之前就已经在稳步下降。这是因为对于这样规模的企业来说,在公共云中租赁容量比构建自己的数据中心要便宜得多。布杰尔本说,大流行进一步加速了这一趋势。 此外,650集团的数据显示,2020年数据中心网络核心技术以太网交换机的销售额同比下降近2%,至320亿美元 韦克尔说,COVID-19限制、工厂关闭、经济快速收缩和扩张是去年业绩的关键主题,但这种情况正在改变。“半导体短缺、数据中心产品交付周期的增加以及员工重返办公室的时机将决定2021年的反弹。” 形成反弹的另一个因素是,这里概述的许多趋势将推动采用更高的网络速度 Boujelbene说:“我们预计,今年服务器接入的客户将从10 Gbps增长到25 Gbps,光纤网的客户将从40 ..

Read more

NetApp正在结束其hyperconvergence硬件的生产,并计划专注于软件定义的基础设施。 NetApp是hyperconverged infrastructure(HCI)硬件业务的众多参与者之一,计划结束NetApp HCI硬件的生产,转而专注于Astra Kubernetes平台项目。 人机交互分为两类,软件和硬件。在软件方面,Nutanix和VMware的市场份额大致持平。在硬件方面,IDC和Gartner都将HCI的领导者列为HP Enterprise、Dell Technology、Cisco Systems和“市场的其余部分”。你可以猜到NetApp属于哪一类。 阅读更多: Hyperconvergence作为一种服务,提供无需动手的数据中心管理 做出正确的超聚合选择:HCI硬件还是软件? 为您的数据中心考虑超聚合基础设施的8个理由 超聚合:不再只是针对特定的工作负载 NetApp HCI于2019年首次推出,是该公司第一个也是唯一一个提供计算功能的硬件设备。NetApp主要专注于软件解决方案。 NetApp负责公共云服务产品管理的副总裁Eric Han表示,NetApp打算为企业客户构建一个开放、可扩展的HCI平台,以便在私有、公共、混合和多云环境中以有保证的性能运行多个应用程序。 “我们帮助他们开发虚拟机工作负载,以及他们的下一代应用程序。我们已经看到客户需求和HCI市场转向软件定义的基础设施,客户不再需要集成的HCI设备,因为它始终是一个旨在帮助组织将其应用程序转移到(混合多云)的解决方案,”Han说。 由于能够使用容器和Kubernetes移动应用程序,实现混合云的关键要素是应用程序数据管理,NetApp现在与NetApp Astra一起提供应用程序数据管理,这是NetApp今后的重点 Astra项目于近一年前推出,是一项旨在将企业级存储服务引入Kubernetes容器平台的计划,作为在本地和多云环境之间移动应用程序和数据时进行管理的一种方式。 Han说,NetApp正在帮助客户规划硬件的最终可用性,软件增强和支持将持续到2025年3月。对NetApp HCI平台的支持将持续到2027年3月 “拥有现有部署的客户可以继续将其HCI扩展为一个具有NetApp完全支持的解决方案。现有NetApp HCI部署中的存储群集可以继续通过NetApp SolidFire存储节点进行扩展。“不需要存储转换,”韩说 至于转向Kubernetes,韩寒说,组织采用Kubernetes作为一个关键的技术基础,使他们能够提供现代,云本地应用的速度,灵活性和灵活性。 他说:“通过简化和标准化容器和服务的管理,Kubernetes帮助开发人员构建并快速发布可在任何基础设施上运行的便携应用程序,从edge、数据中�..

Read more

扩大合作旨在使企业更容易运行GPU加速的人工智能应用程序。 VMware和Nvidia已扩大了联盟,以支持基于VMware新vSphere 7 Update 2的Nvidia GPU应用程序。vSphere 7的升级版本将支持新的Nvidia AI Enterprise产品,这是一套企业级AI工具和框架,使GPU加速的应用程序能够在VMware虚拟机和容器中运行。 VMware的vSphere 7 U2增加了对Nvidia的A100 Tensor Core GPU及其多实例GPU功能的支持,该功能允许将A100上的核心分区以供多个用户使用,这与VMware将CPU核心分区给多个用户的方式非常相似。 导读:昂扬的英伟达将触角扩大到企业数据中心 这意味着AI工作负载现在可以在VMware的虚拟化平台上运行。到目前为止,人工智能工作负载只在裸机服务器上运行。如果不是性能密集型的话,人工智能什么都不是,裸机环境提供了硬件的全部功能,而不是在虚拟的多租户场景中共享它。 Nvidia在一篇博客文章中宣称,AI Enterprise可以让虚拟工作负载在vSphere上以近乎裸机的性能运行。人工智能工作负载将能够跨多个节点扩展,甚至允许最大的深度学习培训模型在VMware Cloud Foundation上运行。 利用此功能,开发人员可以在vSphere平台上为CUDA应用程序、AI框架、模型和SDK构建扩展的多节点性能。人工智能企业平台设计用于部署在经Nvidia认证的系统上,这些系统由Dell Technologies、Hewlett-Packard Enterprise(HPE)、Supermicro、Gigabyte和Inspur提供。 除了A100支持之外,vSphere 7 U2还增加了使用vSphere Lifecycle Manager查看与Tanzu(VMware的Kubernetes发行版)一起运行的vSphere映像和管理vSphere实例的功能。vSphere 7 U2具有集成的应用程序负载平衡以及对专用和第三方容器注册的更好支持。 vSAN 7 U2增强功能 除了vSphere升级之外,VMware还宣布了VMware vSAN 7 Update 2的可用性,其中包含一些新的和增强的功能。首先是它的超聚合基础设施(HCI)软件hcimesh的新版本;新版本建立在vsan7 update1中最初发布的基于软件的计算和存储资源分解方法的基础上。 新版本提供了更广泛的客户用例集,特别是对于希望在现有vSAN环境之外提高资源效率的客户。它使计算集群或非HCI集群能够远程使用数据中心内vSAN集群的存储,从而允许客户独立地扩展计算和存储。 vsan7更新2还引入了新的功能来更好地支持各种物理拓扑。这包括对扩展群集配置的集成DRS感知,以在故障回复中获得更一致的性能,以及对扩展群集和2节点群集的vSAN文件服务支持。 此外,VMware还继续提供可提高vSAN性能的功能,包括vSAN over Remote Direct Memory Access(RDMA)和RAID 5/6擦除编码的增强功能,这些功能可提高某些工作负载的CPU利用率和应用程序性能。 最后,vSAN 7 Update 2包括对加密模块的FIPS 140-2验证,以满足严格的政�..

Read more

边缘管理的SD-WAN设备可能是网络运营商为企业提供个性化服务的方式。 如果你停下来想一想,我们对网络服务的很多期望其实都与我们自己的个性有关。我们希望我们的服务能够发挥作用,嗯,我们的工作方式。我们希望他们了解我们,适应我们的需求,对吗?你认为有几十万个元素的巨型全球互联网络能做到这一点吗?不,这意味着个性化服务将成为我们真正拥有的唯一一块低微的网络边缘。 几十年前我们就认识到,你不能让庞大的网络拥有用户意识或服务意识,这种意识在网络语言中被称为“有状态”,意味着把虚拟的你的一小部分贴到网络中来代表你的利益。也许这些部分是路由表中的一个条目,或者它们是存储在某个存储库中的策略,并发送到处理您的流量的设备,但是如果它们所做的是个性化的,那么它们是个性化的。这只是不能扩展。不仅有太多的小部分,网络流量可能会被重新配置,或者一个设备可能会出现故障,而一下子你的个性化部分甚至不知道你的流量会流向哪里。 输入边缘设备。很容易忽略终止服务的框,或者在上面放一杯咖啡,或者把它放在杂乱的地方。给它一些尊重。网络中的边缘设备的好处是它是专门为你服务的。如果在这个巨大的全球互联网络中,有任何地方可能知道你的任何事,那就是它的小终端盒,这种个性化的潜力使它确实非常有价值。 你可能会认为,既然我们已经有了服务终止的历史,人们就会发现边缘在个性化服务中很重要,但不知怎么的,这似乎被忽略了。有两件事改变了这一点:第一,软件定义的广域网(SD-WAN),第二,分析界最新的伟大而神秘的发明,安全访问服务边缘(SASE)。 SD-WAN在边缘实现个性化服务 SD-WAN的受欢迎程度正在爆炸式增长;我自己的研究表明,如今SD-WAN上的站点数量几乎是一年前的三倍。提供SD-WAN的供应商可能有50家,通信和托管服务提供商也有几十家,在这种竞争下,竞争驱动着所有人也就不足为奇了为it发明新功能。如今,支持小型网站甚至云中的应用程序是一个赌注。在家办公、服务遥测、应用程序优先级,甚至零信任安全都在增加。 这个功能增强过程对于SD-WAN供应商/提供商来说相对容易,而对于网络服务提供商和互联网来说则比较困难的原因是上面提到的边缘个性化。如果你有一个SD-WAN,你就有一个通向用户所在的虚拟网络的入口匝道,即边缘。这个入口匝道可以做任何事情实用的个性化服务关系,使您的服务看起来像是为您设计的,因为它是您的,实际上说来。 我们无法将我们庞大的网络个人化以反映我们的应用程序优先级,但也许我们不必这样做。在用户连接点,容量是最有限和最昂贵的。SD-WAN可以在边缘(拥塞的临界点)强制应用程序流量优先级。这可能是朝着QoS迈出的最大一步,但是SD-WAN也可以按优先级标记流量或沿不同的路由发送流量。所需要的只是一种确定优先级的标准方法,SD-WAN和网络都支持这种方法,我们将拥有端到端QoS。 还不止这些。任何虚拟网络都提供一定程度的内在安全性,一些SD WAN提供会话感知的零信任安全性。通过一些内在的访问点优先级和QoS分类添加内在安全性,您就会创建一些没有SD-WAN很难匹配的内容,这可能意味着SD-WAN可能会取代SASE概念这可能就是AT&T刚刚宣布将Fortinet堆栈用于“托管SASE”的原因;Fortinet包括SD-WAN SD-WAN:通向哑网络的智能网关 SD-WAN现在是边缘的锚定概念,是新服务功能的网关。这种边缘思维的转变,如果像现在看来的那样真实,可能会非常深刻。这并不是说网络无关紧要,而是说他们所能做的只是传递在边缘创造的体验。最好的网络是隐形的,而且不花钱的吗?这里面有比表面看起来更多的真相。 将服务的功能转移到本地设备上,使这些功能成为许多供应商可以销售的东西。它可以促进托管服务,既要利用智能边缘设备的优势来管理SLA,又要为运营商提供销售利润率更高的产品的机会。这将使服务市场更具竞争力。它可以使真正的通用网络互联网成为唯一的网络,把“网络”技术集中在管理成本上。智能边缘使一个愚蠢的网络成为可能。 SD-WAN即服务 网络运营商将不得不对这一以边缘为中心的新愿景作出回应,而托管服务似乎是他们唯一能真正做到的事情。如果服务变得更加个性化,那么每个网络用户几乎都是一个私有网络,而支持这一点的公司可能无法处理。SD-WAN的嵌入式管理这些工具可以为运营商提供一种获得规模经济管理的方法,让他们以用户愿意支付的价格提供托管服务,当然,仍然可以为运营商赚取可观的新利润。 如果你认为企业不会接受托管服务,那就看看云吧,我们已经看到云计算服务正在向托管服务转移,因为这正是用户想要的。把一个出色的低接触管理云服务放在高接触网络服务之上是没有帮助的,甚至据说云提供商也在制定自己的SD-WAN和管理服务战略。 edge不仅仅是你的朋友,它可能是你最好的朋友。下次你看到edge设备时,擦掉一点咖啡渍,整理一下它的工作场所。它是你通向未来网络服务�..

Read more

文件系统和uuid在Linux系统上有着特殊的关系。这些很长的标识符是什么?如何查看它们与磁盘分区之间的连接? /etc/fstab文件在Linux系统中是一个非常重要的文件。它包含的信息允许系统连接到磁盘分区,并确定它们应该安装在文件系统中的什么位置。虽然这个文件多年来一直扮演着重要的角色,但它的格式随着uuid的引入而改变,在某些系统上,它的文件系统类型更加可靠。 下面是Fedora系统上的/etc/fstab文件示例: 文件中的每一行(注释除外)表示一个文件系统,有六个字段。 描述磁盘分区(下面将详细介绍uuid) 标识装入点 显示文件系统类型(可以是ext4、xfs、btrfs、f2fs、vfat、ntfs、hfsplus、tmpfs、sysfs、proc、iso9660、udf、squashfs、nfs、cifs或其他类型) 提供装载选项 确定是否可以使用dump命令(不常用)转储文件系统(0=不) 确定是否应在启动时执行文件系统检查(0=不) btrfs文件系统是一个现代的Linux写拷贝(copy-on-write,CoW)文件系统,它提供了高级功能,同时还注重容错、修复和易于管理。 上面显示的/etc/fstab文件是不寻常的,因为最近刚在/dev/sda上安装了一个新操作系统,并且在升级之前(在一个单独的磁盘上)系统中的/home文件夹在注释掉对/home的第一个引用之后被重新安装。 什么是uuid? 在/etc/fstab中看到的那些被标记为UUID(universalunique identifier)的冗长设备标识符是128位(32个十六进制字符)长的,并按8-4-4-4-12字符序列排列。查看uuid如何与设备名(例如,/dev/sda1)连接的一种方法是使用blkid命令。 您还可以签出by uuid文件以查看关系: 作为/dev/sdc1安装的76E8-CACF设备是一个临时使用的USB驱动器。 您可以通过自己运行uuidgen来了解Linux如何生成uuid。通过键入“which uuidgen”检查它是否在您的系统中。这些标识符在所有实际用途中都是唯一的。当您输入uuidgen命令时,您将得到超过3.40×1038个可能的响应中的任何一个。 使用lsblk 查看文件系统的另一种方便方法是使用lsblk命令,它可以清楚地查看文件系统与装入点、设备大小和主要/次要设备号的关系。此命令使每个驱动器上的分区易于可视化。 总结 Linux系统提供了许多查看文件系统的方法。一些命令可以帮助您理解/etc/fstab文件以及磁盘分区、文件系统和uuid之间�..

Read more