如果您是Linux用户,那么您无疑熟悉“dock”——屏幕一侧排列的图标列,其中包括重要的应用程序、您的收藏夹。它允许您只需左键单击其中一个图标即可打开应用程序。 但你知道你可以添加或删除应用程序从你的码头,有时甚至改变码头的位置在你的屏幕上?这篇文章向您展示了如何在Ubuntu上进行这些更改。 要将应用程序添加到dock,请按常规方式启动应用程序。一旦它打开,你应该看到它被临时添加到了码头。如果你想让它呆在那里以备将来使用,只需在dock中单击它的图标,然后从打开的菜单中选择“添加到收藏夹”。在这个屏幕截图中,终端窗口被添加到dock中。 在下一个屏幕截图中,将添加设置工具。您可以使用这些设置来更改dock中图标的大小,如果需要,可以将dock移动到屏幕的底部或右侧。 下面的屏幕截图显示了选择Settings=>Appearance后您将看到的显示。“图标大小”滑块允许您放大或缩小停靠点中的图标。“屏幕上的位置”选项允许您将基座移到屏幕的底部或右侧,或者,如果需要,将其移回左侧。 要从dock中删除应用程序,您将执行与添加应用程序时相同的操作。右键单击图标并选择“从收藏夹中删除”。如果在将设置应用程序添加到dock后,您改变了主意并希望将其删除,请右键单击图标并选择“从收藏夹中删除”,如下所示。 如果您选择的收藏夹超过了屏幕上的显示范围,则可以向下滚动查看列表的底部。你也可以用鼠标左键点击一个图标,然后把它移到船坞的更高位置。 总结 通过让dock包含您经常使用的应用程序,您可以更好地利用dock。在上面的截图中,收藏夹包括Firefox浏览器、打开我的主目录内容的文件夹、Rhythbox(音乐播放器)、LibreOffice Writer、推荐你可能要安装的应用程序的Ubuntu软件应用程序、有用的桌面指南、设置,终端和用于显示已安装应用程序�..
Category : 技术热点
据报道,Pulse Connect安全VPN软件中的漏洞已被攻击者利用,其中一些被认为与中国有关,以危害网络。 使用Pulse-Secure移动VPN的组织应该修补据称在野外被利用的漏洞,可能是一个“中国间谍演员”。 这里提供的补丁程序被认为非常重要,以至于网络安全和基础设施安全局(CISA)给联邦机构的最后期限是4月23日。 CISA的指南指出,Pulse Connect安全VPN的联邦用户必须使用该公司的免费实用程序来确定他们的设备是否易受攻击。 如果发现该漏洞,必须立即将受影响的政府脉冲安全软件和设备与网络隔离,并提交完整报告。除了漏洞检测工具外,Pulse Secure还发布了一个替换XML配置文件,用于防止在受影响的设备上使用漏洞。 FireEye网络安全子公司Mandiant在一篇博文中写道:“组织应该检查现有的法医证据,以确定攻击者是否泄露了用户凭据。”[Pulse Secure母公司]Ivanti强烈建议重置环境中的所有密码并检查配置,以确保无法使用任何服务帐户对该漏洞进行身份验证。” Pulse Secure建议使用其在线Pulse Connect安全完整性保证工具来确定Pulse Connect安全软件是否已受到危害。 Mandiant称,已知的漏洞迫使SSL VPN身份验证系统显示凭据,并在检查这些凭据时欺骗它生成“成功登录”结果。已经使用了几种利用漏洞的技术,但结果是相同的VPN设备和远程执行的攻击代码遭到破坏。 推荐白皮书 信用社云系列#1:20云考量 信用社云系列#1:20云考量 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用合作社云系列#2:我梦想数据——您的数据实践的10个考虑因素 信用社云系列#3:允许云 信用社云系列#3:允许云 Pulse Secure自己的博客文章称,这些漏洞部分基于过去两年修补的三个已知问题。较新的缺陷允许攻击者绕过Pulse Secure Connect网关上的双因素身份验证并执行远程代码。利用这一漏洞显然已被多个组织用来攻击美国国防和工业网络。 Mandiant说,目前有12个单独的恶意软件家族攻击Pulse Secure VPN,多个参与者可能在野外利用这一漏洞,其中至少一个似乎与中国政府有关。 在博客文章中被称为“中国间谍演员”的APT5组织在数年的时间里,一直以美国航空航天和国防公司为目标,并攻击网络和软件公司,以达到这�..
子网和创建子网掩码通常外包给顾问,但自己动手既有挑战性又有回报。 在IT界,特别是在网络方面,没有多少方面比创建子网络的行为子网化更令人费解。 子网是由IP地址类别和子网掩码定义的现有网络的逻辑分区。通常情况下,咨询师会为新兴企业提供网络设计服务,以帮助建立一个符合他们当时需求的网络。但随着业务的增长或需求的变化,可能会有一段时间,最初的网络结构不再起作用。 我目前正在做一个项目,符合一个T恤的描述。这个网络是在没有那么多设备和用户可供容纳的情况下由顾问构思的。随着业务需求的增长,一个最多可容纳254台主机的/24子网显然已经远远不够了。因此,我正在构建一个新的网络结构,可以容纳我们目前拥有的所有设备,按设备类型划分,并有增长空间。 这意味着为每组设备(如打印机、服务器、工作站、接入点等)提供一个单独的子网和相应的VLAN。这允许每组有尽可能多的空间,同时保持网络的逻辑组织。 有趣的是,许多经验丰富的it专业人士仍然对子网有点恐惧,因为他们不想为实现子网而烦恼。我们需要多少地址?我们将使用什么IP方案?DHCP将提供多少个地址,以及 静态分配?我们是将设备的类型分开,还是简单地将它们放在范围的某个部分(例如将所有服务器放在范围的前50个地址中)? 因此,一旦建立了一个网络,它通常不会被重新创建或彻底改变。但我们的网络没有其他选择,因为我是一个贪吃的惩罚,我决定自己承担这项任务,而不是走顾问路线。要做到这一点,我必须吹掉一段时间以来不必使用的子网知识的灰尘,重新熟悉主机的计算。以下是我理解的子网的基本知识,以及最后要考虑的一些事情。 如何创建子网 要正确地划分子网,您需要对以下主题有基本的了解:二进制(base-2)数和分类网络。分类网络的基本思想是将IPv4地址分成四个八位字节(八个二进制位部分),然后根据它们要容纳的主机数量将它们分类。尽管在今天的公共互联网中不再使用分类网络概念,而是使用无分类域间路由,但是将IP地址分为网络部分和主机部分以切断网络的概念仍然与子网一起使用。在大多数内部网络中,有三个主要的专用IP范围:A类、B类和C类。 这些类中的每一个都使用一定数量的位作为地址的网络部分,其余的位作为主机部分,如下图所示: 网络位和主机位的细分显示了IP地址的哪些部分在给定的网络中不会改变。在a级范围为10.0.0.0的示例中,IP地址的最后三个八位字节将随着通过DHCP发出或分配而依次更改,但第一个八位字节永远不会更改。这是因为这些是定义网络的网络位,使得最后一个地址在10.255.255.255范围内。 子网掩码的重要性 子网化时,您使用子网掩码从地址的主机部分窃取位,并将其添加到网络部分,以调整您可以容纳的主机数。子网掩码是与IP地址类似的32位数字,但其目的不是用于主机寻址,而是通信网络地址的网络/子网位部分和主机位部分。通过将所有主机位设置为0,将所有网络/子网位设置为1来构造子网掩码。 因为在一个IPv4地址中总共有32位(四个八位位元中的每一个八位位元有8位),所以要找到一个特定掩码所容纳的主机地址的数量,您可以从32中减去网络位和子网位的数量,然后将2提高到差值的幂。例如,对于a/22网络,主机地址的数量将是32–22=10,210=1024个地址。此图表显示与不同掩码关联的主机地址数: 一旦你决定了你需要多少个主机地址,把每个八位字节的网络部分和子网部分的二进制位分别相加,你就得到了你的子网掩码。 正确的子网数目和大小 当将一个网络划分为子网时,很容易想到,因为您的网络上有x个设备,所以您只需要选择一个IP范围和子网,该范围和子网具有足够的地址来容纳所有设备,但这将忽略一些关键的考虑。通过创建一个巨型子网,比如说有16777216个地址的a/8,你开始遇到网络拥塞问题。因为每个子网都是自己的广播域,所以每当交换机发送ARP广播或机器正在广播其他内容时,广播域中的每个设备都会得到它。因此,网络上的广播数据包可能会淹没实际的非广播流量。 当您谈论256-1024个或更少的地址时,广播流量是可以管理的,但是如果地址更大,您会遇到严重的问题,这取决于您的设备有多吵。最佳实践通常是将网络上的一些主要设备类别划分为它们自己的子网或带有VLAN的广播域。通过使用某种第3层设备在子网之间路由通信,您仍然可以拥有所需的地址,但网络噪声是可控的。 实现一个新的子网方案会因环境的不同而有很大的不同,但最好是循序渐进。先抓住低挂的水果来测试这个概念,让路线正常工作,在拥挤的/24小时里给你的逃生留出一些喘息的空间。在处理IPv6寻址时,也应用了许多相同的原则,尽管存在一些显著的差异。它使用由16个字符组成的十六进制表示法,而不是仅由两个字符组成的二进制表示法,而且每个内部地址也是一个外部地址。但这是另一天�..
下面是五个Linux命令,它们可以验证连接速度、分析延迟以及测试是否可以访问其他系统。 有很多工具可以帮助您在Linux命令行上测试连接性。在本文中,我们将研究一系列命令,这些命令有助于估计连接速度、测试是否可以访问其他系统、分析连接延迟以及确定特定服务是否可用。 发出砰的声响 ping命令是执行基本连接测试的最简单和最常用的命令。它发出的数据包称为echo requests,是请求响应的数据包。该命令查找响应并显示响应以及每个响应所用的时间,然后报告响应的请求百分比。 响应时间在很大程度上取决于请求需要穿越多少路由器,以及您的网络是否拥塞。ping本地系统可能是这样的。请注意,每个响应所需的毫秒数很小,数据包丢失率为0%。 在Linux系统上,ping将继续,直到您键入^c停止它们。包括Windows在内的一些系统发出四次ping,然后自行停止。远程系统需要相当长的时间来响应。零数据包丢失始终是一个好迹象,即使在ping远程系统时,除非出现问题,否则通常情况下也应该看到。 ping命令提供了检查家庭网络的网络连接的简单方法。将请求发送到可公开访问的系统,您应该预期0%的数据包丢失。 如果遇到问题,ping命令可能会显示严重的数据包丢失。 示踪路线 Traceroute是一个复杂得多的命令,因为它运行一系列检查来查看路由器之间的每个跃点需要多长时间,并将其报告回来。如果整个检查需要很长时间,可能是一个或两个跃点拥挤。如果报告的结果降为星号序列,则到达的最后一个路由器无法响应所使用的数据包类型(Linux系统上默认为UDP)。 traceroute命令使用了一种聪明的技术来计时每个跃点。它使用一个生存时间(TTL)设置,该设置随每个跃点递减,以确保路由上的每个路由器在某个时刻都会发回错误消息。这允许traceroute 报告每一跳之间的持续时间。 下面是一个使用traceroute访问本地系统的示例(单跳和快速响应): 下一个traceroute命令试图到达远程系统,但无法报告每个跃点(显示星号的跃点),因为某些跃点的路由器不响应所使用的数据包类型。这并不罕见。 traceroute的默认最大跃点数为30。请注意,此设置显示在输出的第一行中。可以使用-m参数(例如traceroute-m 50 distance.org)更改它。 ncat ncat命令是一个多功能的网络实用程序 从命令行跨网络写入数据,但按如下所示的形式,允许您简单地确定是否可以连接到特定服务。它最初是为nmap编写的 (网络映射器)。 通过向远程系统上的特定端口发送零字节(z设置),我们可以确定相关服务是否可用,而无需实际使用连接。 上面的命令告诉我们ssh正在指定的系统上响应,但不尝试登录或运行远程命令。检查同一系统上的网站会发现端口80的情况正好相反(即没有运行web服务器)。 当我们查看亚马逊网站时,我们得到了一个可以预见的不同反应: 正如您可能注意到的,可以使用nc或ncat调用ncat命令。 速度测试 speedtest工具测试您与Internet提供商的连接速度。本指南中的FCC建议12-25mbit/s大约是家庭使用的平均值。 请注意,上传速度比下载速度慢很多并不少见。互联网提供商明白,大多数人下载的数据比上传的要多得多。速度测试 工具将突出显示任何差异。在下面的测试中,下载速度几乎是上传速度的9倍。 命令结果在不同的测试中会有所不同。 您也可以通过浏览器使用speedtest,方法是 speedtest.net(注:下载的免费speedtest副本仅供个人非商业用途。有关详细信息,请参阅EULA(使用协议) 快速的 您还可以安装一个名为fast的工具,它会多次检查您的下载速度,然后报告平均值。它只显示下载速度并使用Netflix速度测试服务。 可以使用以下命令安装fast工具: 网猪 nethogs命令采用了与上述命令完全不同的方法。它按进程对带宽使用情况进行分组,以帮助您确定可能导致网络流量减慢的特定进程。换句话说,它可以帮助你精确定位“网猪”,所以它的名字很贴切。 在显示的输出中,使用大部分带宽的过程非常明显。 总结 有许多工具可用于在Linux系统上测试连接性和连接速度。这篇文章中提到的只是其中的一部分,但是代表了一系列既易于使用又信息丰富�..
正常运行时间研究所(Uptime Institute)的数据显示,电源问题不太可能导致重大IT服务中断,而IT配置和网络问题正变得越来越常见。 正常运行时间研究所(Uptime Institute)的一项新调查发现,对于数据中心运营商来说,电源问题已不再是什么问题,但网络和软件问题正逐渐成为一个越来越大的问题。 正常运行时间研究所(Uptime Institute)的第三份年度停机分析报告指出,虽然技术和可用性有所改进,但停机仍然是行业、客户和监管部门的一个主要问题。 报告还显示,停机的总体影响以及直接和间接成本继续增长。当被问及最近的一次重大停电时,超过一半的受访者表示在过去三年内发生过停电,估计停电成本超过10万美元;在这些答复者中,近三分之一的人报告的费用为100万美元或以上。 进一步了解数据中心技术 数据中心培训需要改变以满足人员需求 人工智能如何创建自动驾驶数据中心 4个基本边缘计算用例 无服务器计算:准备好了吗? COVID-19数据中心运营商最佳实践 这种趋势是很自然的。在过去,数据中心是您的IT基础设施。现在添加云服务提供商和SaaS。如果outlook365发生中断,那么您就发生了中断。如果AWS有一个中断,那么您就有一个中断。 “在提供商业服务时,弹性仍然是管理层最优先考虑的问题,”正常运行时间研究所(Uptime Institute)研究执行主任安迪•劳伦斯(Andy Lawrence)在一份声明中表示总的来说,停电的原因正在改变;软件和IT配置问题正变得越来越普遍,而电源问题现在不太可能导致重大IT服务中断。” 正常运行时间注意到,尽管金融交易、政府服务、互联网和电信受到严重干扰,但在2020年成为头条新闻的停机往往是关于对消费者和家庭工人的影响,包括Microsoft Exchange和Team、Zoom、fitness trackers等应用程序的中断。 正常运行时间2020年调查的一些发现包括: 近一半(44%)的受访数据中心运营商认为,过去12个月来,对数据中心/任务关键型IT恢复能力的担忧有所增加。 严重和严重的停机不太常见(六分之一的人报告在过去三年中发生过一次),但可能会给利益相关者带来灾难性的后果。警惕和投资是必要的。 在使用第三方数据服务的所有组织中,超过一半(56%)的组织在过去三年中经历了由提供商引起的中度或严重的IT服务中断。 网络和配置问题正在成为导致服务质量下降的两个更常见的原因,而停电的问题也变得不那么严重了。电力问题历来是由不间断电源、转换开关和发电机故障引起的。 虽然技术失败的罪魁祸首很多,但人的因素也必须考虑在内。人因失误的严重程度很难衡量。在Uptime的2021年数据中心恢复力调查中,42%的受访者表示,他们在过去三年中经历过人为错误导致的停机。 其中,57%的人认为数据中心员工执行(未能遵守程序)是根本原因,44%的人认为员工流程/程序不正确是根本原因。从研究中可以明显看出,更好地关注管理和培训将产生更好的服务提�..
思科的SiliconOneWebScaler设备家族现在有10个成员 思科继续提高其webscaler级Silicon One设备的速度,本周新增了三款设备,其中包括25.6Tbps交换硅。思科称,与市场上其他硅设备相比,它提供的带宽和每秒数据包分别高出1.7倍和3倍。 思科在2019年推出了Silicon One系列统一交换机和路由器,作为其“面向未来的互联网”战略的一部分。Silicon One系列非常重要,因为思科一直致力于成为大型网站和服务提供商网络基础网络的领先提供商。该家族还可以帮助思科与英特尔、博通、Juniper、阿里斯塔等其他公司进行有效竞争。 目前拥有10名成员的Silicon One系列采用了思科的定制Silicon One芯片技术,包括基于该芯片构建的思科8000系列运营商级路由器,所有这些路由器都运行IOS XR7操作系统,该系统运行机箱并处理安全问题。siliconone光路由Silicon包括对大型无阻塞分布式路由器的支持、具有丰富QoS的深度缓冲和可编程转发。 由于这些设备是可编程的,因此它们可以为一系列应用定制,从单个芯片组到无需为独立处理器、线卡处理器和结构元件部署多个特定的硅芯片组。该公司表示,这是通过一个通用和统一的P4可编程转发代码和SDK实现的。 SiliconOne系列的新成员包括可编程25.6Tbps G100设备、8Tbps路由专用集成电路Q211和8Tbps交换机专用集成电路Q211。思科公共硬件组的思科研究员拉凯什·乔普拉在一篇有关新设备的博客中写道,G100有单独的1.6Tbps接口,由于G100的数据包处理引擎,每个引擎都可以以接口的全速处理单个流。 Chopra说:“通过结合许多可编程功能,如解析、处理、时间戳、计数器、仪表、直方图、水印和流量分析,我们创建了一个完全可编程的流量模式时态视图。”。“这种可编程的基础设施以纳秒级的粒度完成,使客户能够重播过去的事件,以真正了解其网络的动态,从而对设备进行故障排除、优化基础设施并识别恶意攻击。” 设备上的硅还可以支持白盒供应商或Hyperscaler开发自己的网络系统Cisco作为商业硅供应商的少数几次之一。业内观察人士表示,目前还不清楚其他供应商利用了这一功能的影响有多大。 思科表示,思科硅一G100正在测试的客户现在。 思科去年10月推出了另外六款Silicon One设备,包括6.4Tbps Q201L 64x100GE网络交换机和3.2Tbps Q202L 32x100GE网络�..
企业数据中心的专业人士正在接受云服务,发展高速网络,支持远程劳动力,并采用自动化和人工智能。 在COVID-19流感大流行带来技术挑战之前,数据中心网络已经发生了变化,未来企业中很少有哪个领域会继续受到比数据中心更大的影响。 这是因为无数的技术正在推动数据中心的变化,从对高速网络的巨大需求、对远程工作人员的支持、更高的安全性、更严格的管理,以及可能最大的变化——云服务的大量增长。 云是关键 650集团的创始人和技术分析师艾伦·韦克尔说:“这场大流行使许多多年的数字化转型和现代化项目迅速发生。”。“10年前云改变网络的方式类似于COVID现在快速过渡到新技术以支持新的工作负载的影响,人类与这些工作负载的交互方式也不同。在边缘数据中心尤其如此。” 如何处理多云管理 随着在家工作政策的增加,员工不再坐在离数据中心不远的办公室里,Weckel说,“数据必须快速移动,网络带宽和入口/出口需要调整,以支持远程工作者和远程客户。数据中心的网络现在必须支持更多的云应用程序和服务。” 专家说,事实上,企业数据中心客户的游戏名称是云。 VMware NSX Networking高级副总裁兼总经理Umesh Mahajan说:“企业早就知道云模型是实现敏捷性和响应性的标准。“此模型由各个级别的自动化定义,通常通过软件定义的基础设施提供。” 数字化转型 戴尔集团(Dell’Oro Group)高级研究主管萨梅•布杰尔本(Sameh Boujelbene)表示,这种流行病无疑加速了数字化转型,并影响到数据中心。Boujelbene说:“数字化转型将对数据的产生地、分析/处理地以及消费地产生重大影响。”。 Boujelbene说:“重点将从谈论数据中心转向谈论数据中心,许多数据将在边缘创建。因此,根据延迟要求,它可以在边缘进行处理和分析,也可以发送到云端。“同时,移动消费者希望能够随时随地消费服务。换言之,IT基础设施正在向四面八方扩展,几乎没有边界。” Mahajan说,云和自动化将在新的数据中心中扮演重要角色,“这场流行病只会加速客户转向云操作模式的努力。该模型由各个级别的自动化定义,通常通过软件定义的基础设施交付。客户必须能够跨整个网络和安全堆栈实现自动化,以实现云操作模式的全部好处。这意味着交换、路由、负载平衡、安全性。这不仅意味着在数据中心网络内部,而且还意味着通过广域网和互联网无缝地扩展数据中心网络。” IDC数据中心和多云网络集团的研究副总裁Brad Casemore在该研究公司最近举行的“企业网络的未来:新常态的出现”网络研讨会上说,企业数据中心运营商越来越明白,网络必须改变,以支持跨云分布的应用程序 Casemore说:“加快采用云技术以实现业务弹性,有效地分布了数据中心,对网络具有重大影响。”。“多云网络通过在混合/多云环境中提供操作简单性和一致的策略,支持业务弹性。” 关键数据中心资源的位置以及网络如何处理这些工作负载也在发生重大变化。 Gartner去年写道,“传统数据中心的角色将被降级为传统的保留区,专门用于其他地方无法支持的非常特定的服务,或支持那些在本地最经济高效的系统。” Gartner高级研究总监Jonathan Forest说:“我们看到,尽管云网络越来越流行,但数据中心仍有投资。”。“将云的弹性和灵活性引入内部部署,可能会给数据中心带来更多的活力,并摆脱传统的硬件观念。我们仍然相信,未来几年,大多数组织将以混合模式运行,包括内部部署数据中心和云。” 马哈詹说,传统数据中心是否继续发挥作用还有待观察。 Mahajan说:“(客户)将在云中运行工作负载,他们将在prem上运行工作负载。不同的工作负载只需要不同的东西,混合云将是他们前进的道路。这意味着要建立一个基础设施,提供prem上的公共云体验。即使是决定使用公共云的客户,也仍然希望连接回prem上的公共云,或者能够灵活地使用多个公共云而不被锁定。” 持续的数据中心挑战 专家表示,随着这些核心变化,企业数据中心客户面临着许多挑战。 Gartner的Forest提出了IT领导者需要回答的几个问题:那些拥有prem数据中心的企业如何实现更高的自动化并解决技能差距?他们将如何管理混合环境,在这种环境中,应用程序可以部署到任何地方,因此基础设施需要无处不在?当网络团队被期望用更少的资源做更多的事情时,他们如何控制成本? Forest说,通过更容易地启用当前部署的产品中包含的基础设施功能,可以相对快速地解决其中一些问题。这可以增强操作,最大限度地延长正常运行时间,并降低支持成本。其他问题可以通过“随着时间的推移,更多地采用基于订阅的定价模式,而不是有助于价格可预测性、简单性和灵活性的资本支出模式”来解决。另一个趋势是采用基于云的管理来简化管理和编排的交付方式。与WLAN/LAN和SD-WAN相比,这在数据中心网络中的应用较少。” 戴尔Oro的Boujelbene表示,自动化将是必要的,因为随着新数据中心基础设施的规模及其不断变化的需求,手动管理已不可能实现。Boujelbene说:“自动化与提高网络可视性/遥测/实时监控齐头并进:如果你不知道网络中发生了什么,你根本无法实现网络自动化。”。 人工智能也将在这方面发挥作用。Boujelbene说:“需要人工智能来分析网络数据并将其转化为可操作的信息。” 650集团的韦克尔说,人员配备是一个限制因素。他说:“IT业的人无法扩展,未来将依赖更多的自动化和人工智能来提供和控制他们的数据中心网络。”。 远程工作的员工数量激增,对访问数据中心资源提出了新的要求。Extreme Networks首席技术官办公室技术总监蒂姆•哈里森(Tim Harrison)说:“现在企业已经分散化,将每个用户视为一个分支是至关重要的。“每个用户都需要有一个企业级的分支机构的经验,而在他们的家庭办公室,希望很快,在咖啡店或公园。用户体验将变得更加重要,企业数据中心将需要启用这种体验。那些未能适应新常态的人,在落后于曲线时,会更加挣扎。” 合并零信任 哈里森说,这也是重新关注了解数据、数据驻留位置、数据访问方式以及访问者的重要时刻。 “随着我们在与技术的交互中变得高度个性化,当用户从任何地方访问和参与时,确保我们的交互更加重要。“零信任策略不是一种你可以从供应商那里购买的特定技术或解决方案,而是一种了解你的数据、用户及其关系的方法,”哈里森说。 随着数据中心部署在边缘或以其他方式分布,它们内部的安全性变得更加重要。VMware的Mahajan说,数据中心内部的事情变得太复杂了,复杂性是安全的大敌,除非你是黑客。 Mahajan说:“因此,我们看到的数据中心趋势之一是推动安全成为网络的一部分,推动更多的分析、可见性和自我修复。”。“实施东/西保护并将安全提升到应用程序连接层将是数据中心下一个重大创新领域之一。” Mahajan说,现代应用程序的性质以及支持和保护动态和分布式劳动力的特点要求私有数据中心的发展更像公共云 Mahajan说:“客户只能通过提供全套网络和安全服务的软件来实现这一点。”。“使用这种方法,客户可以实现诸如部署20TB横向扩展防火墙和在私有数据中心支持一百万个SSL事务等功能。” “客户硬件时代已经屈指可数。Mahajan说:“数据中心的未来是一个简单的以太网结构,提供服务器连接,其他一切都在一个基于软件的L2-7堆栈中,运行在通用服务器上,甚至可以利用SmartNICs。我们看到,SmartNICs对减轻网络和安全服务负担的兴趣是不可能的。” 2020年的影响 虽然大的变化肯定正在进行中,但2020年流感大流行的影响确实延缓了一些实施。Boujelbene说,例如,大型企业的网络支出在今年上半年暂停,原因是流感大流行带来的不确定性和缺乏商业信心,这有利于追求运营支出模式(公共云)与资本支出模式(prem)。 Boujelbene说:“尽管这场流行病加速了公共云的采用,但对于这些规模庞大的企业来说,建立和管理自己的私有数据中心仍然比使用公共云更经济。”。 对于小型企业来说,私人数据中心甚至在流感大流行之前就已经在稳步下降。这是因为对于这样规模的企业来说,在公共云中租赁容量比构建自己的数据中心要便宜得多。布杰尔本说,大流行进一步加速了这一趋势。 此外,650集团的数据显示,2020年数据中心网络核心技术以太网交换机的销售额同比下降近2%,至320亿美元 韦克尔说,COVID-19限制、工厂关闭、经济快速收缩和扩张是去年业绩的关键主题,但这种情况正在改变。“半导体短缺、数据中心产品交付周期的增加以及员工重返办公室的时机将决定2021年的反弹。” 形成反弹的另一个因素是,这里概述的许多趋势将推动采用更高的网络速度 Boujelbene说:“我们预计,今年服务器接入的客户将从10 Gbps增长到25 Gbps,光纤网的客户将从40 ..
NetApp正在结束其hyperconvergence硬件的生产,并计划专注于软件定义的基础设施。 NetApp是hyperconverged infrastructure(HCI)硬件业务的众多参与者之一,计划结束NetApp HCI硬件的生产,转而专注于Astra Kubernetes平台项目。 人机交互分为两类,软件和硬件。在软件方面,Nutanix和VMware的市场份额大致持平。在硬件方面,IDC和Gartner都将HCI的领导者列为HP Enterprise、Dell Technology、Cisco Systems和“市场的其余部分”。你可以猜到NetApp属于哪一类。 阅读更多: Hyperconvergence作为一种服务,提供无需动手的数据中心管理 做出正确的超聚合选择:HCI硬件还是软件? 为您的数据中心考虑超聚合基础设施的8个理由 超聚合:不再只是针对特定的工作负载 NetApp HCI于2019年首次推出,是该公司第一个也是唯一一个提供计算功能的硬件设备。NetApp主要专注于软件解决方案。 NetApp负责公共云服务产品管理的副总裁Eric Han表示,NetApp打算为企业客户构建一个开放、可扩展的HCI平台,以便在私有、公共、混合和多云环境中以有保证的性能运行多个应用程序。 “我们帮助他们开发虚拟机工作负载,以及他们的下一代应用程序。我们已经看到客户需求和HCI市场转向软件定义的基础设施,客户不再需要集成的HCI设备,因为它始终是一个旨在帮助组织将其应用程序转移到(混合多云)的解决方案,”Han说。 由于能够使用容器和Kubernetes移动应用程序,实现混合云的关键要素是应用程序数据管理,NetApp现在与NetApp Astra一起提供应用程序数据管理,这是NetApp今后的重点 Astra项目于近一年前推出,是一项旨在将企业级存储服务引入Kubernetes容器平台的计划,作为在本地和多云环境之间移动应用程序和数据时进行管理的一种方式。 Han说,NetApp正在帮助客户规划硬件的最终可用性,软件增强和支持将持续到2025年3月。对NetApp HCI平台的支持将持续到2027年3月 “拥有现有部署的客户可以继续将其HCI扩展为一个具有NetApp完全支持的解决方案。现有NetApp HCI部署中的存储群集可以继续通过NetApp SolidFire存储节点进行扩展。“不需要存储转换,”韩说 至于转向Kubernetes,韩寒说,组织采用Kubernetes作为一个关键的技术基础,使他们能够提供现代,云本地应用的速度,灵活性和灵活性。 他说:“通过简化和标准化容器和服务的管理,Kubernetes帮助开发人员构建并快速发布可在任何基础设施上运行的便携应用程序,从edge、数据中�..
扩大合作旨在使企业更容易运行GPU加速的人工智能应用程序。 VMware和Nvidia已扩大了联盟,以支持基于VMware新vSphere 7 Update 2的Nvidia GPU应用程序。vSphere 7的升级版本将支持新的Nvidia AI Enterprise产品,这是一套企业级AI工具和框架,使GPU加速的应用程序能够在VMware虚拟机和容器中运行。 VMware的vSphere 7 U2增加了对Nvidia的A100 Tensor Core GPU及其多实例GPU功能的支持,该功能允许将A100上的核心分区以供多个用户使用,这与VMware将CPU核心分区给多个用户的方式非常相似。 导读:昂扬的英伟达将触角扩大到企业数据中心 这意味着AI工作负载现在可以在VMware的虚拟化平台上运行。到目前为止,人工智能工作负载只在裸机服务器上运行。如果不是性能密集型的话,人工智能什么都不是,裸机环境提供了硬件的全部功能,而不是在虚拟的多租户场景中共享它。 Nvidia在一篇博客文章中宣称,AI Enterprise可以让虚拟工作负载在vSphere上以近乎裸机的性能运行。人工智能工作负载将能够跨多个节点扩展,甚至允许最大的深度学习培训模型在VMware Cloud Foundation上运行。 利用此功能,开发人员可以在vSphere平台上为CUDA应用程序、AI框架、模型和SDK构建扩展的多节点性能。人工智能企业平台设计用于部署在经Nvidia认证的系统上,这些系统由Dell Technologies、Hewlett-Packard Enterprise(HPE)、Supermicro、Gigabyte和Inspur提供。 除了A100支持之外,vSphere 7 U2还增加了使用vSphere Lifecycle Manager查看与Tanzu(VMware的Kubernetes发行版)一起运行的vSphere映像和管理vSphere实例的功能。vSphere 7 U2具有集成的应用程序负载平衡以及对专用和第三方容器注册的更好支持。 vSAN 7 U2增强功能 除了vSphere升级之外,VMware还宣布了VMware vSAN 7 Update 2的可用性,其中包含一些新的和增强的功能。首先是它的超聚合基础设施(HCI)软件hcimesh的新版本;新版本建立在vsan7 update1中最初发布的基于软件的计算和存储资源分解方法的基础上。 新版本提供了更广泛的客户用例集,特别是对于希望在现有vSAN环境之外提高资源效率的客户。它使计算集群或非HCI集群能够远程使用数据中心内vSAN集群的存储,从而允许客户独立地扩展计算和存储。 vsan7更新2还引入了新的功能来更好地支持各种物理拓扑。这包括对扩展群集配置的集成DRS感知,以在故障回复中获得更一致的性能,以及对扩展群集和2节点群集的vSAN文件服务支持。 此外,VMware还继续提供可提高vSAN性能的功能,包括vSAN over Remote Direct Memory Access(RDMA)和RAID 5/6擦除编码的增强功能,这些功能可提高某些工作负载的CPU利用率和应用程序性能。 最后,vSAN 7 Update 2包括对加密模块的FIPS 140-2验证,以满足严格的政�..
边缘管理的SD-WAN设备可能是网络运营商为企业提供个性化服务的方式。 如果你停下来想一想,我们对网络服务的很多期望其实都与我们自己的个性有关。我们希望我们的服务能够发挥作用,嗯,我们的工作方式。我们希望他们了解我们,适应我们的需求,对吗?你认为有几十万个元素的巨型全球互联网络能做到这一点吗?不,这意味着个性化服务将成为我们真正拥有的唯一一块低微的网络边缘。 几十年前我们就认识到,你不能让庞大的网络拥有用户意识或服务意识,这种意识在网络语言中被称为“有状态”,意味着把虚拟的你的一小部分贴到网络中来代表你的利益。也许这些部分是路由表中的一个条目,或者它们是存储在某个存储库中的策略,并发送到处理您的流量的设备,但是如果它们所做的是个性化的,那么它们是个性化的。这只是不能扩展。不仅有太多的小部分,网络流量可能会被重新配置,或者一个设备可能会出现故障,而一下子你的个性化部分甚至不知道你的流量会流向哪里。 输入边缘设备。很容易忽略终止服务的框,或者在上面放一杯咖啡,或者把它放在杂乱的地方。给它一些尊重。网络中的边缘设备的好处是它是专门为你服务的。如果在这个巨大的全球互联网络中,有任何地方可能知道你的任何事,那就是它的小终端盒,这种个性化的潜力使它确实非常有价值。 你可能会认为,既然我们已经有了服务终止的历史,人们就会发现边缘在个性化服务中很重要,但不知怎么的,这似乎被忽略了。有两件事改变了这一点:第一,软件定义的广域网(SD-WAN),第二,分析界最新的伟大而神秘的发明,安全访问服务边缘(SASE)。 SD-WAN在边缘实现个性化服务 SD-WAN的受欢迎程度正在爆炸式增长;我自己的研究表明,如今SD-WAN上的站点数量几乎是一年前的三倍。提供SD-WAN的供应商可能有50家,通信和托管服务提供商也有几十家,在这种竞争下,竞争驱动着所有人也就不足为奇了为it发明新功能。如今,支持小型网站甚至云中的应用程序是一个赌注。在家办公、服务遥测、应用程序优先级,甚至零信任安全都在增加。 这个功能增强过程对于SD-WAN供应商/提供商来说相对容易,而对于网络服务提供商和互联网来说则比较困难的原因是上面提到的边缘个性化。如果你有一个SD-WAN,你就有一个通向用户所在的虚拟网络的入口匝道,即边缘。这个入口匝道可以做任何事情实用的个性化服务关系,使您的服务看起来像是为您设计的,因为它是您的,实际上说来。 我们无法将我们庞大的网络个人化以反映我们的应用程序优先级,但也许我们不必这样做。在用户连接点,容量是最有限和最昂贵的。SD-WAN可以在边缘(拥塞的临界点)强制应用程序流量优先级。这可能是朝着QoS迈出的最大一步,但是SD-WAN也可以按优先级标记流量或沿不同的路由发送流量。所需要的只是一种确定优先级的标准方法,SD-WAN和网络都支持这种方法,我们将拥有端到端QoS。 还不止这些。任何虚拟网络都提供一定程度的内在安全性,一些SD WAN提供会话感知的零信任安全性。通过一些内在的访问点优先级和QoS分类添加内在安全性,您就会创建一些没有SD-WAN很难匹配的内容,这可能意味着SD-WAN可能会取代SASE概念这可能就是AT&T刚刚宣布将Fortinet堆栈用于“托管SASE”的原因;Fortinet包括SD-WAN SD-WAN:通向哑网络的智能网关 SD-WAN现在是边缘的锚定概念,是新服务功能的网关。这种边缘思维的转变,如果像现在看来的那样真实,可能会非常深刻。这并不是说网络无关紧要,而是说他们所能做的只是传递在边缘创造的体验。最好的网络是隐形的,而且不花钱的吗?这里面有比表面看起来更多的真相。 将服务的功能转移到本地设备上,使这些功能成为许多供应商可以销售的东西。它可以促进托管服务,既要利用智能边缘设备的优势来管理SLA,又要为运营商提供销售利润率更高的产品的机会。这将使服务市场更具竞争力。它可以使真正的通用网络互联网成为唯一的网络,把“网络”技术集中在管理成本上。智能边缘使一个愚蠢的网络成为可能。 SD-WAN即服务 网络运营商将不得不对这一以边缘为中心的新愿景作出回应,而托管服务似乎是他们唯一能真正做到的事情。如果服务变得更加个性化,那么每个网络用户几乎都是一个私有网络,而支持这一点的公司可能无法处理。SD-WAN的嵌入式管理这些工具可以为运营商提供一种获得规模经济管理的方法,让他们以用户愿意支付的价格提供托管服务,当然,仍然可以为运营商赚取可观的新利润。 如果你认为企业不会接受托管服务,那就看看云吧,我们已经看到云计算服务正在向托管服务转移,因为这正是用户想要的。把一个出色的低接触管理云服务放在高接触网络服务之上是没有帮助的,甚至据说云提供商也在制定自己的SD-WAN和管理服务战略。 edge不仅仅是你的朋友,它可能是你最好的朋友。下次你看到edge设备时,擦掉一点咖啡渍,整理一下它的工作场所。它是你通向未来网络服务�..