让 HPC 中的 3D V-Cache 时代开始。
研究人员受到AMD “Milan-X” Epyc 7003 处理器及其 3D V-Cache堆叠 L3 高速缓存的想法的启发,然后通过实际基准测试将常规 Milan CPU 与使用真实和合成 HPC 应用程序的 Milan-X 处理器进行对比。在日本的 RIKEN 实验室,基于富士通令人印象深刻的 A64FX 矢量化 Arm 服务器芯片的“Fugaku”超级计算机已经启动了对假设的 A64FX 后续产品的模拟,理论上,该产品可以在 2028 年建造,并提供近一个订单性能比当前的 A64FX 高出很多。
早在 2021 年 6 月, AMD 就让全世界知道它正在为台式机和服务器处理器开发 3D V-Cache ,并展示了一款定制的 Ryzen 5900X 芯片,其芯片顶部具有堆叠的 L3 缓存,仅用一个堆栈就将其容量增加了三倍。(堆叠式 L3 的密度是其两倍,因为它没有芯片上“真正的”L3 缓存所具有的任何控制电路;堆叠式缓存实际上是搭载在芯片上缓存管道和控制器上的。)去年秋天,在 SC21 超级计算大会之前,AMD 公布了 Epyc 7003 CPU 阵容中 Milan-X SKU 的部分特性,而 Milan-X 芯片于今年 3 月亮相
我们认为 3D V-Cache 最终将用于所有处理器,一旦制造技术完善且足够便宜,正是因为这将释放裸片区域以专用于更多计算内核。(我们在接受AMD 高级副总裁兼服务器业务总经理Dan McNamara 采访时讨论了这一点。
RIKEN 的研究人员与东京工业大学和日本国立先进工业科学技术研究所、瑞典皇家理工学院和查尔姆斯理工大学以及印度理工学院的同事合作,得到了他们的手配备 AMD Epyc 7773X (Milan-X) 和 Epyc 7763 (Milan) 处理器的服务器,并运行 MiniFE 有限元代理应用程序——美国 Exascale Computing Project 用于测试 exascale HPC 机器规模的重要代码之一– 在两台机器上显示额外的 L3 缓存有助于将性能提高 3.4 倍。看一看:
在 HPC 世界中,3.4X 没什么可动摇的。这让 RIKEN 团队开始思考:如果将 3D V-Cache 添加到 A64FX 处理器会发生什么?更具体地说,这让他们开始思考如何将 3D V-Cache 与假设的 A64FX 踢球器结合起来,根据使用 Sparc64 的“K”超级计算机之间的节奏,预计这将在大约六年左右的时间里完成—— 2011 年的VIIIfx 处理器和基于 A64FX 的 Fugaku 超级计算机从 2020 年开始。因此,他们启动了 Gem5 芯片模拟器,并模拟了具有大型 L2 缓存的未来 A64FX kicker(A64FX 没有共享 L3 缓存,但确实有大型共享 L2 缓存),它正在替代 LARC对于大型缓存,可能看起来像以及它在 RIKEN 代码和流行的 HPC 基准上的表现。
这就是创建数字双胞胎的力量,恰如其分地说明。如果你阅读 RIKEN 及其合作者发表的论文,你会发现这项任务并不像 Nvidia 和 Meta Platforms 广告中看起来那么顺利,但它可以做得很好,以获得一阶近似值强制资助未来的研究和开发。
我们对深谷系统中的技术进行了多次深入研究,但最重要的是 2018 年的这一块。这张 A64FX 处理器的照片是开始讨论假设的 A64FX kicker CPU 的好地方:
A64FX 有四个核心内存组,即 CMG,它们具有由富士通 13 核创建的定制 Arm 核心、一大块共享 L2 缓存和一个 HBM2 内存接口。每个组中的一个核心用于管理 I/O。剩下 48 个内核可供用户寻址并进行计算;每个内核都有一个 64 KB 的 L1 数据缓存和一个 64 KB 的 L1 指令缓存,而 CMG 有一个 8 MB 的分段 L2 缓存,每个内核有 32 MB 切片。该设计没有 L3 缓存,这是故意的,因为 L3 缓存经常引起比其价值更多的争用,富士通一直相信在其 Sparc64 CPU 设计中尽可能大的 L2 缓存,而 A64FX 将这一理念发扬光大。L2 缓存在每个 CMG 中的内核中具有 900 GB/秒的带宽,因此 A64FX 处理器的总 L2 缓存带宽为 3.6 TB/秒。
信不信由你,RIKEN 没有 A64FX 处理器的平面图,不得不从 die shot 和其他规格估计它,但它是作为Gem5 模拟器的起点,它是开源的,被很多人使用的科技公司。(如果没有富士通的批准和审查,这个估计是不可能完成的,尽管是非官方的,因此我们认为用于 A64FX 的平面图是绝对准确的。)
一旦有了 A64FX 平面图,RIKEN 团队就假设 1.5 纳米工艺将在 2028 年用于出货处理器。这种显着的缩小使得 LARC 假设芯片中的 CMG 的大小只有所用芯片的四分之一在 A64FX 中,这意味着 LARC 处理器可以有 16 个 CMG。假设 L2 高速缓存可以以类似的速度和规模缩小,LARC 芯片的想法是让八个 L2 高速缓存管芯通过芯片接口 (TCI) 将它们粘合在一起,类似于硅通孔 (TSV) ) 用于 HBM 内存堆栈。RIKEN 认为这种堆叠内存可以在 1 GHz 左右运行,基于对堆叠 SRAM 的模拟和其他研究,从下面的比较 CMG 图可以看出,
这是一个重要的区别,因为 AMD 的 3D V-Cache 仅将 L3 缓存堆叠在 L3 缓存之上,而不是计算芯片。但我们在这里谈论的是 2028 年,我们必须弄清楚人们会弄清楚在 CPU 内核上安装 L2 缓存的散热问题的材料。以 1 GHz 运行,LARC 的 CMG 中 L2 缓存的带宽将为 1,536 GB/秒,比 A64FX 快 1.7 倍,缓存容量为每个 CMG 384 MB 或 6 GB插座。此外,RIKEN 估计 CMG 将有 32 个内核,是 2.7 倍的倍数。
为了隔离堆叠 L2 缓存对 LARC 设计的影响,RIKEN 将 HBM2 内存保持在 HBM2 级别,并没有模拟 HBM4 的外观,并将 HBM 内存容量保持在 256 GB。我们想知道具有如此高 L2 缓存带宽的 CMG 是否可能不受 HBM2 带宽的限制,而 512 核 LARC 插槽的整体性能可能会受到相对较低的 HBM2 带宽和低容量(仅 8 GB)的抑制每个 CMG)。但是坚持使用 HBM2,每个 CMG 一个控制器,在 LARC 上有 16 个 CMG,即每个 LARC 插槽只有 128 GB 的 HBM2 内存和 4 TB/秒的带宽。假设核心和非核心区域的时钟速度没有太大变化,我们猜想,为了让真正的 LARC 设计保持平衡,可能会提高 4 倍。
为了隔离内核差异的影响,RIKEN 研究人员设计了一个 32 核 CMG,但每个 CMG 的缓存大小为 8 MB,带宽为 800 GB/秒。只是为了好玩,他们创建了一个 LARC 设计,具有 256 MB 的 L2 缓存和相同的 800 GB/秒带宽(大概只有四个 L2 堆栈)以隔离容量对 HPC 性能的影响,然后在 512 MB 上完成以 1.5 GB/秒的速度运行的 L2 缓存。顺便说一句,LARC 内核中的内核与 A64FX 中使用的自定义 2.2 GHz 内核相同——这里也没有变化。而且你很清楚,到 2028 年,富士通、Arm 和 RIKEN 将拥有更好的内核,但可能没有更好的 512 位向量。(我们将看到。)
以下是假设的 LARC 和实际的 A64FX 芯片在 STREAM Triad 内存带宽基准测试中相互测量的方式:
该测试显示带宽随着 OpenMP 线程数量的增加而增加,下面的测试显示了 STREAM 性能如何随着向量输入数据的大小从 2 KB 变为 1 GB 而变化。
LARC 行的峰值是因为 CMG 中的内核数量是 2.7 倍,而 L1 缓存的数量也是 2.7 倍,因此较小的向量都适合 L1 缓存;然后较大的向量现在可以长时间放入 L2 缓存中。因此,模拟的 LARC 芯片只会启动它,直到所有这些缓存用完为止。
在所有模拟之后,这是重要的事情。在一系列广泛的 HPC 基准测试中,包括在 RIKEN 和其他超级计算机中心运行的实际应用程序以及我们都知道的大量 HPC 基准测试,LARC CMG 平均能够提供大约 2 倍的性能,并且高达 4.5 X 用于某些工作负载。再加上四倍的 CMG,你看到的 CPU 插槽的性能可能会提高 4.9 到 18.6 倍。对于那些对 L2 缓存敏感的应用程序,A64FX 和 LARC 之间的性能改进几何平均值为 9.8 倍。顺便一提:
Gem5 模拟在 CMG 级别运行,因为 Gem5 模拟器无法处理具有 16 个 CMG 的完整 LARC 套接字,并且 RIKEN 不得不对这种规模将如何在套接字中发挥作用做出一些假设。
行业基准很重要,因为无论这种比较是可恶的,IT 组织仍然必须让它们来规划他们未来系统的架构。
由谷歌、百度、哈佛大学、斯坦福大学和加州大学伯克利分校创建的 MLPerf 人工智能基准套件有很多希望,尤其是当谷歌、英特尔和英伟达在 2018 年发布第一个基准测试结果后不久管理 MLPerf 测试的 ML Commons成立。
这个想法是为了让决策者拥有大量数据来决定使用哪些设备进行机器学习、训练和推理,以及从移动设备到边缘机器再到数据中心系统的一切。
但它并没有像标准性能评估公司(SPEC) 的 CPU 级测试、事务处理委员会(TPC)的应用级基准,甚至是 ERP 软件巨头运行的特定测试那样成为无处不在的基准测试SAP 在各种各样的铁上,MLPerf 测试并没有以同样的方式起飞。这通常只是一个检查谁出现了谁没有出现的游戏。许多芯片制造商及其系统合作伙伴并不总是出现,即使出现,他们也不会定期出现,这从 MLPerf 四年前首次推出结果以来就一直困扰着它。
于是这周再次发布了机器学习推理的 MLPerf Inference 2.0 结果,标志着推理结果的第五次发布。(MLCommons 每季度都会发布结果,第一季度和第三季度进行推理,第二季度和第四季度进行培训。)根据 MLCommons 的说法,反应非常强烈,创下了 3,900 多项性能结果的新记录(是前一轮)和 2,200 次功率测量(是之前的六倍),表明人们越来越关注效率。
由于更多的系统制造商参与其中,总体参与度也有所上升。也就是说,英伟达(将人工智能作为平台提供商的发展雄心放在首位和中心)和高通(提交了某些测试的结果)是唯一提交结果的芯片制造商,这一点是首席分析师 Karl Freund Cambrian-AI Research在福布斯专栏中写道,并在 Nvidia 与记者和分析师的演示中询问了该公司的业绩。
在人工智能和机器学习正在成为现代工作负载的驱动力以及制造加速器或人工智能优化处理器的硅供应商数量不断增长之际,亚马逊网络服务、英特尔、谷歌、Graphcore、SambaNova和Cerebras Nvidia 产品营销经理。
Salvatore 强调了行业基准作为一种工具的重要性,它可以为用户提供编号,以便在从性能和能效到成本的各个方面比较竞争产品。然而,事情发生了变化。
“我们在过去几年中看到的一个问题——实际上是自大约十年前开始的深度学习革命开始以来——是结果往往以一种狂野的西部方式发布,”他说过。“它们没有可比性。换句话说,一家公司会声称,“我们提供了如此出色的 ResNet-50 分数”,然后这里的另一家公司会说他们有 ResNet-50 分数,但要么他们没有透露具体如何他们得到了这个数字,或者,如果您阅读脚注,您很快就会意识到每家公司的做法都不同,以至于您可能无法真正比较结果。”
Salvatore 认为,MLPerf 为比较平台提供了一个通用的衡量标准。
“人工智能与我们之前拥有行业标准基准的工作负载没有什么不同,”他说。“您需要这些类型的基准来采用通用的测量方式,以便可以直接比较结果,以便客户可以做出数据驱动的购买决策。最终,行业标准基准所扮演的角色是创建通用标准。”
更多的是进入这个行业。老牌基准测试组织 SPEC 上个月成立了 SPEC ML 委员会,为 AI 和机器学习推理和训练制定基准测试标准。
目前尚不清楚新的基准是否会吸引更多的芯片制造商参与,但有一些方法可以改进现在正在做的事情。与启动基础设施和运行工作负载以达到基准相关的成本可能令人望而生畏,尤其是在一年这样做四次的情况下。并不是每个供应商的产品发布都在同一个时间表上。英伟达的芯片可能已经准备好进行基准测试,而此时英特尔仍在等待其部分芯片上市。
英伟达的大量存在也是一个因素。到目前为止,该公司提交的结果比其他任何人都多。即使这一次,当英特尔和 AWS 没有参与时,英伟达也为他们提交了结果,让其他公司可以利用它的数量。
MLPerf——即使是最新的 MLPerf Inference 2.0——也有功耗数据,并且没有附加到基准产品的价格,有效地消除了大多数企业一直拥有的每瓦性能价格比计算的三个部分中的两个预算有限,在考虑购买什么时使用。
很高兴知道在运行推理工作负载时一个芯片比另一个芯片快多少,但如果无法查看芯片将使用多少功率或它们将占用多少有限预算,那么对于一个组织做出明智的决定。
就结果而言,英伟达在数据中心和边缘表现出了强大的性能。该供应商将其 A100 GPU与英特尔的Xeon “Cooper Lake” 8380H 和“Ice Lake” 8380 服务器 CPU(由 Nvidia 提交)以及高通的 AI 100 机器学习芯片运行,在一系列模型中显示出显着优势,包括用于图像的 ResNet-50分类工作负载,用于自然语言处理的 BERT-Large 和用于医学成像的 3D U-Net。
无论是与 x86 芯片、Arm 处理器还是 Microsoft Azure 云实例一起使用,GPU 的性能基本相同。
Nvidia 的 Salvatore 指出,作为其多实例 GPU (MIG) 技术的一部分,供应商可以将单个 A100 GPU 划分为七个实例,并在每个实例中单独运行来自基准测试的工作负载,该芯片可以同时运行所有 MLPerf 测试,对性能的影响约为 2%。他说,这反驳了 A100 只适用于大型网络的论点。
“您还可以使用 MIG 将该 GPU 划分为多个实例,并在每个实例中托管单独的网络,”他说。“这些实例中的每一个都有自己的计算资源、自己的缓存数量和自己的 GPU 内存区域来完成工作。您可以点亮整个部分以达到最佳利用率水平,并能够在单个 GPU 上托管多个网络。对于希望在单个 GPU 上运行多个网络的客户来说,这里有一个很好的效率机会。”
Nvidia 还针对高通公司的芯片测试了 A100 的每瓦性能,再次显示出强劲的效率结果。
该公司测试了其即将推出的 Jetson AGX Orin 芯片,用于机器人和自动驾驶汽车等工作,其速度是其前身 Xavier 一代的 5 倍,并提供 2.3 倍的功率效率。
除了缺乏对来自各种供应商的每一代架构的测试之外,MLPerf 测试还缺少两个重要的组成部分——功耗和价格。阅读The Next Platform 的每个人都知道,HPC 中心对峰值性能非常感兴趣,但他们必须注意功耗和冷却,并且还知道超大规模生产者受到每瓦价格/性能的推动。等式的所有三个部分都必须存在。MLPerf 测试只说明了该等式的一部分。TPM 威胁要拆散 MLPerf,并将这些价格和功率数据添加到 MLPerf 结果中,并使用一些电子表格巫术作为诱使 ML Commons 从一开始就实际需要这些数据的手段。
微软宣布将于 2022 年 7 月发布 Windows Autopatch,这是一项旨在自动使 Windows 和 Office 软件保持最新状态的服务。
Windows Autopatch 是一项新的托管服务,免费提供给所有已拥有 Windows 10/11 Enterprise E3 或更高版本许可证的 Microsoft 客户。
“这项服务将使注册端点上的 Windows 和 Office 软件自动保持最新,无需额外费用。每个月的第二个星期二将是‘又一个星期二’,”高级产品营销经理 Lior Bela 承诺说微软
“Windows Autopatch 管理 Windows 10 和 Windows 11 质量和功能更新、驱动程序、固件和用于企业更新的 Microsoft 365 应用程序的部署组的所有方面。”
它将更新编排从组织转移到 Microsoft,规划更新过程(包括推出和排序)的负担不再由组织的 IT 团队承担。
Windows Autopatch 适用于所有受支持的 Windows 10 和 Windows 11 版本以及适用于企业的 Windows 365。
自动补丁如何工作?
Windows Autopatch 服务自动将组织的设备群分成四组设备,称为测试环。
“测试环”将包含最少数量的设备,“第一环”大约需要保持最新的所有端点的 1%,“快速环”大约 9%,“广泛环” 90% 的设备。
“这些环的数量是自动管理的,因此当设备来来去去时,环会保持其代表性样本。但是,由于每个组织都是独一无二的,企业 IT 管理员保留将特定设备从一个环移动到另一个环的能力, “贝拉补充道。
设置测试环后,将逐步部署更新,从测试环开始,并在验证期之后移动到更大的设备集,通过该验证期监控设备性能并与更新前的指标进行比较。
Windows Autopatch 部署环 (Microsoft)
Autopatch 还带有暂停和回滚功能,可以自动阻止更新应用到更高的测试环或自动回滚。
“每当任何 Autopatch 更新出现问题时,补救措施都会被整合并应用于未来的部署,从而提供 IT 管理团队无法轻易复制的主动服务水平。随着 Autopatch 提供更多更新,它只会变得更好,”Bela 发誓。
Microsoft 在 Windows Autopatch 常见问题解答中提供了更多详细信息,包括有关服务资格、先决条件和功能的信息。
AMD 发布了适用于 Windows 10 和 Windows 11 操作系统的全新 Software Adrenalin Edition 22.4.1 图形驱动程序包,新版本增加了对 Unreal Engine 5.0 游戏引擎的支持,以及其中包含的 CitySample 免费演示场景。此外,该公司还修复了过去版本驱动程序中的几个错误。
已修复问题列表:
已知的问题:
您可以从 AMD官方网站下载 AMD Software Adrenalin Edition 22.4.1 显卡驱动程序包。
开发 Ubuntu Linux 发行版的 Canonical 宣布终止合作并向俄罗斯的公司和组织提供有偿支持服务。通过这一决定,该公司支持西方国家对俄罗斯的制裁,这些制裁是由于乌克兰最近发生的事件而引入的。相应的通知发布在Canonical官网。
同时,该公司不打算限制俄罗斯 Ubuntu 用户对存储库和安全补丁的访问。Canonical 将从俄罗斯付费用户那里获得的剩余服务收入将用于向乌克兰人民提供人道主义援助。
“我们不会限制俄罗斯 Ubuntu 用户对安全补丁的访问,因为我们认为 Ubuntu、VPN 和 Tor 等免费平台对于寻求在审查环境中访问信息和通信的人来说非常重要,”Canonical 在一份声明中说。 .
俄罗斯与乌克兰冲突升级后,大量外国公司宣布暂停在该国的活动。在主要的软件开发商中,微软、甲骨文、SAP、VMware等都以某种方式加入了西方制裁。
微软举行了一次虚拟活动,宣布计划进一步将 Windows 11 操作系统与 Windows 365 云服务集成,从而允许客户使用虚拟桌面。这家软件巨头打算继续合并其本地和云平台,以便用户在工作时可以在 Windows 11 和 Windows 365 之间无缝切换。
微软于去年 7 月推出了 Windows 365,它为客户提供带有全套软件解决方案的虚拟桌面。因此,服务客户无需升级现有硬件解决方案即可使用 Windows 11 和其他现代软件产品。
展望未来,本地和云平台将继续融合以提供最佳的混合体验。据报道,开发人员打算实现从 Windows 11 界面连接到 Windows 365 虚拟工作场所的能力,并且一些元素,例如任务栏,将在本地和云工作场所中通用。
微软计划允许用户立即启动进入 Windows 365,无需在本地 Windows 11 中事先授权。此外,如果在 Windows 365 中工作时互联网连接丢失,用户将能够继续与已经启动的系统进行交互本地计算机(当您连接到互联网时,所做的更改将自动同步)。这些创新究竟何时会付诸实践并可供普通用户使用,目前还不得而知。
Noctua 推出了 NH-D12L CPU 冷却器和 NF-A12x25r 120mm 薄型风扇,它们都用作新冷却系统的一部分,并将单独出售。新冷却器的高度为 145 毫米,比该制造商的配备 120 毫米风扇的传统冷却器低 13 毫米。NH-D12L 使用五个热管。
制造商指出,NH-D12L 适用于大多数计算机机箱,包括紧凑型塔式机箱以及 SFF 和 Mini-ITX 外形尺寸的型号,这些机箱通常使用 CO 和 92 毫米风扇。此外,这种新颖性将能够安装在 4U 高的服务器机箱中。话虽如此,NH-D12L 是一款效率更高的 92 毫米型号。更重要的是,它的性能超越了120mm NH-U12S,与旗舰120mm NH-U12A相匹敌。NH-D12L 尺寸为 145 x 125 x 113 毫米,重 890 克。
由于其非对称设计,NH-D12L 不会与主板上的任何 RAM 插槽重叠,处理器插槽 LGA1700、LGA1200 和 LGA115x 以及兼容的 AMD Socket AM4。这允许任何高度的 RAM 模块与 NH-D12L 一起使用,包括那些具有非常大的 RGB 散热器的模块。
新的 NF-A12x25r 风扇是 Noctua NF-A12x25 的更新型号,于 2018 年推出,理所当然地被认为是市场上最高效的 120 × 25 毫米解决方案之一。更新后的风扇型号采用圆形机身,提供相同水平的效率和安静的运行。它提供的最大气流为 102.1 m3 / h。噪音水平不超过 22.6 分贝。制造商声称新风扇的运行时间为 150,000 小时。
NH-D12L 冷却器带有额外的紧固件,允许您在其上安装第二个相同的 NF-A12x25r 风扇。但是,在这种情况下,您将不得不牺牲一个 RAM 插槽或冷却器本身的高度,这将超过 145 毫米,因为在第一个插槽中安装模块时,必须将风扇抬高高一点。
NH-D12L 冷却器配备了 NT-H1 专有导热膏和更新的 SecuFirm2 安装机制,为 Intel LGA 1700 处理器插槽以及未来的 AMD Socket AM5 平台提供支持。
微软在今天的“ Windows Powers the Future of Hybrid Work ”活动中推出了新的 Windows 11 功能,包括重新设计的文件资源管理器、新的辅助功能、Windows 11 焦点等。
随着公司发展为在办公室和远程工作的混合员工队伍,新技术挑战随之而来。
在今天的活动中,微软通过允许 Windows 设备更无缝地与云集成来揭示这些挑战的解决方案,让用户无论在家还是在办公室都可以访问他们的设置、数据和应用程序。
为了帮助 Windows 用户提高工作效率,微软公布了 Windows 11 的新功能和增强功能,包括改进的文件资源管理器、开始菜单中的应用程序文件夹、新的焦点功能和新的实时字幕辅助功能。
虽然微软没有透露这些新功能何时可用,但它们可能会包含在今年晚些时候推出的 Windows 11 22H2 功能更新中。
Windows 11 重新设计的文件资源管理器
微软今天宣布,他们将为 Windows 11 带来重新设计的文件资源管理器,在共享文件时支持选项卡、新主页和上下文建议。
最需要的文件资源管理器功能之一是能够在单个文件资源管理器窗口中在自己的选项卡中打开文件夹。此功能 已 在 Windows 11 Insider Dev 频道预览版中作为隐藏功能进行测试,并于今天正式宣布。
正如您在下面看到的,新的文件资源管理器将允许您在其自己的选项卡中打开每个文件夹,让您快速切换文件夹或在它们之间复制数据。
Windows 11 文件资源管理器的选项卡式界面
来源:ZZQIDC
新的文件资源管理器主页提供您内容的鸟瞰视图,显示最近使用的内容、您的收藏夹和快速启动文件夹。
主屏幕还将共享有关每个文件的相关信息,例如上次修改者或是否有人发表评论,如下所示。
新文件资源管理器主页
来源:Microsoft
最后,Microsoft 将带来由 Microsoft 的 Context IQ AI 体验提供支持的 Contextual Suggestions,以便在您在文件资源管理器中执行各种操作时推荐内容和联系人。
“现在,通过 Context IQ 支持的 Windows 中的新上下文建议,查找文件变得轻而易举。这会推荐整个 Windows 中的相关内容和联系人——包括云中的内容,”微软的 Wangui McKelvey 在一篇新的博客文章中解释道。
“例如,我可以查看我可能想要的文件,包括我的经常合作者正在处理的文件,而我也可以访问这些文件。”
文件资源管理器在共享文件时提供上下文建议
来源:Microsoft
新的实时字幕辅助功能
微软正在为 Windows 11 的公开版本带来一项名为 Live Captions 的新辅助功能,该功能可以在操作系统中的所有音频体验和应用程序上启用字幕。
此功能允许失聪、听力困难或只是喜欢阅读视频内容的人启用实时字幕自动将音频转换为屏幕顶部显示的文本。
实时字幕功能
来源:微软
Windows 11 的焦点
Windows 11 的“焦点辅助”功能正在重新设计,可帮助您专注于手头的任务,同时消除不必要的干扰。
Windows 11 的 Focus 功能包括一个新的“请勿打扰”功能,可关闭所有通知和一个 Focus Timer,可让您指定不应该被打扰的时间。
将此与焦点会议相结合,它会增加定期休息时间,您将能够在使用设备时更长时间地集中精力。
为 Windows 11 功能重新设计的 Focus
来源:微软
开始菜单应用程序文件夹
最后,微软推出了适用于 Windows 11 开始菜单的应用程序文件夹,可让您创建文件夹来对类似应用程序进行分组。
例如,如果您想要一个专用于您喜爱的游戏的文件夹,您可以创建一个应用程序文件夹并将各种游戏快捷方式拖到该文件夹中,以便从一个地方轻松访问它们。
Windows 11 开始菜单应用程序文件夹
来源:Microsoft
新的网络安全和云 PC 功能
微软还宣布了新的 Windows 安全和云计算功能,因为它们对远程工作人员起着至关重要的作用。
这些解决方案包括 新的 Windows 365 Cloud PC 功能,例如 Windows 365 Offline,让用户即使在与 Internet 断开连接的情况下也可以继续使用他们的 Cloud PC。
另一个令人兴奋的功能是 Windows 365 启动,允许设备直接启动到他们的云 PC,而不是安装的操作系统。
微软还 为 Windows 11 带来了一长串新的安全功能,使员工能够更好地加密他们的文件并免受新出现的网络威胁,即使在家工作时也是如此。
您可以在我们上面的专门文章中阅读有关这些新安全和云功能的更多信息。
微软表示,Windows 11 将在即将发布的版本中获得更多安全改进,这将增加对网络安全威胁的更多保护,提供更好的加密,并阻止恶意应用程序和驱动程序。
“在 Windows 11 的未来版本中,您将看到重要的安全更新,通过结合现代硬件和软件,从芯片到云端提供更多保护,”企业和操作系统安全副总裁 David Weston 说。
Microsoft 在 Windows 11 中添加的一项新安全功能是在 Microsoft Defender SmartScreen(一种基于云的反网络钓鱼和反恶意软件服务)的帮助下,增强 了针对目标网络钓鱼攻击的 网络钓鱼防护
通过将 SmartScreen 集成到操作系统中,Windows 用户在将凭据输入恶意应用程序或被黑网站时会收到警告。
作为 SmartScreen 效率的证明,韦斯顿表示,仅在去年,微软就已经阻止了超过 256 亿次 Azure Active Directory 暴力验证攻击,并且能够在登陆收件人的收件箱之前拦截超过 357 亿封网络钓鱼电子邮件。
“这些增强功能将使 Windows 成为世界上第一个直接在平台中内置网络钓鱼保护并开箱即用的操作系统,以帮助用户保持生产力和安全,而无需学习成为自己的 IT 部门,”他补充说。
Windows 11 增强的网络钓鱼防护 (Microsoft)
保护用户数据和防止恶意驱动程序
Weston 还表示,Windows 11 用户将获得额外的安全层来保护他们的数据并作为对恶意驱动程序的防御。
例如,新计划的 个人数据加密 功能在用户未登录设备时通过阻止访问来保护用户的文件和数据,直到他们通过 Windows Hello 进行身份验证。
“要访问数据,用户必须首先使用 Windows Hello 企业版进行身份验证,将数据加密密钥与用户的无密码凭据相关联,这样即使设备丢失或被盗,数据也更能抵御攻击,敏感数据还有另一层保护内置,”韦斯顿说。
Windows 11 客户还可以启用 易受攻击的驱动程序阻止 列表,该列表使用 Windows Defender 应用程序控制 (WDAC) 自动阻止具有已知漏洞的驱动程序。
它可以针对具有以下任何属性的第三方开发的驱动程序强化 Windows 系统:
已知的安全漏洞,攻击者可以利用这些漏洞来提升 Windows 内核中的权限
用于签署恶意软件的恶意行为(恶意软件)或证书
非恶意但绕过 Windows 安全模型且可被攻击者利用以提升 Windows 内核权限的行为
Microsoft 易受攻击的驱动程序阻止列表 ( David Weston )
Windows 11 应用、企业安全改进
Smart App Control 是 Windows 11 计划的另一项重要安全增强功能,将在进程级别与操作系统集成,以阻止用户使用代码签名和 AI 模型运行恶意应用程序。
“当一个新的应用程序在 Windows 11 上运行时,它的核心签名和核心功能会根据这个模型进行检查,确保只允许运行已知的安全应用程序,Weston 补充说。
“这意味着 Windows 11 用户可以确信他们在新的 Windows 设备上只使用安全可靠的应用程序。”
Windows 11 智能应用控制(微软)
Microsoft 还希望为使用 Windows 11 Enterprise 的组织启用默认凭据保护和对本地安全机构 (LSA) 的额外保护,以进一步提高企业环境中的安全性。
自 2021 年 10 月新版本发布以来,该公司的工程师还添加了其他安全增强功能,以保护 Windows 11 用户的帐户、设备和应用程序。
可能其中最重要的一项名为 Config Lock 会锁定安全设置,以便在最终用户或攻击者尝试修改它们时自动恢复它们。
它利用 MDM 策略来监控注册表项并将其恢复到原始状态,如果用户正在更改它们,可能会使他们的设备不安全并受到攻击。
适用于 Linux 友好版本的 AlmaLinux 的 Windows 子系统已出现在 Microsoft Store中,为 WSL 用户增加了一系列令人印象深刻的选项。
源于Red Hat 的CentOS 恶作剧,其中 Red Hat Enterprise Linux (RHEL) 的免费下游分支被砍掉,AlmaLinux的创建是为了提供社区支持和 RHEL 二进制兼容的发行版。第一个稳定版本是在 2021 年 3 月,此后该非营利基金会一直在招募新成员,包括上个月 AMD 等公司。
随着公司在 Red Hat 的 CentOS 决定之后权衡他们的选择,AlmaLinux 声称一些高调的头皮。CentOS 于 2021 年底结束生命周期,导致 GitLab 等公司选择迁移到 AlmaLinux作为其构建平台。
该发行版增加了 WSL 用户可用的选项列表,包括 SUSE Linux Enterprise Server 和看似无处不在的 Ubuntu。WSL 是微软在 Windows 下运行 Linux 发行版(和应用程序)的方法。该平台的第一次迭代是一个翻译层,而第二次添加了一个 Linux 内核以提供一些额外的兼容性,同时还实现了一种轻量级的虚拟机方法。
在 WSL 下启动发行版很简单,并带来了一个声称与 RHEL 1:1 二进制兼容性的环境。
Microsoft Store 中其他与 Red Hat 兼容的选项包括 Whitewater Foundry 的 Pengwin Enterprise 8,尽管 Pengwin 是基于 Rocky Linux 构建的,据该公司称,“仅供演示和个人使用”。
虽然调整 Linux 发行版以使其在 WSL2 下工作并不完全是火箭科学(事实上,网上流传着许多关于使 RHEL 在该平台上工作的操作指南),但 AlmaLinux 的到来意义重大,特别是对于在具有在 RHEL 上标准化,但更喜欢 Windows 的代码整理工具