Storage Spaces overview
Applies To: Windows 10, Windows 8.1, Windows Server 2016, Windows Server 2012 R2, Windows Server 2012, Windows 8
This topic discusses Storage Spaces, a technology in Windows and Windows Server that enables you to virtualize storage by grouping industry-standard disks into storage pools, and then creating virtual disks called storage spaces from the available capacity in the storage pools. This topic provides an overview of the technology and new Storage Spaces functionality in Windows Server 2012 R2. The end of the topic also provides an up-to-date list of essential Storage Spaces topics.
For info about Storage Spaces Direct in Windows Server 2016, see — Storage Spaces Direct.
![]() | Did you know that Microsoft Azure provides similar functionality in the cloud? Learn more about Microsoft Azure storage solutions. Create a hybrid storage solution in Microsoft Azure: |
Did you mean…
In this topic
Technology description
Storage Spaces enables cost-effective, highly available, scalable, and flexible storage solutions for business-critical (virtual or physical) deployments. Storage Spaces delivers sophisticated storage virtualization capabilities, which empower customers to use industry-standard storage for single computer and scalable multi-node deployments. It is appropriate for a wide range of customers, including enterprise and cloud hosting companies, which use Windows Server for highly available storage that can cost-effectively grow with demand.
With Storage Spaces the Windows storage stack has been fundamentally enhanced to incorporate two new abstractions:
Storage pools. A collection of physical disks that enable you to aggregate disks, expand capacity in a flexible manner, and delegate administration.
Storage spaces. Virtual disks created from free space in a storage pool. Storage spaces have such attributes as resiliency level, storage tiers, fixed provisioning, and precise administrative control.
Storage Spaces is integrated with failover clustering for high availability, and it’s integrated with cluster shared volumes (CSV) for scale-out file server deployments. You can manage Storage Spaces through:
System Center Virtual Machine Manager
Failover Cluster Manager
Windows Management Instrumentation (WMI)
Important functionality
Storage Spaces includes the following features:
Storage pools. Storage pools are the fundamental building blocks for Storage Spaces. Storage administrators are already familiar with this concept, obviating the need to learn a new model. They can flexibly create storage pools based on the needs of the deployment. For example, given a set of physical disks, an administrator can create one pool (by using all the available physical disks) or multiple pools (by dividing the physical disks as required). Furthermore, to maximize the value from storage hardware, the administrator can combine hard disks and solid-state drives (SSDs) in the same pool, using storage tiers to move frequently accessed portions of files to SSD storage, and using write-back caches to buffer small random writes to SSD storage. Pools can be expanded dynamically by simply adding additional disks, thereby seamlessly scaling to cope with data growth.
Resilient storage. Storage Spaces provides three storage layouts (also known as resiliency types):
Mirror. Writes data in a stripe across multiple disks while also writing one or two extra copies of the data. Use the mirror layout for most workloads – it helps protect your data from disk failures and provides great performance, especially when you add some SSDs to your storage pool and use storage tiers.
Parity. Writes data in a stripe across physical disks while also writing one or two copies of parity information. Use the parity layout for archival and streaming media workloads, or other workloads where you want to maximize capacity and you’re OK with lower write performance.
Simple (no resiliency). Writes data in a stripe across physical disks without any extra copies or parity information. Because the simple layout doesn’t provide any protection from disk failures, use it only when you require the highest performance and capacity and you’re OK with losing or recreating the data if a disk fails. You can also use the simple layout when your application provides its own data protection.
Additionally, Storage Spaces can automatically repair mirror and parity spaces in which a disk fails by using dedicated disks that are reserved for replacing failed disks (hot spares), or more rapidly by using spare capacity on other disks in the pool. Storage Spaces also includes background scrubbing and intelligent error correction to allow continuous service availability despite storage component failures. In the event of a power failure or cluster failover, the integrity of data is preserved so that recovery happens quickly without lost data.
Continuous availability. Storage Spaces is integrated with failover clustering, which allows it to deliver continuously available service deployments. One or more pools can be clustered across multiple nodes within a single cluster. Storage spaces are accessed by one node, and the storage will seamlessly fail over to a different node when necessary (in response to failure conditions or due to load balancing). Integration with CSVs permits scale-out access to data.
Storage tiers. Storage tiers combine the best attributes of SSDs and hard disk drives (HDDs) by letting you create virtual disks with two tiers of storage – an SSD tier for frequently accessed data, and a HDD tier for less-frequently accessed data. New data is generally written to the HDD tier and then Storage Spaces transparently moves data at a sub-file level between the two tiers based on how frequently data is accessed. As a result, storage tiers can dramatically increase performance for the most used (“hot”) data by moving it to SSD storage, without sacrificing the ability to store large quantities of data on inexpensive HDDs.
Write-back cache. Storage Spaces in Windows Server 2012 R2 supports creating a write-back cache that uses a small amount of space on existing SSDs in the pool to buffer small random writes. Random writes, which often dominate common enterprise workloads, are directed to SSDs and later are written to HDDs.
Operational simplicity. The Windows Storage Management API, WMI, and Windows PowerShell permit full scripting and remote management. Storage Spaces can also be easily managed through the File and Storage Services role in Server Manager and through System Center Virtual Machine Manager. Storage Spaces also provides notifications when the amount of available capacity in a storage pool hits a configurable threshold.
Multitenancy. Administration of storage pools can be controlled through access control lists (ACLs) and delegated on a per-pool basis, thereby supporting hosting scenarios that require tenant isolation. Storage Spaces follows the familiar Windows security model; therefore, it can be fully integrated with Active Directory Domain Services.
New and changed functionality
The following table describes some of the major changes in Storage Spaces. For more detailed information, see What’s New in Storage Spaces.
| Feature/functionality | New or updated? | Description |
|---|---|---|
| Storage tiers | New | Automatically moves frequently accessed data to faster (SSD) storage and infrequently accessed data to slower (HDD) storage. |
| Write-back cache | New | Buffers small random writes to SSD storage, reducing the latency of writes. |
| Parity space support for failover clusters | New | Enables you to create parity spaces on failover clusters. |
| Dual parity | New | Stores two copies of the parity information on a parity space, helping protect you from two simultaneous disk failures while optimizing for storage efficiency. |
| Automatically rebuild storage spaces from storage pool free space | New | Greatly decreases how long it takes to rebuild a storage space after a disk failure by using spare capacity in the pool instead of a single hot spare. |
Requirements
Storage Spaces has the following requirements:
Windows Server 2012 R2, Windows Server 2012, Windows 8.1, or Windows 8
Serial ATA (SATA) or Serial Attached SCSI (SAS) connected disks, optionally in a just-a-bunch-of-disks (JBOD) enclosure
RAID adapters, if used, must have all RAID functionality disabled and must not obscure any attached devices, including enclosure services provided by an attached JBOD.
Consumers can use USB drives with Storage Spaces, though USB 3 drives are recommended to ensure a high level of performance. USB 2 drives will decrease performance – a single USB 2 hard drive can saturate the bandwidth available on the shared USB bus, limiting performance when multiple drives are attached to the same USB 2 controller. When using USB 2 drives, plug them directly into different USB controllers on your computer, do not use USB hubs, and add USB 2 drives to a separate storage pool used only for storage spaces that do not require a high level of performance.
For shared-storage deployments on failover clusters:
Two or more servers running Windows Server 2012 R2 or Windows Server 2012
Requirements as specified for failover clustering and Cluster Shared Volumes (CSV)
SAS connected JBODs that comply with Windows Certification requirements
For a list of certified JBODs, see the Windows Server Catalog.
Identical SAS HBAs that are certified for use with Storage Spaces
These HBAs are connected to all JBOD enclosures in the file server cluster, and can’t have built-in RAID functionality.
For information about using Storage Spaces to host virtual machines for large scale Hyper-V workloads, see Provide cost-effective storage for Hyper-V workloads by using Windows Server.
Interoperability with Azure virtual machines
You can use Storage Spaces inside an Azure virtual machine to combine multiple virtual hard drives, creating more storage capacity or performance than is available from a single Azure virtual hard drive.
There are three supported scenarios for using Storage Spaces in Azure virtual machines, but there are some limitations and best practices that you should follow, as described below.
As high performance and/or capacity storage for a virtual machine
As backup targets for System Center Data Protection Manager
When using Storage Spaces to pool multiple Azure virtual hard drive (VHD) files for use with an Azure virtual machine, follow these guidelines:
Create a single virtual disk per pool with the Simple resiliency type. Azure already provides resiliency for its .vhd files, so we don’t support adding another layer on top of this.
When creating virtual disks from more than eight pooled .vhd files (which appear as physical disks to Storage Spaces), use the New-Volume or New-VirtualDisk cmdlet to create the virtual disk with the same number of columns as physical disks (in this case, .vhd files) in the pool — the New Virtual Disk Wizard in Server Manager won’t create virtual disks with more than eight columns.
After creating the virtual disk, use the Format-Volume cmdlet with the -AllocationUnitSize 64KB –UseLargeFRS parameters to format the volume with a 64 KB NTFS allocation unit size and enable large FRS support. Doing so reduces the likelihood of file system fragmentation causing issues.
Install the hotfix described in Microsoft Knowledge Base article 3063075.
We don’t support Storage Spaces with shared storage and Failover Clustering in Azure at this time.
When using Microsoft SQL Server AlwaysOn in Azure virtual machines with Storage Spaces, refer to the best practices described in Extending SQL Server 2014 AlwaysOn Resource Groups with Storage Spaces on Microsoft Azure and Using Storage Spaces on an Azure VM cluster for SQL Server storage.
See also
For additional related information, see the following resources.
Обзор локальных дисковых пространств Storage Spaces Direct overview
Область применения: Azure Stack ХЦИ, Windows Server 2019, Windows Server 2016 Applies to: Azure Stack HCI, Windows Server 2019, Windows Server 2016
Локальные дисковые пространства используют стандартные серверы с локально подключенными дисками для создания программно-определяемого хранилища с высоким уровнем доступности и масштабируемости, причем стоимость такого хранилища значительно ниже стоимости традиционных массивов SAN или NAS. Storage Spaces Direct uses industry-standard servers with local-attached drives to create highly available, highly scalable software-defined storage at a fraction of the cost of traditional SAN or NAS arrays. Ее конвергенция или архитектура с поддержкой технологии Hyper-in значительно упрощает закупку и развертывание, в то время как такие функции, как кэширование, уровни хранилища и очисткиное кодирование, а также новейшие нововведения оборудования, такие как сетевые подключения RDMA и накопители NVMe, обеспечивают непревзойденную эффективность и производительность. Its converged or hyper-converged architecture radically simplifies procurement and deployment, while features such as caching, storage tiers, and erasure coding, together with the latest hardware innovations such as RDMA networking and NVMe drives, deliver unrivaled efficiency and performance.
Локальные дисковые пространства входит в Azure Stack хЦи, windows Server 2019 Datacenter, windows Server 2016 Datacenter и сборки Windows Server InsiderPreview. Storage Spaces Direct is included in Azure Stack HCI, Windows Server 2019 Datacenter, Windows Server 2016 Datacenter, and Windows Server Insider Preview Builds.
Дополнительные сведения о других приложениях дисковых пространств, таких как общие кластеры SAS и изолированные серверы, см. в разделе Обзор дисковых пространств. For other applications of Storage Spaces, such as shared SAS clusters and stand-alone servers, see Storage Spaces overview. Если вы ищете сведения об использовании дисковых пространств на компьютере с Windows 10, см. раздел дисковые пространства в Windows 10. If you’re looking for info about using Storage Spaces on a Windows 10 PC, see Storage Spaces in Windows 10.
| Описание Description | Документация Documentation |
|---|---|
Общие сведенияUnderstand
| ПланPlan
|
РазвертываниеDeploy
| УправлениеManage
|
Устранение неполадокTroubleshooting
| Последние записи в блогеRecent blog posts
|
Видео Videos
Краткий обзор видео (5 минут) Quick Video Overview (5 minutes)
Локальные дисковые пространства в Microsoft Ignite 2018 (1 час) Storage Spaces Direct at Microsoft Ignite 2018 (1 hour)
Локальные дисковые пространства в Microsoft Ignite 2017 (1 час) Storage Spaces Direct at Microsoft Ignite 2017 (1 hour)
Событие запуска в Microsoft Ignite 2016 (1 час) Launch Event at Microsoft Ignite 2016 (1 hour)
Основные преимущества Key benefits
| Изображение Image | Описание Description |
|---|---|
| Простоты. Simplicity. Создать кластер локальных дисковых пространств на основе стандартных серверов с ОС Windows Server 2016 можно меньше чем за 15 минут. Go from industry-standard servers running Windows Server 2016 to your first Storage Spaces Direct cluster in under 15 minutes. Пользователи System Center могут выполнить развертывание, установив один флажок. For System Center users, deployment is just one checkbox. | |
| Непревзойденная производительность. Unrivaled Performance. Как при использовании только флэш-памяти, так и при использовании гибридных носителей локальные дисковые пространства позволяют обеспечить скорость ввода-вывода более 150 000 операций в секунду в смешанном режиме и более 4000 операций в секунду в произвольном режиме на сервер со стабильно низкой задержкой. Это достигается благодаря архитектуре со встроенной низкоуровневой оболочкой, встроенному кэшу чтения и записи и поддержке передовых дисков NVMe, подключаемых непосредственно к шине PCIe. Whether all-flash or hybrid, Storage Spaces Direct easily exceeds 150,000 mixed 4k random IOPS per server with consistent, low latency thanks to its hypervisor-embedded architecture, its built-in read/write cache, and support for cutting-edge NVMe drives mounted directly on the PCIe bus. | |
| Отказоустойчивость. Fault Tolerance. Встроенные средства отказоустойчивости обрабатывают сбои дисков, серверов или компонентов, обеспечивая непрерывную доступность. Built-in resiliency handles drive, server, or component failures with continuous availability. В более масштабных развертываниях можно также настроить отказоустойчивость шасси и стоек. Larger deployments can also be configured for chassis and rack fault tolerance. При сбое оборудования просто отключите его: программное обеспечение восстановит работоспособность самостоятельно, без выполнения сложных действий по управлению. When hardware fails, just swap it out; the software heals itself, with no complicated management steps. | |
| Эффективность ресурсов. Resource Efficiency. Помехоустойчивое кодирование повышает экономичность хранения в 2,4 раза, а уникальные инновации, такие как локальные коды реконструкции и уровни ReFS в режиме реального времени, позволяют распространить эти преимущества на жесткие диски и смешанные (холодные и горячие) рабочие нагрузки. При этом снижается загрузка ЦП, и ресурсы высвобождаются для наиболее важной задачи — выполнения виртуальных машин. Erasure coding delivers up to 2.4x greater storage efficiency, with unique innovations like Local Reconstruction Codes and ReFS real-time tiers to extend these gains to hard disk drives and mixed hot/cold workloads, all while minimizing CPU consumption to give resources back to where they’re needed most — the VMs. | |
| Управляемость. Manageability. Используйте средства управления качеством обслуживания хранилища, чтобы контролировать работу наиболее загруженных виртуальных машин с помощью минимальных и максимальных значений скорости ввода-вывода на виртуальную машину. Use Storage QoS Controls to keep overly busy VMs in check with minimum and maximum per-VM IOPS limits. Служба работоспособности предоставляет встроенные возможности непрерывного мониторинга и оповещения, а новые интерфейсы API позволяют легко собирать расширенные метрики производительности и емкости в масштабе всего кластера. The Health Service provides continuous built-in monitoring and alerting, and new APIs make it easy to collect rich, cluster-wide performance and capacity metrics. | |
| Масштабируемость. Scalability. Поддерживается масштабирование до 16 серверов и более чем 400 дисков, что позволяет получать объем хранилища в 1 петабайт (1000 терабайт) на кластер. Go up to 16 servers and over 400 drives, for up to 1 petabyte (1,000 terabytes) of storage per cluster. Чтобы осуществить масштабирование, просто добавьте диски или серверы. Локальные дисковые пространства автоматически подключат новые диски и начнут использовать их. To scale out, simply add drives or add more servers; Storage Spaces Direct will automatically onboard new drives and begin using them. Эффективность и производительность хранилища повышают предсказуемость при масштабировании. Storage efficiency and performance improve predictably at scale. |
Параметры развертывания Deployment options
Локальные дисковые пространства предусматривают два разных варианта развертывания. Storage Spaces Direct was designed for two distinct deployment options:
Схождение выполнено Converged
хранение и вычисление в отдельных кластерах. Storage and compute in separate clusters. При конвергентном развертывании, также известном как дезагрегированное, масштабируемый файловый сервер (SoFS) размещается поверх локальных дисковых пространств для предоставления подключенного к сети хранилища посредством общих папок SMB3. The converged deployment option, also known as ‘disaggregated’, layers a Scale-out File Server (SoFS) atop Storage Spaces Direct to provide network-attached storage over SMB3 file shares. Это позволяет масштабировать вычислительные ресурсы и рабочие нагрузки независимо от кластера хранилища, особенно в масштабных развертываниях, например Hyper-V IaaS (инфраструктура как услуга), для поставщиков услуг и крупных предприятий. This allows for scaling compute/workload independently from the storage cluster, essential for larger-scale deployments such as Hyper-V IaaS (Infrastructure as a Service) for service providers and enterprises.
Гиперконвергентные Hyper-Converged
Один кластер для вычислений и хранения данных. One cluster for compute and storage. При гиперконвергентном развертывании виртуальные машины Hyper-V или базы данных SQL Server работают непосредственно на серверах, предоставляющих хранилище, и сохраняют файлы в локальных томах. The hyper-converged deployment option runs Hyper-V virtual machines or SQL Server databases directly on the servers providing the storage, storing their files on the local volumes. Это устраняет необходимость в настройке доступа к файловым серверам и разрешений. Кроме того, снижается стоимость оборудования при развертывании на малых и средних предприятиях, а также в удаленных офисах и филиалах. This eliminates the need to configure file server access and permissions, and reduces hardware costs for small-to-medium business or remote office/branch office deployments. См. раздел Deploy Локальные дисковые пространства. See Deploy Storage Spaces Direct.
Принцип работы How it works
Локальные дисковые пространства являются развитием дисковых пространств, впервые представленных в Windows Server 2012. Storage Spaces Direct is the evolution of Storage Spaces, first introduced in Windows Server 2012. В них используется множество существующих возможностей Windows Server, таких как отказоустойчивая кластеризация, файловая система CSV, протокол SMB3 и, конечно, дисковые пространства. It leverages many of the features you know today in Windows Server, such as Failover Clustering, the Cluster Shared Volume (CSV) file system, Server Message Block (SMB) 3, and of course Storage Spaces. В них также были реализованы новые технологии, в первую очередь шина Software Storage Bus. It also introduces new technology, most notably the Software Storage Bus.
Ниже представлен обзор стека локальных дисковых пространств. Here’s an overview of the Storage Spaces Direct stack:
Оборудование для сетевого взаимодействия. Networking Hardware. Для обмена данными между серверами локальные дисковые пространства используют протокол SMB3, включая SMB Direct и SMB Multichannel, работающий через Ethernet. Storage Spaces Direct uses SMB3, including SMB Direct and SMB Multichannel, over Ethernet to communicate between servers. Мы настоятельно рекомендуем использовать Ethernet со скоростью передачи данных более 10 Гбит/с и удаленным доступом к памяти (RDMA) — iWARP или RoCE. We strongly recommend 10+ GbE with remote-direct memory access (RDMA), either iWARP or RoCE.
Оборудование хранилища. Storage Hardware. От 2 до 16 серверов с локально подключенными дисками SATA, SAS или NVMe. From 2 to 16 servers with local-attached SATA, SAS, or NVMe drives. Каждый сервер должен иметь по крайней мере 2 твердотельных накопителя и 4 дополнительных диска. Each server must have at least 2 solid-state drives, and at least 4 additional drives. Устройства SATA и SAS должны располагаться за адаптером шины (HBA) и расширителем SAS. The SATA and SAS devices should be behind a host-bus adapter (HBA) and SAS expander. Мы настоятельно рекомендуем использовать тщательно спроектированные и протестированные платформы от наших партнеров (ожидаются в ближайшее время). We strongly recommend the meticulously engineered and extensively validated platforms from our partners (coming soon).
Отказоустойчивая кластеризация. Failover Clustering. Встроенная функция кластеризации Windows Server используется для подключения серверов. The built-in clustering feature of Windows Server is used to connect the servers.
Шина хранилища программного обеспечения. Software Storage Bus. Шина Software Storage Bus — это новая технология, представленная в локальных дисковых пространствах. The Software Storage Bus is new in Storage Spaces Direct. Она охватывает весь кластер и создает программно-определяемую структуру хранения, в которой каждый сервер имеет доступ к локальным дискам любого другого сервера. It spans the cluster and establishes a software-defined storage fabric whereby all the servers can see all of each other’s local drives. Это можно рассматривать как замену дорогостоящим и ограниченным в своих возможностях подключениям Fibre Channel или Shared SAS. You can think of it as replacing costly and restrictive Fibre Channel or Shared SAS cabling.
Кэш уровня шины хранилища. Storage Bus Layer Cache. Шина Software Storage Bus динамически связывает самые быстрые диски (например, SSD) с более медленными дисками (например, жесткими дисками) для обеспечения кэширования при чтении и записи на стороне сервера с целью ускорить ввод-вывод и повысить пропускную способность. The Software Storage Bus dynamically binds the fastest drives present (e.g. SSD) to slower drives (e.g. HDDs) to provide server-side read/write caching that accelerates IO and boosts throughput.
Пул носителей. Storage Pool. Набор дисков, которые образуют основу для дисковых пространств, называется пулом носителей. The collection of drives that form the basis of Storage Spaces is called the storage pool. Он создается автоматически, и все подходящие диски обнаруживаются и добавляются в него также автоматически. It is automatically created, and all eligible drives are automatically discovered and added to it. Мы настоятельно рекомендуем использовать один пул носителей в каждом кластере с параметрами по умолчанию. We strongly recommend you use one pool per cluster, with the default settings. Прочитайте раздел Глубокое погружение в пул носителей, чтобы узнать больше. Read our Deep Dive into the Storage Pool to learn more.
Дисковые пространства. Storage Spaces. Дисковые пространства обеспечивают отказоустойчивость виртуальных дисков с помощью зеркального отображения, очистки кодирования или и того и другого. Storage Spaces provides fault tolerance to virtual «disks» using mirroring, erasure coding, or both. Их можно представить как распределенный программно-определяемый массив RAID на основе дисков в пуле. You can think of it as distributed, software-defined RAID using the drives in the pool. В локальных дисковых пространствах виртуальные диски обычно устойчивы к одновременному сбою двух дисков или серверов (то есть применяется трехстороннее зеркалирование, при котором каждая копия данных размещается на отдельном сервере), хотя также доступна отказоустойчивость на уровне шасси или стоек. In Storage Spaces Direct, these virtual disks typically have resiliency to two simultaneous drive or server failures (e.g. 3-way mirroring, with each data copy in a different server) though chassis and rack fault tolerance is also available.
Устойчивая файловая система (ReFS). Resilient File System (ReFS). ReFS — это файловая система с превосходными возможностями, предназначенная специально для виртуализации. ReFS is the premier filesystem purpose-built for virtualization. Она позволяет существенно ускорить операции с файлами VHDX, такие как создание, расширение и объединение контрольных точек, а также имеет встроенные средства проверки контрольной суммы для обнаружения и исправления ошибок на уровне отдельных битов. It includes dramatic accelerations for .vhdx file operations such as creation, expansion, and checkpoint merging, and built-in checksums to detect and correct bit errors. В ней также реализовано переключение уровней в режиме реального времени, позволяющее переносить данные между «активными» и «пассивными» уровнями хранения в режиме реального времени в соответствии с интенсивностью использования. It also introduces real-time tiers that rotate data between so-called «hot» and «cold» storage tiers in real-time based on usage.
Общие тома кластера. Cluster Shared Volumes. Файловая система CSV объединяет все тома ReFS в единое пространство имен, доступное с любого сервера, так что для каждого сервера все тома представляются как локально подключенные. The CSV file system unifies all the ReFS volumes into a single namespace accessible through any server, so that to each server, every volume looks and acts like it’s mounted locally.
масштабируемый файловый сервер. Scale-Out File Server. Этот последний уровень необходим только в конвергентных развертываниях. This final layer is necessary in converged deployments only. Он обеспечивает удаленный доступ к файлам со стороны клиентов, например другого кластера Hyper-V, через сеть по протоколу SMB3. Таким образом локальные дисковые пространства по сути превращаются в подключенное к сети хранилище (NAS). It provides remote file access using the SMB3 access protocol to clients, such as another cluster running Hyper-V, over the network, effectively turning Storage Spaces Direct into network-attached storage (NAS).
Истории клиентов Customer stories
Существует более 10 000 кластеров по всему миру, где работают Локальные дисковые пространства. There are over 10,000 clusters worldwide running Storage Spaces Direct. Организации всех размеров, от малых предприятий, развертывающих всего два узла, до крупных предприятий и правительственных учреждений, развертывающих сотни узлов, зависят от Локальные дисковые пространства для критически важных приложений и инфраструктуры. Organizations of all sizes, from small businesses deploying just two nodes, to large enterprises and governments deploying hundreds of nodes, depend on Storage Spaces Direct for their critical applications and infrastructure.
Посетите Microsoft.com/HCI , чтобы прочитать свои истории: Visit Microsoft.com/HCI to read their stories:


Средства управления Management tools
Для управления и (или) мониторинга Локальные дисковые пространства можно использовать следующие средства. The following tools can be used to manage and/or monitor Storage Spaces Direct:
| name Name | Графический или Командная строка? Graphical or command-line? | Оплачивается или включается? Paid or included? |
|---|---|---|
| Windows Admin Center; Windows Admin Center | Графический Graphical | Включено Included |
| Диспетчер сервера & диспетчер отказоустойчивости кластеров Server Manager & Failover Cluster Manager | Графический Graphical | Включено Included |
| Windows PowerShell Windows PowerShell | Командная строка Command-line | Включено Included |
| System Center Virtual Machine Manager (SCVMM) System Center Virtual Machine Manager (SCVMM) & Operations Manager (SCOM) & Operations Manager (SCOM) | Графический Graphical | Платный Paid |
Начало работы Get started
Попробуйте локальные дисковые пространства в Microsoft Azure или скачайте ознакомительную версию Windows Server с лицензией на 180 дней. Try Storage Spaces Direct in Microsoft Azure, or download a 180-day-licensed evaluation copy of Windows Server from Windows Server Evaluations.

.jpeg)


